View
216
Download
0
Category
Preview:
Citation preview
Procesos de dualización en la sociedad de la información:
Algunas polémicas públicas de índole tecnológica
Rubén Román Galán
PROYECTO FIN DE CARRERA
PLAN 2000 E.U.I.T. TELECOMUNICACIÓN
RESUMEN DEL PROYECTO:
TEMA:
TÍTULO:
AUTOR:
TUTOR: Vº Bº.
DEPARTAMENTO:
Miembros del Tribunal Calificador:
PRESIDENTE:
VOCAL:
VOCAL SECRETARIO:
DIRECTOR:
Fecha de lectura:
Calificación: El Secretario,
2
Resumen
La tecnología ha cambiado el mundo, pero las consecuencias de estos cambios en la
sociedad no siempre se han pronosticado bien. Las Tecnologías de la Información
transformaron el método de producción industrial. La nueva industria produce ideas y
conceptos, no objetos. Este cambio ha dado como resultado una sociedad dualizada, ha
desaparecido gran parte de la clase media y han aumentado las diferencias entre la clase alta y
la baja. Las exigencias educativas de los nuevos puestos de trabajo innovadores son superiores
a los de la industria tradicional, pero inferiores en los puestos de trabajo de producción.
Además, el número de puestos de trabajo disponibles de este tipo es menor que en la
industria tradicional, se necesita menos mano de obra, los procesos se pueden automatizar, las
tareas mecánicas se aprenden en poco tiempo y son trabajos temporales, cuyo número
dependerá de la demanda global.
Para que el proceso de innovación funcione, las empresas se reúnen en las zonas
financieras de grandes ciudades, como Nueva York o Londres, que fueron las primeras con
acceso a las redes de telecomunicación. De esta manera se producen sinergias que
contribuyen a mejorar el proceso innovador global. Estas ideas y conceptos que cambian el
mundo necesitan de este entorno de producción, que no puede ser replicado, y son tan
importantes que su acceso está restringido para la mayor parte del mundo por distintos
mecanismos de control.
El despliegue de las redes de telecomunicaciones inalámbricas ha sido enorme en los
últimos años. El cliente busca llamar desde cualquier lugar y llevar un acceso a Internet en
teléfono móvil. Para conseguirlo, las operadoras de telefonía móvil necesitan poner antenas de
telefonía móvil en las ciudades, pero la instalación cerca de edificios no está siendo fácil. Pocos
quieren tener una antena cerca por los problemas de salud de las personas que padecen los
que ya viven o trabajan cerca de una. Los efectos del electromagnetismo en los seres humanos
no están claros y provocan desconfianza hacia las antenas.
La digitalización de los contenidos, que ha sido necesaria para transmitir contenido en
Internet, permite que cualquier persona con un ordenador y una conexión a Internet pueda
publicar un disco, una película o un libro. Pero esa persona también puede copiar los
originales y enviarlos a cualquier lugar del mundo sin el permiso del autor. Con el fin de
controlar la copia no autorizada, los derechos de autor se están usando para cambiar leyes e
incluir sistemas de censura en Internet. Estos sistemas permiten a los autores eliminar el
contenido ilegal, pero también pueden ser usados para censurar cualquier tipo de información.
El control de la información es poder y usarlo de una manera o de otra afecta a todo el
planeta. El problema no es la tecnología, que es solo una herramienta, es la forma que tienen
los gobiernos y las grandes empresas de usarlo.
Abstract
Technology has changed the world, but the consequences of these changes in society
have not always been well predicted. The Information Technology transformed the industrial
production method. The new industry produces ideas and concepts, not objects. This change
has resulted in a society dualized, most of the middle class has disappeared and the
differences between high and low class have increased. The educational requirements of new
innovative jobs are higher than the ones of the traditional industry, but lower in production
jobs. Moreover, the number of available jobs of this type is lower than in the traditional
industry, it takes less manpower, processes can be automated, mechanical tasks are learned in
a short time and jobs are temporary, whose number depends on global demand.
For the innovation process works, companies meet in the business districts of large
cities, like New York or London, which were the first with access to telecommunications
networks. This will produce synergies that improve the overall innovation process. These ideas
and concepts that change the world need this production environment, which cannot be
replicated, and are so important that their access is restricted to most of the world by different
control mechanisms.
The deploy of wireless telecommunications networks has been enormous in recent
years. The client seeks to call from anywhere and to bring Internet access in his mobile phone.
To achieve this, mobile operators need to put cell towers in cities, but the installation near
buildings is not being easy. Just a few want to have an antenna closely because of the health
problems suffered by people who already live or work near one. The effects of
electromagnetism in humans are unclear and cause distrust of antennas.
The digitization of content, which has been necessary to transmit Internet content,
allows anyone with a computer and an Internet connection to be able to publish an album, a
movie or a book. But that person can also copy the originals and send them anywhere in the
world without the author's permission. In order to control the unauthorized copying, copyright
is being used to change laws and include Internet censorship systems. These systems allow
authors to eliminate illegal content, but may also be used to censor any information.
The control of knowledge is power and using it in one way or another affects the
whole planet. The problem is not technology, which is just a tool, but the way that
governments and large corporations use it.
3
Índice
Contenido
Introducción .................................................................................................................................. 5
Parte I: Impacto e influencia de las Tecnologías de la Información en la sociedad a lo largo de la
historia .......................................................................................................................................... 7
Introducción .............................................................................................................................. 7
Capítulo 1: Crecimiento y desarrollo de las tecnologías de la información .............................. 9
Introducción ........................................................................................................................ 11
Informacionalismo .............................................................................................................. 12
El nuevo espacio industrial .................................................................................................. 16
El espacio de flujos .............................................................................................................. 25
Conclusión ........................................................................................................................... 30
Capítulo 2: Cambios en la sociedad provocados por las tecnologías de la información ........ 33
Introducción ........................................................................................................................ 35
Transformación de la estructura ocupacional .................................................................... 35
La ciudad dual: la nueva estructura social urbana .............................................................. 40
La pérdida del estado del bienestar .................................................................................... 44
Alta tecnología y política ..................................................................................................... 46
Globalización económica y tecnología ................................................................................ 49
Conclusión ............................................................................................................................... 52
Parte II: Polémicas en la ubicación de antenas de telefonía móvil ............................................. 55
Introducción ............................................................................................................................ 55
Capítulo 4: Expansión y crecimiento de la red de telefonía móvil .......................................... 57
Situación de la telefonía móvil en España ........................................................................... 59
Las operadoras de telefonía móvil en España ..................................................................... 62
Problemas de cobertura ...................................................................................................... 66
4
Ubicación de antenas y repetidores .................................................................................... 69
Capítulo 5: Polémicas con las emisiones electromagnéticas. Antenas de telefonía móvil. .... 75
Evolución de las redes de móviles ....................................................................................... 77
Contaminación electromagnética: natural y artificial ......................................................... 78
Campos electromagnéticos no ionizantes: efectos en la salud .......................................... 83
Telefonía móvil y contaminación electromagnética ........................................................... 87
Las estaciones móviles: los teléfonos móviles .................................................................... 95
Conclusión ............................................................................................................................... 99
Parte III: Polémicas con los derechos de autor ......................................................................... 104
Introducción .......................................................................................................................... 104
Capítulo 6: Las compañías audiovisuales y los autores ......................................................... 107
La industria discografía ..................................................................................................... 109
La industria cinematográfica ............................................................................................. 119
Las empresas editoriales y de prensa ............................................................................... 131
Capítulo 7: La tecnología y los derechos de autor ................................................................ 141
Electrónica de consumo .................................................................................................... 143
Internet.............................................................................................................................. 158
Capítulo 8: Los derechos de autor ........................................................................................ 177
Historia del duplicado ....................................................................................................... 179
Los orígenes de los derechos de autor .............................................................................. 181
Derechos de autor y tecnología ........................................................................................ 184
Presente y futuro de los derechos de autor ...................................................................... 196
Conclusión ............................................................................................................................. 204
Conclusión ................................................................................................................................. 211
Bibliografía ................................................................................................................................ 219
5
Introducción
Uno de los objetivos de este trabajo es ver los efectos que ha tenido y está teniendo la
aplicación de las tecnologías de la información en la sociedad. Se analizará si los avances
tecnológicos son siempre positivos para todos, tal y como se presentan a la opinión pública, o
si por el contrario tienen algún efecto contraproducente que no se enseña. Actualmente, como
en otras épocas de crisis económica, se habla de que es necesario invertir en la tecnología y
aumentar los presupuestos de Investigación y Desarrollo (I+D) para volver a la senda de
crecimiento económico y a la creación de empleo. Pero estas soluciones ya se han aplicado en
otros períodos de crisis con un resultado no fue el esperado, al menos para todos. Mediante
un repaso a la historia reciente se verán que decisiones se tomaron, las consecuencias de estas
y los factores externos que guiaron a las innovaciones tecnológicas que han cambiado y están
cambiando la sociedad de todo el mundo.
Se comenzará por analizar los efectos que ha tenido el uso de la tecnología de
semiconductores en la sociedad, básicos en los ordenadores personales y en las redes de
telecomunicaciones. Para ello se dará una visión de lo que ha sucedido a lo largo las últimas
décadas en los Estados Unidos de América. La elección del país no ha sido al azar, es uno de los
pioneros en la aplicación la tecnología en muchos campos, por su gran influencia sobre las
economías y las sociedades del resto del mundo permiten situarlo como epicentro de los
avances y los cambios. A pesar de sus particularidades, es posible extrapolar los resultados,
con algunos matices, a la mayor parte de países del mundo que han acabado aplicando sus
metodologías. Ciertas aplicaciones de las tecnologías de la información que se han usado a lo
largo de los años han provocado que las diferencias entre clases sociales sean mayores que
antaño, tanto en Estados Unidos como en el resto de países. En este proceso, la clase media ha
visto disminuido en el porcentaje total respecto al resto y no ha sido de forma casual. La forma
de usar la tecnología ha provocado que cada vez exista una más diferencia entre las clases
sociales, se promueve una sociedad polarizada.
Las redes de telecomunicaciones y los dispositivos electrónicos permiten que el mundo
esté ahora más conectado de lo que nunca ha estado, que se tenga acceso a más información
más rápido que en ningún otro momento de la historia de la humanidad. Pero la información
no llega a todo el mundo por igual, la más importante está restringida y limitada a unas áreas
concretas de ciertos países con más poder e influencia. En la era de la información, disponer
de ella es lo que marca la diferencia y da poder sobre los demás. En la primera parte se
6
analizara el uso de las tecnologías de la información en los Estados Unidos, cuáles son los
motivos por los que la tecnología se ha aplicado de esa manera, las consecuencias que ha
tenido geográficamente, los efectos ha tenido sobre la sociedad y se comprobará si ha
mejorado o no la situación anterior.
Tras este análisis se plantearan unos casos prácticos de ciertas polémicas que se están
dando actualmente con la tecnología. El primero será el de la colocación de las antenas de
telefonía móvil, necesarias para poder aprovechar las funciones de los nuevos teléfonos
móviles con acceso a Internet de banda ancha, pero que nadie quiere junto a su domicilio,
trabajo o junto al colegio de sus hijos. El desconocimiento de la gente a esta tecnología y el
miedo a las emisiones electromagnéticas está detrás del rechazo. Para ello se dará una imagen
de la situación actual del sector de la telefonía móvil en España, una explicación de las
emisiones electromagnéticas que se generan, los efectos de estas sobre los seres vivos, como
se tratan estas informaciones en los medios de comunicación y si hay otras emisiones de este
tipo que permanecen en un segundo plano informativo.
Tras los problemas de la telefonía móvil, se analizará el efecto que ha tenido el uso de
la tecnología en el mundo cultura, concretamente en la música, el cine o la literatura. El
impacto que ha tenido y está teniendo en los autores y en los derechos de sus obras está
generando discusiones que son noticia habitual en los medios de comunicación. Como los
autores acusan a los propietarios de cualquier equipo electrónico o a los usuarios de Internet
de robarles, como los usuarios se quejan de los precios de los soportes y de que es más
sencillo descargar que pagar. Con un recorrido histórico se mostrarán los momentos claves en
los que la introducción de las innovaciones tecnología ha cambiado el negocio audiovisual y
editorial, los efectos que han tenido en los autores y las decisiones que se han ido tomando a
lo largo de los últimos siglos, con especial interés en las dos últimas décadas. También se verá
si los problemas actuales con los derechos de autor son algo nuevo debido a la tecnología o si
ya estaba antes.
7
Parte I: Impacto e influencia de las Tecnologías de la Información en la
sociedad a lo largo de la historia
Introducción
La solución que suele dar el ser humano a cualquier problema de cierta importancia es
tratar de aplicar la tecnología, de cualquier tipo, para que resulte más sencillo afrontarlo a
diario. El problema es que no siempre se han evaluado bien las consecuencias antes, no
siempre se ha buscado un beneficio común, más bien ha sido particular, y que no siempre se
resuelve correctamente a la primera o no genera más problemas. Si aparecen más
complicaciones se vuelve a buscar otra solución con más tecnología para que lo solucione
definitivamente. Pero esto no siempre ha dado mal resultado, en muchas ocasiones lo que se
pensó para un uso concreto ha terminado funcionando para algo completamente distinto
mejor de lo esperado. Un ejemplo de esto son los transistores y semiconductores, a los que se
les dio un importante impulso durante las épocas de conflicto bélico durante las guerras
mundiales. Se investigó y se desarrollaron lo más rápido posible para así tener ventaja sobre
los rivales, eran necesarios para realizar complejos cálculos matemáticos e intercambiar
información a distancia que permitiera tener superioridad sobre el enemigo. Pero cuando
acabaron los conflictos pasaron a ser una parte indispensable de cualquier aparato electrónico
de uso común. Gracias a esto la informática, la electrónica y las telecomunicaciones
comenzaron a ser necesarias e importantes para mantener una supremacía basada en
tecnología sobre el resto de países.
La posterior aplicación de estas tecnologías en los mundos empresariales y de
consumo ha cambiado la sociedad. Estos cambios se han producido con mucha celeridad,
tanta como los avances que se producían en los semiconductores permitiendo la
generalización en el uso de los ordenadores y de redes de telecomunicaciones. Los
ordenadores personales y la más importante de las redes de telecomunicaciones, Internet, han
cambiado el mundo hecho: el ser humano se encuentra en la era de la información. El mundo
está más interconectado que nunca gracias a un sistema global en el que se puede
intercambiar y acceder a más información en menos tiempo que en ningún momento de la
historia de la civilización. Este sistema global de comunicación ha borrado las fronteras, se
puede ir de un extremo a otro del mundo inmediatamente y sin detenerse, pero también ha
afectado a la organización de la sociedad: tener acceso a la información condiciona.
8
Las redes de telecomunicaciones conectan los capitales de todo el mundo, la gestión
de empresas multinacionales, los contenidos audiovisuales, las informaciones estratégicas, los
programas tecnológicos, las tendencias culturales y a los miembros de una élite cosmopolita
que carece de cualquier referente cultural o nacional. Esto genera que las ciudades
tradicionales pasen a ser ciudades globales: espacios industriales de alta tecnología que
necesitan de las telecomunicaciones para conectarse con otras ciudades similares y donde los
sistemas financieros informatizados no entienden de naciones y pueden alterar equilibrios
bursátiles en un corto periodo de tiempo hundiendo empresas o, incluso, países si con ello se
maximizan beneficios u obtienen una ventaja. En estas ciudades globales se olvida la cultura
tradicional y se sustituye por una global que se recibe por los medios de comunicación e
Internet, igual en todo el mundo.
La tecnología por sí misma no persigue un fin concreto, solo son herramientas para
realizar tareas que se pueden usar de distintas maneras. Pero la forma de aplicar los nuevos
descubrimientos tecnológicos por parte de quien puede hacerlo, elites empresariales y
gobiernos, ha llevado a la sociedad hasta las “ciudades informacionales”. Estas no son las
ciudades pronosticadas en muchos escritos del pasado como tecnópolis totalitarias, son
ciudades que han evolucionado, con increíbles avances tecnológicos pero también con
miserias sociales. Estas miserias destacan sobre todo en épocas de crisis, cuando la gente tiene
mayor miedo y desesperación se les ofrece una solución tecnológica. Se presenta como la
solución que acabará con gran parte de los problemas económicos y laborales si se permiten
uno cambios que vendrán de la mano de la tecnología, pero como se verá no suelen ser tan
beneficiosos para todos.
9
Capítulo 1: Crecimiento y desarrollo de las tecnologías de la información
10
11
Introducción
Las profecías acerca de la revolución tecnológica que se avecinaban gracias a los
adelantos llegaron, pero no se han cumplido tal y como se anunciaron. Por ejemplo, la
tecnología ha permitido poner en marcha el teletrabajo, pero no se ha dejado de acudir al sitio
de trabajo a diario como se predijo. Gracias al teléfono móvil, los ordenadores e Internet las
personas y la información están ahí al momento, pero han provocado que el trabajo haya
salido de la oficina y acompañe a los trabajadores hasta su domicilio. La tecnología amplía el
horario laboral más allá de las horas estipuladas en su contrato sin que esto suponga una
mejora en la calidad de vida o un ahorro de tiempo en los desplazamientos, además se ve
como algo normal. Los asuntos del trabajo acompañan a los empleados a casa quitándoles su
tiempo familiar o de ocio, permitiendo a las empresas seguir abiertas pese a que los
trabajadores no están en su puesto habitual.
Pero la sociedad y la economía no se dejan guiar por la tecnología, son ellas las que
eligen que uso y funciones dan a los avances que surgen. La elección del uso que se le da
depende de los procesos políticos, sociales y culturales que son ajenos a la propia tecnología.
Un ejemplo son las telecomunicaciones, refuerzan el liderazgo de las concentraciones
empresariales que prefiere un modo de desarrollo informacional, donde lo importante son los
conocimientos, ideas y procesos. La revolución tecnológica que producen son descubrimientos
e innovaciones en los procesos de producción, consumo y gestión que a su vez forman parte
de un proceso de cambio más amplio. Las industrias de alta tecnología son una de las claves
para el crecimiento económico de una región, pero dificultan enormemente que otros campos
de conocimiento o de negocios ajenos puedan desarrollarse o replicarse en otras áreas ya que
el acceso a esa información está restringido. Para observar los cambios que provoca la
tecnología es necesario estudiar la transformación de relaciones entre producción, sociedad y
espacio ya que no se producen simultáneamente. De las industrias de alta tecnología surgieron
los microprocesadores, que ayudaron potenciaron la ingeniería genética y los ordenadores
personales en los años ‘70, pero su aplicación y efectos en organización social no se
produjeron hasta los años ‘80 o ‘90 con la reestructuración del capitalismo.
Los ejes principales sobre los que se ha producido la transformación de las ciudades,
regiones y de sus habitantes en esos años han sido el capitalismo, como sistema social, el
informacionalismo, donde la información y el conocimiento es el modo de desarrollo, y las
tecnologías de la información, que son el instrumento de trabajo. Si bien ha habido cambios o
características particulares según cada país o región por sus condiciones políticas, económicas
12
y sociales, en todos, la innovación tecnológica y reestructuración territorial han modificado el
sistema socioeconómico.
Informacionalismo
Con el fin de comprender el modelo de desarrollo informacional es necesario
retroceder a sus orígenes: el capitalismo. En el que la producción es la acción ejercida por el
ser humano sobre la materia para apropiársela y transformarla para su beneficio obteniendo
un producto, del que se consume una parte y se acumula el excedente para volver a invertirlo
según unas metas determinadas socialmente. El capitalismo se basa en la separación entre los
productores, trabajadores, y los medios de producción, el dinero y las herramientas. Se
mercantiliza el trabajo, en la que los capitalistas pagan a los trabajadores quedándose con la
producción y decidiendo que hacer con el excedente que ha generado su trabajo, aquí se trata
de maximizar el beneficio (la diferencia entre lo pagado a los trabajadores y lo obtenido por la
venta a los consumidores). Este sistema ha tenido éxito en muchos países, pero en otros ha
habido una alternativa al capitalismo: el estatalismo. Aquí, el control del excedente de la
producción lo controla el Estado que no busca un beneficio económico, sino un medio para
maximizar su poder y mantenerse así al frente del país.
El desarrollo informacional se produce cuando el conocimiento actúa sobre el propio
conocimiento para generar más productividad creando a su alrededor un sistema técnico-
organizativo. De esta manera lo aprendido se acumula y sirve para perfeccionar los
conocimientos futuros que a su vez mejoran el desarrollo tecnológico. Los descubrimientos
científicos en campos como la electrónica, la producción de energía o la genética generan
sinergias, con distinta escala temporal, que consiguen un desarrollo aún mayor y más rápido.
Además, gracias al uso de sistemas de información y las telecomunicaciones estos
conocimientos pueden llegar al otro extremo del mundo de inmediato. Por tanto, la
información genera nueva información que constituye tanto la materia prima como el
producto que se obtiene, ya no hay objetos físicos que fabricar sino ideas y conceptos. En esta,
como en otras revoluciones tecnológicas, los efectos de las innovaciones recaen más sobre los
procesos de producción que en los productos. Estos nuevos procesos dan lugar a una serie de
bienes y productos que son creados por una fuerza productiva que debe ser capaz de
reprogramarse según se van adquiriendo nuevas habilidades para optimizar su manera de
13
funcionar. Si se consigue se genera crecimiento económico y bienestar social que a su vez
retroalimenta el sistema.
Este sistema de producción basada en el informacionalismo se fundamenta en
procesar los conocimientos que se crean y recopilan ayudándose de las innovaciones en el
campo de las tecnologías de la información, como los ordenadores y las redes de
telecomunicación, para crear otros nuevos o mejorar los existentes. Pero lo que surge de este
modo de desarrollo no viene impuesto por los requisitos de la tecnología, sino por la
interacción de los componentes organizativos, tecnológicos y del proceso determinado de
reestructuración del capitalismo. Es decir, lo que se genera en el proceso es consecuencia de
los factores externos que lo guían hacia el objetivo requerido.
Para que este proceso sea lo más eficiente posible, lo mejor es liberar los flujos de
información para que sean accesibles por cualquiera, esto es mejor que dejarlos bajo el control
de los mercados o del Estado. Al compartir esa información se mejoran los procesos de
producción, consumo y gestión que contribuyen a transformar el sistema y a aumentar la
capacidad organizativa mediante economías de escala. Por tanto, las nuevas tecnologías
pueden contribuir a minimizar la distancia entre economía y sociedad. Pero como se verá esto
no es lo que normalmente suele ocurrir, los mercados, las grandes corporaciones
empresariales y los Estados son más reticentes a compartir la información ya que se pone en
riesgo su posición dominante.
La crisis económica que se está viviendo actualmente no es tan novedosa como cabría
esperar y las soluciones que se están proponiendo para salir de ella tampoco. Con la crisis se
propone una reestructuración para volver a crecer, los cambios buscan modificar los métodos
institucionalizados y provocar una transformación social. En Estados Unidos, tras la depresión
de los años ’30 y la 2ª Guerra Mundial, el capitalismo estuvo bajo el control estatal y modifico
tres estructuras fundamentales. Primero se promovió un pacto entre el capital y el trabajo,
reduciendo la conflictividad de los sindicatos con la creación del Estado del Bienestar y
permitiendo crecer la economía. El Estado es capaz de regular e intervenir en la economía:
estimula demanda con gasto público y absorbe excedente de mano de trabajo con empleo
público. Y el control económico internacional pasa a manos del FMI (Fondo Monetario
Internacional) que obtiene control del suministro y fija los precios de las materias primas. Estos
cambios permitieron hasta los años ’70 un aumento espectacular de prosperidad y
productividad. Pero la inflación o subida de precios, las nuevas demandas sociales que
disminuyeron los beneficios económicos y la crisis del petróleo de 1974 y 1979 provoco que se
necesitaran otras medidas como la austeridad y un mayor control fiscal por parte del Estado,
14
revelando una falta de efectividad de las medidas propuestas entre los años ‘30 y ’40. Los
gastos del Estado del Bienestar aumentaron y los ingresos no eran suficientes, necesitaba
emitir más deuda. Esto repercutía en las empresas, se veían obligadas a subir los precios para
pagar los aumentos de impuestos que el Estado les solicitaba para pagar su deuda. También
afectaba a la economía internacional que crecía con la especulación y préstamo de dinero de
forma irresponsable en los mercados mundiales que buscaba el mayor beneficio en el menor
espacio de tiempo. Para alcanzar metas del sistema capitalista ya no bastaba un solo país,
Estados Unidos, para mantener o aumentar el nivel de beneficios del capital privado y los
gastos, había que encontrar nuevos mercados donde implantar el capitalismo para aumentar
demanda y controlar inflación interna.
En todos los países donde se aplicaban estos métodos se producían los mismos
fenómenos que en Estados Unidos. El capital se apropia de una proporción cada vez mayor del
excedente del proceso de producción, los beneficios, debido a que no existen pactos sociales
entre el capital y la fuerza de trabajo. Esto genera, a pesar de la mayor productividad, que la
distribución de esos beneficios sea cada vez más desigual. Es decir, menos salario y beneficios
sociales, mayor descentralización de la producción e inclusión de mano de obra más barata, no
organizada y que provoca un debilitamiento de los sindicatos. Por otro lado, el Estado se
centra en mantener y aumentar el poder y acumular capital dejando de lado las funciones de
hacer política y redistribución social, ciertas de esas funciones que le correspondían pasan a
realizarlas los mercados. Los gobiernos promueven privatizaciones, reformas fiscales, que
favorecen sobre todo a grandes empresas y a las rentas de clase alta, y apoyan la investigación
y desarrollo (I+D), sobre todo de los sectores industriales pertenecientes a la economía
informacional. En el caso particular de los Estados Unidos, gracias a su poderío militar, las
partidas de los presupuestos destinadas a reforzar el poder militar se mantienen pese a la
crisis, pero las destinadas al Estado del Bienestar y a otras partidas sociales se reducen con el
fin de controlar la inflación. Todas estas acciones hacen que el Capitalismo sea una economía
mundial, que funciona en tiempo real y en la que los procesos económicos se internacionalizan
para incrementar la rentabilidad y conseguir que otros países adopten este sistema. Al
penetrar en un nuevo país, los salarios bajos y la falta de regulación gubernamental sirve para
atraer inversores. Cuando los sueldos y los beneficios sociales se homogeneizan los salarios
aumentan y disminuye el beneficio, esto hace que las inversiones busquen otros países sin
estos problemas, es decir, como eran antes de adoptar el sistema capitalista. Esto provoca
problemas en los países ya desarrollados, dejan de ser competitivos y tienen que buscar como
volver a serlo. Con la expansión mundial los negocios están abiertos las 24 horas del día, dan
15
más beneficios pero generan una inestabilidad social debido a que la causa de nuevos
mercados afecta a los ya existentes. El sistema capitalista constituye un sistema mundial en
cuanto al proceso de producción, pero no en cuanto proceso social. Su reestructuración está
llena de contradicciones, como el desarrollo en defensa que se paga con emisión de deuda,
que es compra por capital que busca alta rentabilidad. Los altos intereses que se pagan en la
deuda hace que el valor de la moneda se eleve, afectando a las exportaciones y, por tanto, al
déficit comercial donde cada vez se importa más y se exporta menos debido a la falta de
competitividad en comparación con los nuevos países capitalistas.
El modo informacional de desarrollo y reestructuración del capitalismo unieron fuerzas
en busca del objetivo común de conseguir el mayor beneficio posible. Para ello, las tecnologías
de la información proporcionaban herramientas como las maquinas que permiten aumentar la
productividad, descentralizar y automatizar tareas, debilitando a los sindicatos. Estos se
encuentran con que la mayor parte de los puestos de trabajo solicitados son de baja
cualificación, peor pagados y cualquier reivindicación conlleva usar más maquinas o llevarse la
producción a cualquier otro lugar sin estas peticiones. El Estado, al menos en Estados Unidos,
busca aumentar su poder con una carrera tecnología, sobre todo militar, en la que olvida la
redistribución de beneficios en la sociedad. Para ello necesita tener las mejores armas
posibles, esto provoca que cada pocos años se queden obsoletas y sea necesario invertir más
dinero para conseguir las más avanzadas. A esto hay que sumar a las telecomunicaciones,
gracias a ellas la economía se ha internacionalizado permitiendo acceder a nuevos mercados,
pero implica mayor competencia. Gracias las redes de telecomunicaciones, los componentes
organizativos de las grandes corporaciones han cambiado. Los procesos de generación del
conocimiento y la toma de decisiones en organizaciones de alto nivel se concentran en un
único lugar físico, solo allí es donde la información se genera y puede procesarse. Ese lugar es
estratégico, los trabajadores de ese lugar son los únicos indispensables en todo el proceso, el
resto son prescindibles.
El intercambio de conocimiento está completamente controlado y está recluido en las
organizaciones y empresas dominantes, no existe una internacionalización, solo hay
aislacionismo. Además existe una conexión entre esta tecnocracia y los niveles más altos del
Estado que tiene como fin que esa información siga oculta al resto del mundo, sobre todo en
temas de seguridad y militares. Las empresas centralizadas en un área pasan a convertirse en
redes descentralizadas ayudadas por las telecomunicaciones, con ello ganan flexibilidad y
rentabilidad. Los trabajadores pasan a ser contratados de forma temporal, según las
necesidades de producción, en el mismo o en otro país. Debido a la perdida de competencias
16
del Estado, más centrado en otras cuestiones, parte de los servicios del Estado del bienestar
pasan a ser ofrecidos por el sector privado donde no todos pueden tener acceso.
El nuevo espacio industrial
Las principales industrias de la economía informacional son la microelectrónica,
semiconductores, telecomunicaciones, ordenadores personales (tanto el software o
programas como el hardware o los componentes) y la ingeniería genética. Estas industrias
tienen una forma particular de organizarse, expandirse y situarse espacialmente en ciertas
áreas o países aprovechando las ventajas que la tecnología le proporciona frente al resto, esto
forma parte de las dinámicas espaciales que se verán más adelante. Estas industrias son muy
distintas a las tradicionales ya que no se fabrican productos si no conocimientos, conocen los
problemas existentes y tratan de evitarlos usando tecnología.
En Estados Unidos la industria de los semiconductores se concentran
mayoritariamente en Arizona, California, Dallas, Nueva York y Massachusetts. Pero, ¿cuáles
fueron los motivos para que se establecieran en esos lugares y no en otros? Por ejemplo,
Nueva Jersey o Nueva York tenían alguno de los elementos necesarios para que se construyera
un gran centro de desarrollo de semiconductores, allí estaba la universidad de Princeton y
grandes empresas como los laboratorios Bell o IBM. Pero faltaba ingenieros eléctricos y
técnicos, tampoco había un mercado militar cercano, los sindicatos eran fuertes y el capital de
riesgo prefería el parqué de Wall Street a las inversiones industriales directas. Sin una o varias
de estas piezas la dificultad para poner en marcha uno de estos centros es mayor y requiere de
otros elementos. Para que estas empresas se puedan establecer en un área en la que falte algo
necesita de empresas autosuficientes como IBM, Texas Instruments o Motorola.
La empresa IBM se estableció cerca de Nueva York debido a que sus principales
clientes se encontraban en Wall Street. Texas Instruments pudo desarrollar su actividad en
Dallas gracias a su conexión con los mercados militares desde el desarrollo del transistor, sus
redes de comunicaciones a la capacidad financiera para atraer empleados a nivel nacional y a
la fuerza de trabajo local barata, tanto especializada como no especializada. En la empresa no
se permitían escisiones que pudieran generar otras empresas que pudieran colaborar debido
al carácter militar de los proyectos, pero alrededor de la universidad de Austin sí que
comenzaron a aparecer empresas de alta tecnología. Algo similar ocurrió a Motorola, se
17
estableció en Phoenix, se encontraba completamente aislada y no permitió un desarrollo
tecnología autónomo local, los empleados no podían usar la información fuera de la empresa.
Por tanto, una única empresa, por grande que sea o por lo tecnológicamente bien
equipada que este, no es capaz de generar por si sola un medio industrial que llegue más allá
de su propia organización si no permite escisiones empresariales y establece enlaces con estas.
Lo más que puede conseguir es atraer a otras industrias a la zona que aprovechen algo de lo
que dejan salir de su entorno. Es necesaria mano de obra barata, un buen clima y un centro de
investigación o universidad cercana que forme trabajadores cualificados o bien que sea capaz
de traerlos de otras partes de la nación. Debe ser capaz de atraer a capital de riesgo que
permita comenzar a las pequeñas empresas con proyectos prometedores. Además de un buen
clima es necesario que existas infraestructuras como buenas carreteras y redes de
telecomunicaciones, así como zonas verdes y una oferta cultural interesante. En California
ayudo que hubiera cerca instalaciones militares y el buen tiempo; en Boston el MIT y los
contratos para desarrollos militares. Durante la II Guerra Mundial, la industria de
semiconductores se desplazó hacia del este al oeste por la mayor presencia militar en la costa
oeste de Estados Unidos y por ausencia de sindicatos, algo que si había en Boston debido a sus
orígenes industriales.
En la industria de semiconductores hay una clara distinción espacial entre las tareas de
innovación, las de producción y las de fabricación, es la pionera en descentralización a nivel
mundial. Antes de 1962, en Estados Unidos se realizaba el proceso completo, desde esa fecha
se comenzaron a enviar a otros países los productos sin acabar para que las tareas de
ensamblaje se realizaran allí, se buscaba abaratar costes algo que era posible debido al tamaño
de los componentes electrónicos que eran poco voluminosos. Más tarde, como la experiencia
fue positiva, se comenzaron a realizar también las pruebas, el diseño y producción en otros
países donde todo esto resultaba más barato que en los Estados Unidos. Esto era posible
gracias a las redes de telecomunicaciones que permitían un intercambio de información rápido
entre cada uno de los centros dispersados por el mundo.
La industria informática siguió a la de los semiconductores en cuanto a su lógica de
localización pero no en cuanto a su distribución espacial, debido al mayor tamaño del producto
final. La innovación se concentraba solamente en unos pocos centros que necesitan de otras
industrias electrónicas cercanas. Las plantas de trabajo buscaban una combinación de mano de
obra barata y cercana a algún mercado mundial que mejorara los costes de transporte,
aranceles y que tuvieran cercanía con el cliente para aplicar los cambios que este les solicitara.
18
Las otras dos industrias, software e ingeniería genética, carecen de productos que
necesitan de un proceso de fabricación, solo generan conocimientos. En este caso se necesita
mano de obra altamente cualificada, normalmente escasa, a la que hay que convencer para
que se incorpore a la empresa desde cualquier otro lugar. Por esto es importante que más que
el lugar elegido para ubicar la sede sea atractivo por su calidad o estilo de vida, que tenga un
ambiente creativo. Cuando hay un entorno creativo este genera o atrae la mano de obra
cualificada necesaria, tiende a mantener la belleza del lugar y a mejorar la calidad de vida, que
provoca un aumento del precio del suelo que a su vez ayuda a protegerlo y a limitar el acceso
por la cantidad necesaria de dinero para establecerse en ese entorno. Si la calidad de vida se
deteriora, tanto la electrónica y como la programación del software, continúan
concentrándose en las mismas áreas debido a la cercanía de la fuente que genera la
información y las oportunidades laborales. Un centro avanzado proporciona el medio de
investigación industrial al interconectar las principales universidades con las sedes
empresariales permitiendo que se desarrollen diversos servicios relacionados entre sí.
En la ingeniería genética, la biotecnología se está transformando en una gran industria
de la tecnología de la información como las relacionadas con la electrónica. En un principio,
contó con el apoyo económico del gobierno federal de los Estados Unidos, los centros médicos
y universidades, más tarde pasó a ser interesante para los inversores privados debido a los
resultados obtenidos. Las primeras empresas de este tipo nacen como escisiones de las
universidades más importantes en este campo y de los centros médicos de investigación. Los
descubrimientos se transformaron en desarrollo industrial y beneficios personales, la ciencia
se convierte en industria cuyo elemento clave es la relación con el mundo científico. El
verdadero producto de la ingeniería genética y la electrónica es el proceso, no el producto final
que se vende a los clientes. Las nuevas tecnologías de la información organizan el espacio de
producción en una jerarquía de actividades y funciones constituida por “redes” y “flujos” que
llevan al límite la división social entre capacidad intelectual y fuerza de trabajo.
El modelo espacial específico de estas industrias de tecnología de la información es el
resultado de una organización productiva en la que la materia prima es la información y el
producto resultante son equipos orientados hacia procesos que abarcan aplicaciones a todo
tipo de actividad del hombre. Estas industrias no comparten un único modelo de localización
de sus sedes, las particularidades de cada una hacen que no sea posible. La fuerza de trabajo
que necesitan es científica y técnica, en la que puede haber dos opciones de organización: el
micro-entorno, el lugar donde ocurre el proceso de innovación, o macro-entorno, donde las
redes de relaciones interactivas entre distintas organizaciones e individuos crean sinergias. Al
19
orientarse la producción hacia el proceso y no hacia el producto, sus sedes pueden localizarse
en cualquier lugar siempre que en estas ubicaciones se tenga acceso a las fuentes de
innovación. En muchas de estas industrias el proceso de producción no existe, como en
software o genética, o se puede automatizar. Estas empresas tienen como requisito adaptarse
necesidades del usuario por lo que le necesitan cerca, pero no es necesaria una cercanía física
ya que para eso se utilizan las redes de telecomunicaciones y transporte aéreo. Esto tiene una
excepción si la empresa trabaja para un cliente particular, en este caso se necesita de
constante interacción por lo que la proximidad se convierte en un requerimiento de
localización. Todas estas particularidades hacen posible realizar una segmentación interna en
el proceso de producción, es decir, la producción se puede separar de su soporte material.
Además, cada operación necesita distinta mano de obra y cualificación por lo que es posible
que una misma empresa pueda estar en distintas localizaciones, adecuando así el coste de la
mano de obra eligiendo el país adecuado. La tendencia hacia una producción adaptada al
usuario provoca que la innovación esté centralizada en una única área, la aplicación de las
innovaciones y descubrimientos tecnológicos en los productos está descentralizada.
Este nuevo espacio industrial informacional genera jerarquía funcional y segregación
social. Hay una diferenciación espacial en todos los pasos del proceso de producción. Las
funciones de alto nivel se encuentran en áreas privilegiadas, los niveles medios en zonas
cercanas a las primeras, pero con una tendencia a alejarse según las opciones que se tenga
para automatizar y simplificar, y las de que emplean fuerza de trabajo no especializada están
más esparcidas: contra mayor jerarquización de funciones mayor localización segmentada. A
esta idea de fábrica mundial ayuda la miniaturización de los productos obtenidos, que permite
el abaratamiento de los transportes entre zonas lejanas, y las telecomunicaciones. Existe un
menor control social del trabajo que permite usar mano de obra barata de los países del Tercer
Mundo para ciertas fases de la producción que necesitan menor formación. En las zonas con
nivel superior de industria se aumenta precio del suelo, algo que impide que se realicen
actividades perjudiciales para el entorno, que se contamine ese área, y que puedan acceder a
viviendas los trabajadores de bajo nivel: aparece la exclusión espacial. La jerarquía funcional y
la segregación social son rasgos fundamentales de este espacio industrial informacional. La
división espacial de trabajo es auto-reproductiva y auto-expansiva. Los espacios de valor
segregan primero y expulsan después a las funciones de producción e individuos menos
cualificados que no merece la pena mantener en esa nueva zona.
El conjunto especifico de relaciones de producción y gestión en el que se basa una
organización social, como una gran corporación, que comparte de un modo general una
20
cultura del trabajo y unos objetivos encaminados a generar nuevos conocimientos, nuevos
procesos y nuevos productos es lo que se denomina medio de innovación. Para que existan
estos medios de innovación es necesario que se encuentren cerca para que puedan interactuar
entre sí. También es necesaria la convergencia espacio-temporal de otros tres elementos
fundamentales en la producción: el trabajo, el capital o capital de riesgo necesario para
comenzar el proyecto y materia prima, es decir, la información. Esta información puede
encontrase en cuatro medios organizativos distintos. En universidades punteras o instituciones
de educación superior. En centros de investigación y desarrollo (I+D) del gobierno. En centros
de I+D empresariales conectados con las grandes empresas que se encuentran
tecnológicamente más avanzadas. Y en red de centros I+D productoras de una investigación
innovadora que por sí misma es fuente autónoma de generación de descubrimiento
tecnológico.
Existen varias condiciones para el desarrollo de industrias de tecnologías de la
información. La primera condición es poder acceder a estas fuentes de información, para ello y
gracias a las redes de telecomunicaciones no es necesario que exista proximidad espacial. La
segunda condición es disponer de una gran concentración de fuerza de trabajo científica y
técnica, algo que se encuentra cerca de las instituciones académicas más importantes. En estas
zonas existe lo que se ha denominado calidad de vida, pero es consecuencia del sofisticado
mercado de trabajo. La calidad de vida puede deteriorarse si las autoridades no intervienen o
lo hacen mal, esto ocurre cuando comienza a haber atascos de tráfico de forma habitual a
cualquier hora del día o el precio de la vivienda sube más de lo que los trabajadores pueden
pagar, pero pese a estos inconvenientes esta industria puede sobreponerse si la zona tiene
vitalidad industrial. El factor principal en la formación de un gran mercado técnico y científico
es la presencia de oportunidades de trabajo en los segmentos más avanzados de la industria,
esto atrae a más personas cualificadas si hay cerca más industria similar que si no existe. La
tercera condición que facilita la formación de este tipo de industrias es la existencia de
inversores dispuestos a arriesgar su dinero en este tipo de proyectos.
Hay tres formas de financiar estos proyectos: gracias a inversiones de una gran
empresa que asume las pérdidas en el presente pensando en un futuro cuando esas
innovaciones le darán la ventaja, gracias al I+D del gobierno con fines militares y gracias al
capital riesgo que buscan los bancos para ofrecer alta rentabilidad en las inversiones a sus
clientes. Las grandes empresas suelen poner los laboratorios de I+D cerca de sus sedes para
crear una simbiosis entre la gestión estratégica de la empresa y la innovación que se genera. El
gobierno favorece a ciertas zonas debido a otros factores (como la cercanía a puntos
21
estratégicos en un momento puntual de la historia) pero cuando una zona de este tipo destaca
se acaba invirtiendo más que en otras zonas, se sigue la fuente de innovación donde más y
mejor innovación hay. El capital-riesgo es necesario en el comienzo, tiene que existir una zona
rica que tiene cubiertas las necesidades básicas y puede permitirse usar el capital que no
necesita habitualmente para otros asuntos. Es mejor que no exista un mercado de valores
cercano (como en Nueva York o Boston) que permita la entrada de pequeños inversores (como
en Boston, California o Texas) que además tengan mentalidad empresarial. Una vez tenga
éxito, se pasa a cotizar en bolsa para buscar nuevos inversores a los que se les ofrece menos
riesgos para seguir creciendo.
Un complejo industrial en el que se ubican varias empresas del tipo informacional se
transforma en un medio de innovación cuando por sí mismo es capaz de generar un flujo
continuo de los elementos clave que constituyen la base para la producción de tecnologías de
la información innovadoras: nueva información científica y tecnológica, nueva entrada de
capital de riesgo y nueva fuerza de trabajo técnica innovadora. Un buen ejemplo de un medio
de innovación es Silicon Valley. Se encuentra a poca distancia de la Universidad de Stanford
que le proporciona ingenieros de alta calidad, cerca de los mercados militares que
proporcionan contratos gubernamentales y que facilitaron la investigación al comienzo, para
más tarde ir pasar a ser un medio industrial autosuficiente tras la desaparición de los fondos
gubernamentales años después. El medio de innovación desarrolla su propia dinámica y se
vuelve independiente, en gran medida, de los factores que convergieron en su creación en una
localización determinada. La localización de este medio depende de los tres factores vistos
anteriormente (información, fuerza de trabajo y capital) y del proceso que los conecta
económica y socialmente, donde existe la figura clave del empresario (capitalista, individual o
institucional). Todos los tipos de medios de innovación se hallan en el origen de la formación
del nuevo espacio industrial, tienden a destacar a nivel mundial gracias al desarrollo
acumulativo y desigual del conocimiento. Pero la función y la dinámica de cada tipo de medio
varían según su estructura específica. Cuando un medio de innovación genera su propia
estructura interna más independiente es de un grupo concreto de grandes empresas o de
centros gubernamentales, fomenta más su potencial sinérgico y mejora su liderazgo
tecnológico. Al comienzo el apoyo gubernamental juega un papel muy importante para
establecerse, pero con el tiempo ese apoyo se vuelve inestable debido a los cambios en los
presupuestos. Existen tres diferencias entre las áreas de I+D que se dan en Estados Unidos. En
Boston y Silicon Valley hubo una concentración de los factores clave que se han visto. En
Nueva York y Nueva Jersey las grandes empresas mundiales atraen a empresas tecnológicas a
22
ese área prescindiendo del resto de factores. Y en Los Ángeles, en el Condado de Orange, la
acumulación de programas gubernamentales y grandes empresas fue lo que lo condicionó.
Lo llamativo es que el proceso de producción tiende a alejarse de estas zonas. Los
avances en las telecomunicaciones, las redes de transporte aéreo y la producción flexible
integrada por ordenador permiten desplazarlo a otro lugar con mano de obra más barata pero
que requiere de otros elementos que no todos los posibles lugares tienen. Debido a la
dependencia de las telecomunicaciones y los transportes, la mayor parte de los centros
descentralizados de producción se encuentran agrupados en áreas metropolitanas de tamaño
mediano y grande. Las áreas de menor tamaño no poseen las infraestructuras necesarias y
proporcionárselas supondría un mayor gasto. Por este motivo se hace imprescindible que el
área elegida para ubicar el centro cuente con un aeropuerto cercano con pocas escalas hasta
el centro de innovación si esta fuera de los Estados Unidos o pocas horas de viaje si está
dentro. Las plantas descentralizadas son centros industriales avanzados que buscan
trabajadores preparados pero de sectores específicos, como por ejemplo el de las mujeres en
paro. De esta manera evitan coincidir con el tipo de trabajador contratado en otros centros
descentralizados de otras empresas, así se mejora la posición negociadora como empleador
principal de este grupo: si no trabaja para ellos no hay más opciones.
El proceso de difusión espacial en Estados Unidos tiene cuatro características
principales en la expansión de las industrias de tecnologías de la información, pero además
depende de sus propias características estructurales, económicas y de las empresas que son su
competencia:
I. La generación de medios secundarios de innovación. Se crean complejos innovadores
de producción que se especializan en áreas tecnológicas específicas que tienden a
apoyarse en una red de pequeñas empresas de nueva creación. Están fuertemente
relacionadas con el I+D innovador, son productos que venden a empresas como las
que se establecen en Silicon Valley (California), la Carretera 128 (Boston), IBM (Nueva
York) o Motorola (Chicago). Estas subcontratan la mayor parte de su trabajo de
producción a esas pequeñas empresas. De esta manera existe una relación directa
entre los centros innovadores de alto nivel y los secundarios, los cuales son utilizados
para subcontratar la producción.
II. Se descentralizan las plantas técnicas filiales, que son subsidiarias de las empresas
situadas en los principales centros tecnológicos. Son unidades completas de
producción, con alto grado de iniciativa, pero organizativa y tecnológicamente
dependientes de empresas madre. Tiende a localizarse en un ambiente distinto de alto
23
nivel para aprovechar los recursos de los competidores locales, un ejemplo son
empresas de Silicon Valley que sitúan una filial en Boston y al contrario.
III. La producción sigue siendo descentralizada hacia áreas más aisladas, con menos redes
transporte y comunicación, y con menos industrias. Cuanto mayor sea la expansión
industrial mayor será la separación entre la producción avanzada y la producción de
ensamblaje.
IV. Los medios originales de innovación no pueden ser copiados o duplicados, el nuevo
espacio industrial se ha polarizado entre regiones y entre países. Los centros globales
de alta tecnología se han formado bajo condiciones históricas específicas y
circunstancias que ya no existen o han cambiado, fueron períodos en los que
coincidieron diversas y complejas fuentes de conocimiento en esos lugares. Tratar de
reproducirlas ahora requerirían de nuevas estrategias y se debería hacer frente a la
competencia de los centros ya existentes, que al estar formados contarían con una
gran ventaja. Por ello, en lugar de crear nuevas áreas con nuevas condiciones se
aprovechan el éxito de las ya existentes atrayendo nuevas empresas a donde a ese
área. Donde hay lugares empresarialmente competitivos, estos se convierten en las
centrales tecnológicas que hacen innecesario realizar un duplicado, sencillamente
atraen nuevas empresas a esa zona.
La difusión espacial de las industrias de tecnologías de la información está relacionada
con sus características estructurales, económicas y de competencia. Este proceso no es una
separación entre la innovación y la producción, es una separación entre los niveles de
innovación. Los continuos avances de la industria elevan el nivel tecnológico de los medios
secundarios de innovación y de los complejos técnicos filiales. Cada vez hay más, son más
grandes y capaces de innovar por sí mismos. Cuantos más productos se hacen a medida del
cliente, más necesario se hace una conexión directa entre los productores y los consumidores
o usuarios de ese producto. Es necesario abrir sucursales cerca de los grandes mercados para
conocer lo antes posibles los cambios que son necesarios para continuar vendiendo. Pero estas
sucursales no se ubican en zonas aisladas sino cerca de las grandes áreas metropolitanas,
como sucedió en Europa.
En otros países como Japón, el modelo espacial de localización se produjo de una
manera similar a la de Estados Unidos. Tokio era el Silicon Valley del país y según iba pasaba el
tiempo y se sucedían las etapas se reproducía la estructura de Estados Unidos. El gobierno
japonés concedió ayudas estatales a Tokio, animando a las empresas a establecerse allí y
24
aprovecharse del entorno. Gracias a las principales empresas, se crearon zonas de innovación
secundarias cercanas unidas por medios de transporte rápidos con conexiones directas, como
el tren bala, y cuando se necesitó una reducción de precios se estableció en ensamblaje de los
productos en zonas de Asia con mano de obra barata. Además, se abrieron sucursales en los
mercados en los que quería penetrar para evitar los aranceles a las importaciones como
ocurrió con las empresas estadounidenses.
Cuando la crisis económica llegó a industria informacional esta tuvo que adaptarse a
las nuevas condiciones. Redujo la capacidad creativa que era generada por las empresas
menos competitivas haciendo que desaparecieran o que al menos tuvieran que
reestructurarse para seguir abiertas. La competencia internacional trajo más calidad y mayor
innovación con precios más baratos lo que obligo a un cambio de estrategia de las empresas
tradicionales. Además, el ritmo de aparición de novedades e innovaciones tecnológicas se
daba a más velocidad de la que la sociedad y la economía eran capaces de difundir y usar.
Dada la imposibilidad de colocar más novedades en el mercado civil, para salir de la crisis se
intentó: remilitarizar la industria para que los gobiernos volvieran a ser los clientes principales,
entrar en el sector educativo mediante el uso de la tecnología en la enseñanza, automatizar la
producción con robots y desarrollando más software que fuera capaz de aprovechar
completamente el hardware existente.
Otra medida para salir de la crisis fue el pedir el apoyo al gobierno americano para
abrir nuevos mercados en otros países, pero cerrando a la vez el propio para evitar la
competencia de empresas extranjeras. Buscaban el libre comercio de sus productos en todo el
mundo salvo en Estados Unidos que tenía que está protegido mediante aranceles para evitar
así la entrada de productos de otros países que pudieran ser una alternativa a los que ofrecían
las empresas nacionales, lo que se denomina competencia desleal. Desapareció muchas
empresas americanas de semiconductores y las pocas que quedaron formaron alianzas
mundiales estratégicas para poder competir mundialmente. Se trasladó la producción a Asia
creando allí los centros avanzados de producción y las mediadas neo-mercantilistas
incrementaran el proteccionismo. Los principales beneficiarios de estas medidas eran las
principales áreas metropolitanas con una mayor concentración de servicios de la información y
las antiguas regiones industriales en proceso de reconversión de su base productiva, que
además estaban cerca de las grandes empresas. La automatización de procesos permite
reducir costes y mejorar la calidad del producto, en las localizaciones existentes de producción
se mantuvieron y se procedió a la automatización para entrar en esos nuevos mercados, sobre
todo en Asia. El fin del proceso es reducir los precios, entrar en nuevos mercados y seguir
25
innovando sin transformar la lógica espacial de la empresa. Mediante alianzas globales
estratégicas de las grandes empresas se buscó la creación de redes comunes en las que se
pudiera intercambiar información y subcontratar, sin fusiones ni absorciones. La lógica espacial
de los productores de tecnologías de la información se interioriza dentro de la estructura
organizativa de las grandes empresas: internacionalización de la producción, separación social
y espacial de las funciones innovadoras y relocalización de la producción orientándolo hacia el
mercado. El control de la producción de tecnologías de la información es equivalente al
dominio estructural del nuevo espacio industrial.
El espacio de flujos
El sector servicios creció a partir de una mayor variedad de demandas funcionales y
presiones sociales, muchas de las cuales proceden de la movilización social y las concesiones
políticas. Una parte sustancial del empleo en este sector, particularmente en el área de
servicios sociales y personales, cumple la función de absorber el excedente de población
generada por el incremento de productividad en agricultura e industria. La contribución de la
mayoría de los servicios es fundamental para el crecimiento de la economía y del bienestar
social.
En la economía de las tecnologías de la información, el excedente de mano de obra
proviene principalmente de la generación del conocimiento y del procesamiento del mismo.
Entre los años 1970 y 1980, las grandes empresas y los gobiernos se vieron obligados a realizar
una reestructuración a gran escala de la economía. Los descubrimientos que se produjeron
años atrás en las tecnologías de la información se comenzaron a aplicar, dando como resultado
una transformación de las actividades en el manejo de información y en el trabajo
administrativo, un cambio equivalente al paso de la artesanía a la primera revolución
industrial. Durante los años ’80 se aplicó de forma intensiva la adquisición de equipamiento
relacionado con tecnologías de la información en el sector de los servicios.
Los efectos de ese uso intensivo fueron: aumento de las economías de escala en el que
al fabricar más se conseguía abaratar los costes fijos; aumento de las economías de
diversificación en la que un proceso o elemento se podía usar para las demás; aumento de la
complejidad de los productos sin encarecer el precio final; mayor de la competencia funcional,
en el que las facilidades obtenidas permiten a otras empresas entrar en nuevos mercados;
aumento de la competitividad internacional e incremento de la riqueza por una mayor
26
productividad en los servicios. También facilitaron la interconexión de actividades,
relacionadas o no, permitiendo una mayor complejidad en las industrias de servicios así como
minimizar el tiempo entre la decisión de producción y la fabricación del producto. Pero no
todo fueron ventajas, se amplificaron los problemas, los conflictos y los errores relacionados
con las decisiones organizativas de las empresas, ahora en lugar de afectar a su área de
mercado pasaban a ser problemas globales mucho más complejos. Un ejemplo de esto se verá
en el capítulo séptimo, donde la reducción de costes en la electrónica permitió que más
personas pudieran adquirir equipos con características antes solo disponibles para grandes
empresas. Estos equipos, además de reproducir contenido, permitían tanto crear uno propio
como duplicar el original. Esto está creando múltiples conflictos entre los autores, las
empresas que gestionan sus derechos y los consumidores.
Los servicios influyeron en la economía de las ciudades, las áreas limítrofes y la
organización espacial. Los servicios dedicados a la producción de información tienden cada vez
más a estar concentrados en las grandes áreas metropolitanas con buenas redes de transporte
y telecomunicaciones. Los servicios se concentran en los distritos financieros principales de
estas las grandes metrópolis. Se forman dos tendencias extremas: los servicios empresariales
avanzados permanecen en el área principal, servicios como la banca, los seguros, las agencias
de publicidad, los servicios financieros, legales, de contabilidad, de auditorías, las empresas
editoriales, etc.; las oficinas secundarias de las principales o sedes de las mismas se
descentralizan para abaratar, se debe al menor coste del suelo en áreas metropolitanas de
menor tamaño o en áreas fuera de los núcleos principales. Los servicios al consumidor siguen
la misma descentralización que los residentes de clase media, mientras que los servicios de
ocio para la elite se mantienen en el centro de las ciudades debido la cercanía. Los servicios
públicos, como la educación o la salud, siguen distribución espacial de la población, se
descentralizan de esas áreas. Solo algunos servicios se mantienen en su localización original,
como los grandes hospitales.
En todos estos procesos las telecomunicaciones tienen un papel muy importante. Las
industrias intensivas en información son las principales usuarias de nuevas tecnologías de la
información por lo que su papel en la centralización espacial en un área concreta ha sido
trascendental. Existe una relación entre la internacionalización del comercio y de las finanzas
con las telecomunicaciones en las grandes ciudades. El desarrollo de las infraestructuras de
telecomunicaciones en ciertas ciudades, como Nueva York, hizo que otras empresas que
querían acceder a esas redes tuvieran que establecerse allí para rebajar los costes de acceso.
27
Era más barato que llevar hasta otra ciudad o área estas redes de telecomunicaciones solo
para su sede.
Los distritos financieros de las grandes ciudades son los centros de los nuevos sistemas
de telecomunicaciones, son las industrias intensivas de información. La creación de la
infraestructura de telecomunicaciones en EEUU se formó a tres niveles: larga distancia,
interregional y locales. Para grandes distancias se usó la fibra óptica, que es rentable si en ella
viaja mucha información de muchas empresas o instituciones, es más barata que el satélite y
además está el problema de que en las grandes ciudades el espacio aéreo se encuentra
saturado. Para las comunicaciones interregionales se usó la fibra óptica, el cable coaxial o las
emisiones por microondas para la transmisión de datos dependiendo de la cantidad de
información a transportar o la distancia; para las comunicaciones de voz el teléfono móvil se
ideo como una extensión de la oficina en el coche en la que poder recibir llamadas mientras se
iba de un lugar a otro. Dentro de las mismas sedes de las empresas se crearon redes locales
para comunicar departamentos que necesitaran de un intercambio de información elevado.
Por tanto, las nuevas tecnologías relanzan las ciudades que las desarrollan, no las llevan al
declive.
Pero la centralización de las redes de telecomunicaciones hizo que las grandes
empresas se concentraran en esas áreas, reforzando su control. En los distritos financieros esa
concentración existía desde antes de la llegada de las tecnologías de la información. La
cercanía permite tener contactos y reuniones confidenciales en poco tiempo con otras
empresas u organizaciones. Existía un ambiente comercial social con fuertes connotaciones, la
localización proporcionaba prestigio a la empresa, existían ventajas por permanecer en esa
localización y si todas las empresas importantes se marchaban el precio del suelo disminuía y,
por tanto, el valor también. La existencia de servicios auxiliares alrededor como las redes de
suministros abarataba los costes, se podía disponer de bienes que otras ciudades o áreas no
tenían. Las tecnologías de la información avanzadas permiten aumentan el volumen de
información procesada por unidad de tiempo si junto con otras empresas se mantiene en el
mismo lugar. Para las empresas no hay inconvenientes, pero para los habitantes sí. Se genera
un desequilibrio social en el interior de las ciudades donde los muy ricos, empleados de alto
nivel de esas empresas, se juntan con los habitantes más pobres. Además, la salida de las
clases medias de este área provoca la descentralización de actividades de servicio (sanidad,
educación, etc.) que se marchan allá dónde van ellos.
Debido al uso de las tecnologías de la información, sobre todo a lo que se acaba de ver
con las telecomunicaciones, se produjo una reestructuración organizativa y descentralización
28
espacial de las actividades de las oficinas. Estas tecnologías facilitan el movimiento, sin ellas
estas nuevas áreas serían incapaces de competir con los centros metropolitanos establecidos.
La reorganización de las actividades se produjo entre distintas regiones, de las áreas
metropolitanas a las fueras de esas áreas o a ciudades pequeñas y del interior de las ciudades
a la periferia de las mismas. También hubo dos tendencias con impacto limitado, la
exportación de actividades de servicios dirigidas a la nueva población de las áreas cercanas a
donde están los centros financieros y descentralización del trabajo de oficina al domicilio,
también conocido como teletrabajo.
Los nuevos centros de oficinas de la periferia suelen ser distintos a los del centro de la
ciudad. Los edificios son de pocas plantas o rascacielos muy separados unos de otros, con
preferencia a los parkings facilitando el uso del coche como medio de transporte principal
frente al transporte público que se necesita en el centro de la ciudad. Gracias a las
telecomunicaciones estos nuevos emplazamientos tienen ciertas ventajas respecto a los del
centro. El precio del suelo y del alquiler es más bajo, las oficinas son más accesibles para los
empleados, ya que se sitúan más cerca de sus casas y pueden ir en coche gracias a la cantidad
de aparcamiento disponible. Para la venta al por menor, estos emplazamientos se encuentran
más cerca de sus clientes potenciales. Los puestos de trabajo disponibles se cubren gracias a
una búsqueda de mercados laborales específicos que se encuentran cerca de estas zonas,
donde las mujeres con formación académica, casadas, residentes en los barrios residenciales
buscan trabajo a tiempo parcial con salario menor debido a sus responsabilidades familiares.
Buscan trabajar y poder cuidar de su familia por lo que sus expectativas salariales son
menores.
La tendencia es que la empresa principal siga en distrito financiero y sus matrices se
sitúen cerca debido a que sigue siendo necesario el contacto personal entre ambas. Se da
preferencia a las zonas con buenas redes de telecomunicación, transporte aéreo directo y a las
que dispongan envío de mensajería ágil. Las oficinas de venta al cliente final se localizan donde
haya población y empresas, sus principales clientes. Y las oficinas de proceso datos se
desplazan hacia zonas más baratas, el uso de las telecomunicaciones lo hace posible.
Las tecnologías de la información han afectado al modelo espacial de la industria. Las
telecomunicaciones incrementan la movilidad de los trabajadores a la vez que se reduce el
coste de transmisión entre las distintas unidades de la empresa. La automatización en la
entrada de datos y las operaciones de proceso de datos reestructuran el perfil ocupacional de
las empresas. Se incrementa la necesidad de mano de obra cualificada y de trabajo en equipo,
ya que los trabajos rutinarios los hace una máquina. Las nuevas necesidades hacen que para
29
los nuevos puestos de trabajo tengan preferencia las mujeres con formación académica.
Normalmente suelen estar casadas, vivir en zonas residenciales, tienen hijos y quieren tiempo
para poder dedicárselo. Buscan trabajo a tiempo parcial, con un salario menor que el de un
hombre casado. Las empresas, gracias a los emplazamientos, las ofrece ir en coche al trabajo
reduciendo el tiempo que dedican al desplazamiento, dejar su coche en parking seguro y no
trabajar hasta la noche. El proceso de descentralización se dio masivamente en las oficinas de
seguros, en esas zonas no se busca mano de obra barata, sino cualificada y lo menos cara
posible. Por este motivo las zonas urbanas residenciales son mejores para encontrar
trabajadores que las zonas del interior de las ciudades con mano de obra más barata, estas
minorías tienden a recibir peor educación y, por tanto, a tener una peor preparación
académica lo que hace que no sean aptos para estos puestos.
Las nuevas tecnologías en las telecomunicaciones permiten relocalizar operaciones,
como las oficinas de proceso de datos, a zonas remotas. Esta descentralización está limitada a
ciertas zonas por motivos técnicos. La red eléctrica tiene una topografía radial en Estados
Unidos, por lo que a mayor distancia de las centrales generadoras se producen más cortes de
luz, algo importante por el tipo de equipos usados. En otras zonas la falta de una
infraestructura de telecomunicaciones ya desplegada o falta de transporte aéreo que no
permite contacto personal entre la central y las filiales para la toma de decisiones impide que
ciertas zonas acojan a estas empresas. Pero se da un caso que llama la atención fuera de
Estados Unidos, las zonas turísticas a las que viajan estadounidense tuvieron que construir
redes de telecomunicaciones y aeropuertos para atraer a los turistas. Estas infraestructuras
realizadas en Caribe y en Asia son idóneas para que las empresas puedas descentralizar sus
oficinas. El menor coste de la mano de obra y unas infraestructuras que ya están funcionando
y apenas necesitan inversión hacen que sean más interesantes que ciertas zonas de Estados
Unidos, pero las descentralizaciones a estos lugares son menores de lo previsto debido a que a
un mayor uso de las tecnologías de la información se puede automatizar los procesos que se
realizan y no merece la pena enviar información fuera del país por los riesgos que conlleva.
El teletrabajo se presentó como una ventaja para los trabajadores al evitarles el
desplazamiento, pero apenas se ha desarrollado se ha encontrado con obstáculos legales,
oposición sindical y falta de una motivación fundamental por parte de las empresas. Para los
profesionales y ejecutivos es una realidad, asisten al trabajo a las reuniones y trabajan desde
casa a cualquier hora. Los mayores beneficios del teletrabajo son que incrementan las
conexiones entre los pequeños negocios, grandes empresas y sus proveedores auxiliares por
redes las de información. Un elemento importante del teletrabajo es la telefonía móvil que se
30
verá en los capítulos de la segunda parte segunda, su éxito ha sido tal que ha provocado
nuevos conflictos en las ciudades debido a la colocación de las antenas necesarias para su
funcionamiento.
Conclusión
Todo el proceso sigue una lógica jerárquica y funcional, en el que las actividades de un
nivel menor son descentralizadas a localizaciones secundarias y se dispersan hacia las zonas
donde se encuentran situados sus mercados. La difusión espacial de las industrias de
tecnologías de la información está relacionada con sus características estructurales,
económicas y su competencia. A pesar esta descentralización de los puestos de trabajo, se ha
reforzado la toma de decisiones agrupándola en los núcleos empresariales de los mayores
distritos financieros centrales (como Nueva York, Londres, etc.), dentro de esas zonas de
dominio que se ven reforzadas por tener las mejores infraestructuras de redes de
telecomunicaciones.
Este tipo de economías de la información se caracterizan por procesar la información,
algo distinto a las economías de servicios. Tienen en común que existe un liderazgo de grandes
empresas, se descentraliza la administración de las mismas, se subcontratan las operaciones
mediante una red de empresas auxiliares de pequeño y mediano tamaño, existe una
interconexión de estas grandes empresas con sus propias empresas auxiliares con otras
grandes empresas y con las auxiliares de estas. Todo esto da una estructura organizativa
compleja, con geometría variable en el tiempo, el espacio y el alcance de las actividades de
todas las empresas. La toma de decisiones de alto nivel está centralizada en zonas concretas
de grandes ciudades financieras, la gestión organizativa se encuentra descentralizada en áreas
metropolitanas y los servicios, la obtención y entrega de información está esparcido por todo
el territorio. Pero las decisiones no se pueden tomar si no hay comunicación con el cliente para
saber el producto que mejor se adecua a sus necesidades.
El espacio de estas organizaciones en la economía informacional es cada vez un
espacio de flujos. Las organizaciones no son “aespaciales”, es decir, no pueden prescindir de
una ubicación física en la que establecerse. La toma de decisiones está centralizada en el área
metropolitana y los servicios que ofrecen deben seguir a los mercados, que están
segmentados y segregados por todo el mundo. Las organizaciones crean unos flujos según sea
su jerarquía dentro de los límites de la infraestructura de telecomunicaciones y equipos
31
informáticos en un lugar y momento determinado. El espacio de los flujos es la dimensión
espacial fundamental de los complejos empresariales a gran escala del procesamiento de
información.
El acceso a las redes de flujos es la condición básica para el buen rendimiento de
cualquier organización, sin esto no funcionará. Este acceso deberá tener preferencia sobre
cualquier otro requisito originado por los costes de una particular localización de uno de los
componentes de la organización en un lugar dado de esta red de flujos, es decir, para acceder
a las redes hay que estar cerca de ellas y esto solo se da en ciertos emplazamientos físicos que
tienen un coste monetario elevado por ese motivo, como Nueva York. Los intereses de las
organizaciones estarán subordinados con los mercados financieros, los grupos profesionales,
las alianzas estratégicas en el mundo de la economía y en el potencial para instalar y poner al
día la tecnología necesaria; todos dependerán de las interacciones del espacio de los flujos que
comparten. La mayor parte de los flujos organizativos son direccionales y tiene un
componente basado en una sociedad y en un lugar determinado, la toma de decisiones no es
ajena al entorno social en el que se encuentra. No se puede abstraer completamente la lógica
estructural incorporada el modelo de flujos, debido a la diversidad de fuentes, intereses, etc.
Existe una transformación de los flujos de poder en el poder de los flujos.
32
33
Capítulo 2: Cambios en la sociedad provocados por las tecnologías de la
información
34
35
Introducción
Pese a lo que se pueda pensar, las nuevas tecnologías no son el principal factor causal
en el proceso que lleva hacia la nueva forma socio-espacial que se ha visto anteriormente. Son
una herramienta importante en el proceso general de la reestructuración del trabajo. Estas
tendencias organizativas podrían ser cambiadas, pero la rigidez histórica de las formas
espaciales, que ya estaban en presentes en las empresas y sociedades, amenazan con
consolidar este proceso de cambio urbano. La presión ejercida para desarrollar la tecnología
de esa manera puede hacer que la reestructuración del trabajo que se ha presentado
anteriormente acabe por incorporarse definitivamente a la organización social y espacial de las
ciudades.
Las nuevas tecnologías han tenido repercusión sobre el trabajo y la ocupación laboral,
han aumentado la productividad, la innovación y crecimiento económico, pero han creado más
paro en el sector de producción industrial debido a que con esas mejoras se obtenía más
producto con menos trabajadores. A lo largo de los años se ha analizado la relación entre la
innovación y la pérdida de puestos de trabajo. Se solía fijar la demanda de los consumidores y
la producción, es decir, si la economía no crece se produce una pérdida de empleo. Pero
normalmente se asocia al cambio tecnológico una expansión que aumenta la demanda de
producción, es decir, se necesita más tiempo de trabajo, más trabajadores y por tanto se
genera empleo. Por tanto, no existe una relación estructural sistemática entre la difusión de
las tecnologías de la información con la evolución de los niveles de empleo. El resultado
especifico que se obtiene de la interacción de la alta tecnología y el empleo está sujeto en gran
medida a factores macroeconómicos y estrategias económicas de las grandes empresas o de
los gobiernos de los países.
Transformación de la estructura ocupacional
De nuevo analizando lo ocurrido en Estados Unidos, no parece que el nivel de empleo
se vea afectado negativamente por las tecnologías de la información, se destruyen empleos en
el sector de la producción industrial pero se crean otros nuevos en las industrias de alta
tecnología. El problema, como se vio anteriormente, es que son bipolares en cuanto a la
cualificación y al salario. Los empleos en alta tecnología son distintos a los de la industria
tradicional, se necesitan más profesionales con cualificación técnica superior y con mejores
36
sueldos, muy pocos con cualificaciones técnicas medias y muchos trabajadores peor pagados
en la producción con poca o ninguna cualificación académica. Estos trabajos rutinarios se
pagan peor y se busca contratar a mujeres e inmigrantes no sindicados, mucho más baratos y
con menos problemas en aceptar suelos bajos. En este último grupo no es posible ir
ascendiendo en la empresa según se gana experiencia como en la anterior industria, es
necesaria una formación técnica y/o universitaria para acceder a los puestos superiores y
mejor pagados.
Esto da lugar a nuevas tendencias en la estructura ocupacional. Se da un aumento de
puestos de trabajo en la industria de alta tecnología, sobre todo en empleos cualificados
relacionados con los servicios, pero en términos absolutos el número es menor. La estructura
ocupacional pasa a ser bipolar, por un lado los profesionales, ingenieros y técnicos
mayoritariamente de raza blanca y varones, y por otro lado los trabajos industriales mal
pagados ocupados por mujeres y minorías étnicas. Hay un incremento masivo de empleos de
servicios, poco remunerados en su mayoría y de baja cualificación como el de vigilante,
secretarias, camareros, etc. También hay un incremento en el empleo de ocupaciones de alto
nivel, pero existe una pérdida de empleos totales. Esta estructura abundancia de empleos
poco cualificados comenzó a aplicarse en otras industrias distintas a las de alta tecnología, se
polarizaron los puestos de trabajo con crecimiento simultaneo en los niveles de cualificación
alto y bajo, reduciendo los niveles medios. La transformación de la economía tradicional hacia
una mayoritariamente orientada a los servicios explica mejor la estructura ocupacional
polarizada. Las características de estos servicios, donde se necesita empleos en los extremos,
encajan mejor con ese cambio en la estructura que la introducción de las nuevas tecnologías
en el proceso de trabajo.
La tecnología tiene un doble efecto sobre el tipo de empleos creados, es un factor
fundamental para iniciar el crecimiento económico de un territorio. Acelera la expansión de la
economía de servicios, provoca el crecimiento del empleo en la producción industrial de alta
tecnología y de las nuevas actividades de servicios relacionados. La alta tecnología y el
procesamiento de información fomentan la productividad y competitividad de las empresas.
Para ello se crean nuevos empleos técnicos y los profesionales reciben un buen sueldo. Estos
aumentos de productividad en las empresas se deben a la automatización de tareas en las
fábricas y oficinas. Al necesitar menos trabajadores, se liberan trabajadores que en parte
acaban el sector servicios. Estos nuevos empleos, sobre todo en su nivel inferior emplean a
mujeres e inmigrantes en trabajos de baja cualificación, son empleos mal pagados, poco
protegidos y no sindicados con peores condiciones que los anteriores.
37
Por tanto, la alta tecnología no crea desempleo por sí sola hay otros factores. Se crea
empleo cuando la tecnología es usada para potenciar la productividad y el crecimiento
económico, al haber más demanda, aumenta la inversión y la producción. Se generan más
empleos, sobre todo fuera del sector de alta tecnología. Sin embargo, por lo que ha ocurrido
hasta el momento, parece que la tecnología contribuye a establecer una estructura
ocupacional polarizada con una fuerza de trabajo segmentada según su preparación
académica. También ha contribuido a la disolución de las viejas actividades industriales y a los
privilegios que ciertos grupos sociales poseían. Se busca una reestructuración del proceso de
trabajo para generar una nueva estructura social, a priori menos ventajosa para el trabajador.
La introducción de tecnología de la información afecta a la fuerza de trabajo, pero
depende de del uso que se le dé a la tecnología y los objetivos que se persiguen cuando se
aplica. El capital tiene dos objetivos básicos en la reestructuración del trabajo: más poder para
los empresarios y aumentar flexibilidad de la empresa. Al permitir la movilidad geográfica el
trabajador se encuentra más desprotegido frente a las estrategias de deslocalización que
buscan maximizar el beneficio de la empresa. La automatización, la descentralización, los
subcontratos que buscan en otros lugares trabajadores más baratos y menos problemáticos
que no están afiliados a los sindicatos mejoran la posición negociadora del capital frente al
trabajador. La fuerza laboral se ve obligada a aceptar perores salarios y condiciones para
mantener el empleo. Las empresas, debido a que la demanda no es una constante, buscan
flexibilizar la producción con empleos a tiempo parcial, contratos temporales y aplicando un
horario flexible a sus trabajadores para adaptarse a los cambios del mercado. Las
organizaciones son más eficientes, ligeras y productivas, pero la fuerza de trabajo pierde el
control sobre el proceso de trabajo y sobre sus condiciones de trabajo.
Gracias a que las redes de telecomunicaciones permitían una comunicación inmediata
entre los distintos almacenes de distintas empresas para fabricar un producto concreto se
empezó a aplicar la técnica “just in time”, en la que en los almacenes y procesos de fabricación
solo hay lo que se necesita para cubrir la demanda actual. Con esto se reduce inventarios ya
que no es necesario almacenar componentes que no se van a necesitar, se pueden
subcontratar la producción a otros países, se pueden combinar economías a escala,
producción y gestión descentralizada, por lo que se es más flexible a las demandas del
mercado. Por tanto, las tecnologías de la información no son causa del uso generalizado de las
redes de trabajos, de la subcontratación en esta producción flexible ni de la segmentación del
trabajo que conlleva, pero suministran la infraestructura material indispensable para el
desarrollo de dichas prácticas.
38
Pero la tecnología no se aplicó de la misma manera en todos los países. En USA y
Europa se buscaba ahorrar fuerza de trabajo teniendo menos trabajadores contratados, no
estimular la competencia entre fabricantes en su mercado. Se usaron para acabar con el poder
de los sindicatos, esto redujo el potencial productivo de las empresas por centrarse en esa
lucha. Mientras que en otros países, como Japón, los robots buscaban incrementar el empleo
con máquinas más sencillas y baratas para mejorar la calidad del producto y la flexibilidad en
su producción. Gracias a esto los trabajadores aseguraban sus puestos y las empresas se
concentraron en las mejoras tecnológicas.
En el caso concreto de la industria metalúrgica en Estados Unidos, debido a la
aplicación de las tecnologías de la información se cerraron las plantas por el cambio de
equipamiento y se abrieron en zonas del mismo estado en donde no había sindicatos. No se
fueron más lejos para aprovechar el entorno que permitía el uso de la técnica “just in time”
gracias a las empresas auxiliares. También se recurrió a la subcontratación internacional para
abaratar costes. Esto supuso una disminución del empleo en todas industrias de metalurgia
salvo en las de equipamiento de oficina por su crecimiento. Las características comunes en
esta industria son una reducción en fuerza de trabajo, cambios en la estructura ocupacional,
con un recorte en el número de trabajos de producción y polarización en los restantes. Esto no
es el resultado inevitable del uso de una tecnología de producción flexible en esta industria, es
el resultado de decisiones de la dirección en relación al uso de las tecnologías que quería
aplicar. Con el objetivo de restar poder a los trabajadores, no se permitió que los operadores
de máquinas realizaran su programación, a pesar de conocer el proceso de producción y la
simplicidad de la operación por lo que no estaban completamente optimizadas. En Japón, sin
embargo, las maquinas eran herramientas de trabajo que mejoraron la productividad y que
eran usadas por los trabajadores para aumentar la calidad de su trabajo.
En la industria de la confección en Estados Unidos, el proceso de cambio tecnológico
se produjo en la conexión de las empresas con sus proveedores más que en la automatización
del proceso de producción. Las empresas no compitieron con los nuevos países
industrializados en cuanto al proceso de producción. Buscaban una respuesta rápida para
mejorar traspaso de información. Buscaban confeccionar lo que demandaba el cliente según lo
que indiquen los minoristas, los más cercanos al cliente, en el menor tiempo posible. Esta
información llega antes a los productores y pueden empezar a fabricarla antes. El resultado fue
un conjunto de diseñadores altamente cualificados, ejecutivos de ventas que usaban las redes
de telecomunicación para hacer los cambios y trabajadores en cualquier parte del mundo o en
talleres clandestinos que cosían lo que el cliente demandaba. La tecnología no ha marcado el
39
destino de la industria y sus trabajadores, pero si ha sido un instrumento para el intercambio
de información entre las partes que la componen.
La industria de seguros y bancaria, fueron líderes en cuanto a automatización en los
años ’70 para controlar los constes debidos a la inflación y la variación de las tasas de interés
del momento. Se consiguió gracias a la automatización de procesos de entrada, la flexibilidad
en los trabajos y la capacidad en la toma de decisiones gracias a una red descentralizada de
agentes. Los trabajadores administrativos estaban relativamente cualificados y podían realizar
ventas, calibrar riesgos, explicar productos a los clientes y responder a los agentes con la
informatización completa de operaciones de cálculo de riesgos y reaseguros. Los empleos no
cualificados fueron eliminados y los empleos de oficina se les integraron tareas. La
reestructuración de estas industrias no solo se debe solo a la automatización de la oficina si no
a los cambios ocupacionales realizados, a la múltiple cualificación de títulos de empleos para
evitar su agrupamiento, sindicalización, reducir los salarios y la movilidad ocupacional para un
determinado nivel de responsabilidad.
La automatización basada en el ordenador no está llevando hacia una era de paro, sino
a una redefinición selectiva de los puestos de trabajo y las características laborales de estos.
Ciertos empleos mejoran cualificación y salario, pero otros menos cualificados se eliminan por
la automatización en unos sectores o por la inversión necesaria para actualizarlos. La
cualificación educacional aumenta, tanto general como especializada, y divide más la fuerza de
trabajo sobre la base de la educación, que a su vez se basa en una estructura residencial
también sesgada donde los más ricos son los que más fácil pueden acceder a esa educación. La
fuerza de trabajo de nivel bajo se compone de mujeres y minorías étnicas, su baja cualificación
y salario los hace atractivos para el sector servicios o la economía informal.
Se produjeron cambios en la distribución de ingresos de los trabajadores debido a los
cambios en las industrias existentes y las nuevas. Las industrias de alta tecnología favorecen
dos niveles de ingresos, uno alto y otro bajo, otras tienen obreros con altos salarios lo que
estaría entre ambos niveles. La reducción del número de trabajos con retribuciones medias es
producto tanto de la tecnología como un entorno de trabajo sin sindicatos. Los ingresos que
irían a este grupo son redistribuidos hacia los grupos menos cualificados. Pero los obreros de
este grupo son más vulnerables a las peticiones de la patronal, el miedo a perder el puesto de
trabajo hace que acepten cambios que no les benefician. Además se encuentran con empleos
con menos requisitos, más rutinarios en los que se pueden emplear a inmigrantes ilegales sin
cualificación. Este proceso solo es reversible si se amplía el nivel de conciencia para hacer ver
las consecuencias que conlleva y se organiza el nuevo grupo que entra a trabajar para que
40
resulte más difícil proponer cambios a peor. Mientras continúe, la estructura ocupacional
estará más polarizada, habrá mayores desigualdades salariales y de segmentación: es el
ascenso de la ciudad dual.
La ciudad dual: la nueva estructura social urbana
En las grandes ciudades de los Estados Unidos donde la industria informacional
sustituye a la tradicional, la tendencia es hacia un dualismo económico donde la clase media
disminuye. Existen tres fenómenos interrelacionados: la explosión de economía informal, las
actividades generadoras de ingresos no reguladas, que son similares del gobierno pero fuera
de su control, y una reducción del nivel de fuerza de trabajo. Debido al declive de las industrias
tradicionales hay más población que se queda sin trabajo. La proliferación de la economía
criminal, como la relacionada con tráfico de drogas, provoca que sean las minorías étnicas,
normalmente excluidas en las grandes ciudades centrales, sean las que ocupen estos puestos.
Se puede interpretar que los servicios avanzados e industrias de alta tecnología
requieren un nivel de educación superior que la mayor parte de los empleos de la economía
tradicional. Por este motivo los puestos de trabajo de menor calidad tenderían a desaparecer
a la vez que se crean otros donde el nivel de cualificación requerido para obtener un puesto de
trabajo en el nuevo mercado laboral se eleva. La industria tradicional está ubicada alrededor
de los centros financieros donde se crean los nuevos empleos informacionales, pero la gente
despedida no puede acceder a los nuevos empleos pese a vivir cerca por no tener la formación
necesaria, algo que sobre todo ocurre con las minorías étnicas. Se crea un desequilibrio en la
educación, al irse degradando esas zonas por el aumento del desempleo la educación empeora
en estas zonas debido a la falta de presupuesto, lo que impide que los jóvenes reciban la
formación requerida para acceder a esos puestos de trabajo. Esto da el mismo resultado que la
segregación por clase y raza que ocurrió años atrás. Pero a pesar del crecimiento económico
que permitía la creación de empleo en ciertas épocas no se redujo el desempleo para el sector
joven de estas minorías, ni para los puestos poco remunerados. Para explicar esto se hay
varios procesos. Por un lado el declive de industria tradicional hace que un segmento de la
fuerza de trabajo semi-cualificada sea expulsado del mercado laboral, sobre todo si pertenece
a un sindicato. Los sectores de servicios avanzados e industrias de alta tecnología ofrecen
empleos poco remunerados a los trabajadores. Las actividades industriales de bajo nivel
reciclan fuerza de trabajo de sectores en declive, sobre todo en mujeres e inmigrantes recién
41
llegados, que son menos problemáticos laboralmente. Y por último, las actividades
relacionadas con los servicios generan empleos para inmigrantes, minorías y mujeres, están
más predispuestos a aceptar las peores condiciones laborales que ofrecen.
El desarrollo de la economía informal en los Estados Unidos conecta dos tendencias: la
degradación de la industria, la desaparición o la relocalización de actividades industriales y el
aumento de servicios al cliente. Un ejemplo de la primera tendencia se da en la industria textil,
donde surgen talleres clandestinos dentro de las grandes urbes, como en Nueva York, para
abastecer a tiendas de esa misma ciudad. Y de la segunda son las tiendas de alimentación
especializada, servicio doméstico, lavanderías que aparecen. Estas tiendas y servicios están
relacionados con el nuevo estilo de vida los profesionales y ejecutivos de la ciudad, son casas
con uno o dos ingresos, con poco tiempo disponible que dedicar a tareas como preparar
comida o hacer las tareas del hogar pero que cuentan con un alto poder adquisitivo y gustos
sofisticados. La gran demanda puestos de trabajo para servicios al cliente con alta
especialización, como los chef o los artistas, y baja especialización, como los camareros,
conductores, guardias de seguridad, empleados del hogar, etc. Estos trabajos no pertenecen a
economía informal, no depende de las nuevas tecnologías, pero tienen rasgos de los empleos
de este tipo de economía, se adaptan la demanda y deben estar disponibles todo el tiempo
para ajustarse a los horarios de los puestos de alto poder adquisitivo.
La nueva economía, con su flexibilidad laboral y estructura ocupacional polarizada, ha
sido capaz de integrar a la fuerza de trabajo inmigrante debido a su vulnerabilidad. Esta acepta
las condiciones que otros trabajadores nativos no se plantearían o que los empleadores no son
capaces de proponer a un ciudadano americano. La nueva inmigración que llega de otros
países, normalmente más pobres, abastece la fuerza de trabajo necesaria para la
reestructuración del trabajo implícita en la estructura ocupacional polarizada de la economía
informal. También se da una espacialización de las distintas áreas de la ciudad, donde los
trabajadores con los ingresos más altos se encuentran situados muy cerca de los trabajadores
con ingresos más bajos. Existe una segregación étnica, los negros son los más concentrados en
un área y segregados, después hispanos y luego otras minorías. Estas zonas tienen la peor
educación y, por tanto, es más difícil conseguir una formación que les permita optar a un
puesto de trabajo en los sectores de las tecnologías de la información.
En las grandes ciudades se da una nueva forma de dualismo urbano, que está
relacionada con el proceso de reestructuración y expansión de la economía informal cuando
esta sustituye a la tradicional. Esto tiene que ver con los procesos simultáneos de crecimiento
y declive de las industrias y empresas, especialmente en grandes áreas metropolitanas, donde
42
se encuentran ubicadas la mayor parte de las actividades económicas intensivas en
conocimiento. Lo que no queda explicado con claridad es la desaparición de la fuerza de
trabajo tradicional y los nuevos requisitos para los empleos informacionales. Hay un cambio de
relaciones capital-trabajo, donde debido a la debilidad del trabajo, este tiene que adaptarse a
la flexibilidad que se le exige. Son los jóvenes de las minorías étnicas, sobre todo los no
integrados, los que se ven privados de los puestos de trabajo menos especializados que son
ocupados por los inmigrantes más vulnerables, que aceptan las condiciones que se les
demandan. Las minorías sin estudios tiene difícil acceder a los nuevos puestos de trabajo, hay
un aumento de la discriminación por raza o sexo. Sin embargo la fuerza de trabajo mejor
preparada es la más demandada para la economía informacional. Existe un dualismo en
dinámica de crecimiento, las personas se estratifican y segmentan: empleos mejorados
relacionados con la economía información que ocupa los puestos más importantes, fuerza de
trabajo sin cualificar que ocupa los puestos que apenas necesitan cualificación y, por último,
las personas excluidas completamente que no encajan en los puestos de trabajo mencionados
por su falta de formación académica, nacionalidad o raza.
La ciudad dual es el resultado del proceso de diferenciación de la fuerza de trabajo en
los dos sectores dentro de la economía: la formal basada en la acumulación y procesado de
información y la informal basada en la fuerza de trabajo sin cualificación que realiza las tareas
repetidas. Pero la economía informal no es exactamente igual a la pobreza, hay una diferencia
entre los dos sectores es la falta de intermediación del Estado entre el capital y el trabajo, esto
impulsa las actividades no reguladas o las amoldadas a las nuevas condiciones de trabajo que
se imponen. La economía y la sociedad pasa a depender la una de la otra, pero
organizativamente y socialmente se encuentran segmentadas. Esto estimula la reducción de
niveles medios de ingresos y hace que el sistema este menos abierto a la movilidad
ocupacional que lo que estaba antes, es decir, impide ascensos de cargo dentro de las
empresas. La elite es menos elitista, hay más fuerza de trabajo medio-alta, pero el nivel
inferior pierde atracción por el modelo superior ya que no lo pueden alcanzar los privilegios,
cualificaciones y el nivel debido a los requisitos formativos que se necesitan para estos
puestos.
En Estados Unidos bajo este tipo de economía informacional se promueve un dualismo
estructural, es decir, se crean unos estilos de vida completamente diferenciados en la
estructura doméstica, en las relaciones familiares entre los sexos y en los usos del espacio
urbano. No hay dos mundos sociales diferenciados, sino una variedad de universos sociales
fragmentados, con unos límites muy marcados y un bajo nivel de comunicación entre
43
universos. Las áreas residenciales se hacen exclusivas debido al precio del suelo para una
determinada clase y etnia, que el resto no puede pagar. Los trabajadores sin cualificación se
establecen en las áreas más asequibles, pese a estar a poca distancia se encuentra separados
por etnias: más segregación y segmentación. En una misma zona conviven afroamericanos,
asiáticos o latinos, pero no hay relación entre los distintos grupos. La misma segregación
espacial se da en las escuelas, los gobiernos son los responsables de reproducirlo. Las peores
zonas tienen peores escuelas debido a que las peores calificaciones implican un menor
presupuesto. Esa falta de formación impide acceder a la economía informal y por tanto crean
más mano de obra sin la formación adecuada. La formación que reciben solo se puede
modificar con una protesta social conjunta de todos los grupos o intervención política
deliberada, no se arregla por sí solo dejando pasar el tiempo.
La diferencia en la educación provoca que exista un acceso distinto a los flujos de
información y a los modelos de comunicación. Los ciudadanos con un nivel superior de
formación e ingresos están comunicados globalmente mediante redes con todo el mundo. Los
niveles inferiores se encuentran segmentados, solo comunican con los de su misma etnia,
buscar una identidad común para defender sus intereses y su principal red de comunicación
con el mundo es la televisión. Esos canales de televisión suelen estar controlados por grandes
grupos empresariales con intereses muy distintos a los de estas personas como se verá con
algunos ejemplos a lo largo del capítulo sexto.
Los procesos de reestructuración laboral en economía informal convergen en ciudad
dual con una reestructuración y desvertebración de las clases sociales tradicionales. Las
comunidades están socialmente discriminadas, territorialmente segregadas y culturalmente
segmentadas de forma que no pueden unirse en una única clase para hacer más fuerza con la
que luchar para disminuir las injusticias a las que se tienen que enfrentar. La clase social con
poder para modelar la sociedad civil son los ciudadanos blancos, buscan áreas exclusivas
donde vivir, barrios aislados y privilegiados en los que solo hay gente como ellos. En el otro
lado hay una interminable fragmentación social y espacial de la fuerza de trabajo de nivel
inferior, esta rompe comunicaciones con otras comunidades debilitándose a sí misma y a todo
el conjunto.
La esencia de ciudad dual, sobre todo en los Estados Unidos, es la de una configuración
urbana que articula el ascenso de la nueva categoría social dominante en el modo
informacional de desarrollo, a su vez se desarticula y enfrenta a lo que queda de la fuerza de
trabajo procedente de la economía tradicional. Estos trabajadores y los componentes de la
nueva fuerza de trabajo son incorporados a esta nueva estructura económica, pero son
44
aislados en zonas concretas de las ciudades y separados en grupos étnicos o con nuevas
denominaciones de sus puestos de trabajo. De esta manera se evita que se agrupen y soliciten
cambios que mejoren su situación, como ocurría años atrás con los al sindicalizarse. El sentido
de la ciudad dual es proteger el proceso de reestructuración espacial, debido a esto segmentos
específicos de la fuerza de trabajo son incluidos y excluidos de la nueva forma de producción
donde se prevalecen los intereses del capital y de los consumidores frente a los de los
trabajadores. La exclusión de ciertos grupos de ciudadanos, sobre todo los menos formados,
no mejorara con el paso del tiempo debido a la baja calidad de la educación y los servicios de
esas áreas, que cuentan con un presupuesto mucho menor.
Como se puede comprobar con las noticias que aparecen todos los días en los medios
de comunicación, con el paso de los años, en el resto de los países se está aplicando un
modelo similar al estadounidense. La aplicación de la tecnología, salvo en países como Japón,
no se ha centrado en mejorar la calidad del producto sino en minar los derechos logrados por
los trabajadores durante mucho tiempo en la actividad industrial. Los trabajadores han visto
como su trabajo podía realizarlo un robot, un inmigrante sin papeles que llegara al país o en
cualquier parte del mundo con un trabajador que se conformaba con una fracción de su salario
y si no aceptaban las nuevas condiciones eran despedidos. Los puestos de trabajo que
necesitaban una cualificación media disminuían a la vez que las posibilidades de ascenso
dentro de las empresas, debido a su formación académica solo pueden trabajar en los de
menor cualificación. Los puestos relacionados con las tecnologías de la información necesitan
de una formación concreta, es cara por lo que pocos pueden costear y serán todavía menos los
que puedan debido a los recortes en los servicios públicos, como en la educación, que sufre
esas zonas donde residen. También, pese a la facilidad para comunicarse con cualquier parte
del mundo, dentro de las grandes ciudades sus habitantes tienden a aislarse, reunirse solo con
los que tiene algo en común (procedencia, raza, etc.) y enfrentarse con el resto. Todo esto
facilita la división e imposibilita que se haga un frente común contra las desigualdades que se
producen a diario.
La pérdida del estado del bienestar
De nuevo lo ocurrido en los Estados Unidos es extrapolable al resto de países, ya con el
paso del tiempo se ha producido o se está produciendo la misma situación. En los momentos
de bonanza económica los problemas sociales y de dinero se minimizan, solo afectan a los más
45
desfavorecidos y pasa inadvertido. Durante los años ’60 y 70’, a causa de los problemas
ocasionados en la población de las ciudades debido al cierre de la industria el gobierno federal
comenzó una política pública redistributiva para dotar de servicios a estas ciudades y
aumentar en número de puestos de trabajo. Cuando hay una crisis económica más personas se
ven afectadas, la repercusión de los problemas es mayor y se agudiza cuando por la falta de
recursos económicos el gobierno debe reducir sus gastos. La mayor parte del presupuesto de
los países desarrollados se destina a mantener el estado del bienestar, es decir, un conjunto de
servicios como la sanidad, la educación, las infraestructuras públicas o los recursos destinados
al empleo. Estos servicios fueron atacados desde el sector privado y por la prensa,
normalmente controlada por las mismas organizaciones. El gasto destinado a estos servicios se
presentaba como la principal causa para incrementar los impuestos, de ser un gasto inútil que
no ayuda a nadie y de alterar el presupuesto dedicado a otras partidas más importantes. Los
programas sociales lo primero que se suprime con las crisis y luego no se restaura, dando igual
si funcionaba en esa ciudad.
El problema de estos servicios es que son caros y no generan beneficios económicos
visibles como los de los programas militares o tecnológicos, no se pueden vender y no dan
grandes plusvalías. Por ello, los gobiernos son presionados por las grandes empresas para
reducir o cambiar la forma de gastar el dinero dedicado a los servicios del bienestar, se
prefiere aumentar los presupuestos de otras partidas que si dan beneficios. En Estados Unidos
una parte importante del presupuesto se dedica a los programas militares, las empresas que
los desarrollan son poderosas, influyen en la toma de decisiones del gobierno, y buscan
mantener el presupuesto o incluso aumentarlo en épocas de crisis. La metodología para
reducir el presupuesto destinado al estado del bienestar es confundir a los ciudadanos
identificando los programas generales de beneficios sociales con los programas para los
pobres. Se les muestra en los medios de comunicación como gente que hay que mantener y
que no trabajan por decisión propia. Al reducirse este presupuesto se les ayudara y podrán
valerse por sí mismos sin depender de dinero los demás. De esta manera enfrentan se
enfrenta a los más ricos y, sobre todo, a la clase media con los más pobre sin buscar las causas
que han llevado a esa situación.
Como solución a la crisis económica en los Estados Unidos, los dirigentes ofrecen una
bajada de impuestos para los ricos y las grandes empresas para estimular la creación de
puestos de trabajo y se aprueba un incremento del gasto en defensa del gobierno para
aumentar demanda y generar nuevos puestos de trabajo para los más desfavorecidos. De esta
manera, en lugar de mantener los gastos del Estado del bienestar, se solucionarán dos
46
problemas: se crean puestos de trabajo para los más desfavorecidos y estos podrán valerse
por sí mismos sin el dinero de otros. Para favorecer la creación de puestos de trabajo de las
grandes empresas y aprovechando la situación de crisis económica de los años ’80, durante el
mandato de Ronald Reagan, se rompieron los contratos sociales. Se permitió que el capital
recuperara su poder en los contratos frente a los trabajadores y el Estado del bienestar. Para
reducir su gasto, el estado transfirió sus programas y responsabilidades a los estados y
ciudades pero sin transferir la contrapartida presupuestaria, esto redujo la capacidad de los
gobiernos locales para enfrentarse a las nuevas necesidades sociales urbanas. La política
urbana implícita fue la de crear incentivos para estimular la inversión privada, asumiendo que
esta resolvería los problemas urbanos. Pero resulto que cuantos más problemas tenía una
localidad concreta, más sufrirá la carga de los costes presupuestarios mientras que el dinero
destinado a defensa acababa en ciudades sin problemas económicos y con poco desempleo.
Con la desregularización de actividad económica y social por parte del gobierno el
capital recupero su poder. Hubo un debilitamiento del trabajo organizado donde los
empleados perdían poder en las negociaciones de sus contratos. El gobierno y el capital
prescindieron de los programas sociales y para evitar cambios sociales se promociono a jueces
conservadores más favorables a una renovación del material de defensa empezando carrera
tecnológica con cualquier país enemigo. Este proceso de reestructuración económica
desarrolla la base para la transformación sociopolítica preparando el terreno para la transición
del Estado del bienestar al Estado militarizado en el caso de los Estados Unidos. La alta
tecnología es una herramienta indispensable para la reestructuración político-económica que
está teniendo lugar en las instituciones estatales de democracias industriales, con un gran
impacto, posiblemente irreversible, en estructuras sociales y empresariales. La alta tecnología
permite al Estado un mayor control del ciudadano.
Alta tecnología y política
La revolución tecnológica supone un reto para los Estados Unidos ya que o se está al
día o el armamento se queda obsoleto frente al de otros países. Para que no ocurra es
necesario destinar una partida de dinero importante del presupuesto del país. Desde el uso de
la bomba atómica la mayor parte de las crisis internacionales entre países se resuelven
preferentemente por medios diplomáticos, políticos o usando la fuerza de una forma
controlada, algo que choca con la lógica en la que se basa el estado militarizado. El uso militar
47
de la tecnología ha sido uno de los motores de desarrollo y un campo de aplicación de los
conocimientos científicos adquiridos en muchos países, salvo en Japón.
El predominio de los intereses de los departamentos de defensa en políticas
económicas y en programas de investigación afecta a la competitividad económica. La
innovación tecnológica pasa a ser secreta aludiendo a motivos de seguridad y crean menos
puestos de trabajo: contra menos gente lo sepa más fácil es controlar la información. Los
contratos de investigación suelen recaer sobre las mismas grandes empresas, a priori más
seguras ya que cuentan con protocolos de seguridad para restringir la difusión de esa
información, pero esto perjudica a las empresas pequeñas y a las innovadoras sin esas medidas
de seguridad y sin la influencia de las otras. Debido al uso que se le da, no se pueden hacen
economías de escala para abaratar costes y al ser siempre para un mismo cliente, el Estado, y
tener unas especificaciones concretas no se puede usar de manera comercial.
La relación entre defensa, la tecnología y el crecimiento económico puede resumirse
en que la capacidad de defensa depende de tecnología, los programas de investigación y
desarrollo aeroespaciales y las tecnologías de la información. Con estos avances, en Estados
Unidos, el Pentágono guió y estimuló el crecimiento de las empresas como más éxito industrial
hacia sus propios intereses. Los logros del Departamento de Defensa proporcionan una
superioridad militar y reforzando su propio poder dentro del Estado. El fin último de la política
de defensa no es el crecimiento tecnológico industrial, económico ni científico, es un fin
político y defensivo para mantener el control. Durante el mandato del presidente Reagan, se
empleó la tecnología como herramienta para trasladar el liderazgo político y científico en el
campo de las tecnologías de la información hacia una la superioridad militar sobre el resto de
países. Por ello, las nuevas tecnologías son un medio para conseguir y retener el poder estatal
en un planeta interdependiente.
La tecnología ha estado ligada con el Estado y el sector militar desde siempre. La
bomba atómica fabricada por los Estados Unidos consiguió que la superioridad tecnológica se
convirtiera en el factor principal para conseguir una supremacía militar y política. Con esta
superioridad tecnológica se puede proteger al país con coste político aceptable, se usa una
estrategia “quirúrgica” para la intervención militar en otros países adaptando fuerza bajo la
que operar según el momento y el área. Los programas tecnológicos están dirigidos a devolver
al Estado su capacitación para la guerra, pero agradando a la opinión pública que quiere la paz
mundial y sin armas nucleares, para ello la solución son los ataques precisos: solucionar el
problema con tecnología. Los grupos de presión tecnológicos, es decir, las grandes empresas
que trabajan en este campo buscan aumentar su tamaño e influencia con más recursos para
48
los que necesitan dinero para seguir investigando. Se trata de un desarrollo acumulativo que
guiara la política industrial hacia una economía informacional, que persigue el conocimiento.
Las industrias de defensa emplearan a la mayor parte de los trabajadores creando escasez en
los mercados civiles y debido a las investigaciones secretas se limitara la difusión de los logros
conseguidos, limitando escisiones dentro de estas empresas recurriendo a motivos de
seguridad.
Los efectos en la estructuración de las ciudades de esta política de defensa basada en
la tecnología no tardaron en producirse. Los sectores aeroespacial y electrónico cambiaron
rápidamente bajo un estricto control político e institucional de toda la información que
generaban. Para facilitar este control, se convirtieron las áreas dedicadas a la industria de
defensa en áreas de alta tecnología. Las zonas del sudeste de Estados Unidos contaban con
bases militares, buenas universidades para generar mano de obra específica, buen tiempo y
áreas de terreno extensas con bajos precios. El primer impacto la política de defensa manejada
por una competencia tecnológica global fue la reestructuración regional del país. Se aceleró el
proceso de desarrollo desigual que dependía de si la zona contaba con las nuevas industrias o
no, se cambiaron los modelos de localización tradicional. El desplazamiento del poder
económico y político fue a parar a California, Florida, Texas, Nueva Inglaterra y algunas áreas
del oeste. Mientras tanto, Nueva York mantuvo su dominio basado en su avanzado complejo
de servicios, pero con declive de su complejo industrial urbano hacia esas otras áreas.
En esas áreas, la industria de defensa modifica la estructura ocupacional de los
trabajadores y sus residencias según el tipo de actividad desarrollada. No se cuenta con
trabajadores hispanos o inmigrantes y las mujeres apenas tienen presencia. El resultado es una
zona residencial con familias del tipo nuclear, donde los hombres trabajan y las mujeres cuidan
del hogar. Los trabajadores están bien pagados por lo que se eleva el coste de la educación, no
asumible por otros trabajadores de clase media. Estos lugares de residencia tienen elementos
comunes como la proximidad a los lugares de trabajo, cuentan con un acceso por autopista, es
decir, los empleados de defensa viven de modo diferente a obreros industriales de grandes
plantas de producción. Se trata de barrios residenciales acomodados, con comunidades
recluidas y en zonas alrededor de las autopistas. Se trata de un “espacio reservado” donde las
actividades laborales de nivel clasificado implican un aislamiento con las zonas cercanas, es
necesario recluir a los trabajadores. Las redes de empresas auxiliares y subcontratistas están
en la misma área espacial, pero coexisten sin mezclarse más de lo necesario. Los secretos
conducen a una organización muy jerarquizada, donde los centros de investigación se
encuentran recogidos en áreas concretas para ser fáciles de aislar y proteger. Se acentúa la
49
necesidad del contacto cara a cara dentro de esta clase restringida técnica y ejecutiva. Se
tiende a crear un nuevo mundo de comunidades recluidas que se apartan social y
espacialmente de las organizaciones urbanas precedentes.
Esto unido a la crisis del estado del bienestar ha alterado profundamente la estructura
de las ciudades y regiones en diferentes países y, sobre todo, en Estados Unidos. Los gobiernos
han dejado de ser agentes redistributivos de riqueza para asumir una función de creación de
poder que le permita obtener una superioridad militar frente al resto. Para ello se apropia de
los recursos científicos y económicos. Los límites presupuestarios, las prioridades políticas y las
condiciones sociales determinan la conexión entre un crecimiento del sector de defensa
dirigido por la tecnología y el desmantelamiento del Estado del bienestar urbano. El bienestar
individual se obtiene mediante una reestructuración de la economía y una masiva
recualificación de los trabajadores para los nuevos puestos. La transformación de los estados
se encuentra interrelacionado con el proceso general de restructuración socioeconómica. Para
cambiar, es necesario modifica los principios de legitimidad política y las instituciones del
estado. Esto solo es posible transformando la estructura social, conectada profundamente a
las relaciones sociales de producción, se da prioridad a las funciones de defensa dirigida hacia
la tecnología para conseguir una reorganización económica y social que lo permita.
El resultado de estos cambios es la crisis del estado del bienestar, se daña aún más a
las regiones que ya estaban deprimidas y que no cuentan con estas industrias y se ayuda a la
alta tecnología que no lo necesita provocando un desarrollo regional desigual. Con las nuevas
políticas se contribuye al proceso de dualización del mercado de trabajo y del espacio
residencial de las grandes áreas metropolitanas. Los estados abandonan los espacios
deprimidos y concentra los recursos disponibles en los espacios que cuentan con las industrias
de la alta tecnología. Estas decisiones afectan a la organización espacial, se genera más
desigualdad, se refuerza dualismo dentro de las ciudades fomentando una zona de
urbanizaciones donde está la elite y unos espacios de exclusión donde vive el resto. Pese a las
redes de telecomunicaciones, las comunidades se encierran en sí mismas: coexisten pero no
tienen relaciones más allá de las actividades económicas.
Globalización económica y tecnología
Los problemas económicos y la crisis afecto a países como Estados Unidos, que no
puede depender en exclusiva del sector militar. Pese a las restricciones por seguridad llegaron
50
a los mercados tecnologías desarrolladas en los programas armamentísticos que se pudieron
aplicar otros sectores. Para superar la crisis de los años ‘80 y ‘90 se incrementó la velocidad de
las transacciones de capital mediante la informática y las redes de comunicaciones. Se
incorporó al capitalismo a otros países, nuevos mercados con capital disponible donde la
producción fuera más barata. Las diferentes economías nacionales pasaron a ser cada vez más
dependientes unas de otras y las empresas de un país invertían en otros para crecer. Este
proceso multidimensional de internacionalización e interdependencia fue posible gracias al
uso a gran escala de las tecnologías de la información. El resultado fue una economía mundial
funcionando a tiempo real, donde se puede descentralizar procesos, mover el capital en
cuestión de segundos y donde se puede acceder al comercio internacional sin un gran
esfuerzo. Solo es necesario un conocimiento del medio que se utiliza, es un requisito
indispensable para ser competitivo: cuanto más internacionalizado se está más importante son
las tecnologías de la información.
Durante la presidencia de Ronald Reagan, Estados Unidos aplico unas políticas
económicas que tenían como objetivo aumentar el gasto público para estimular el
crecimiento. Este aumento en el gasto aumento el déficit, las importaciones y favoreció la
entrada de capital extranjero debido a una divisa fuerte, pero también encareció las
exportaciones. Al centrarse en la innovación y en la alta tecnología sin rejuvenecer la
producción industrial, esta no podía competir con los costes de producción de los países recién
industrializados, que eran mucho menores. En lugar de mejorar estos costes manteniendo
calidad se decido producir y subcontratar en el extranjero en lugar de automatizar y mejorar
proceso de producción. Debido a la reducción en el presupuesto de educación, el sistema no
proporcionaba suficiente gente para cubrir los puestos en los procesos informacionales de
producción y administración. Se optó por una estrategia a corto plazo para maximizar
ganancias inmediatas en lugar de visión a largo plazo.
Las consecuencias de estas políticas fueron una extrema volatilidad de la producción y
que el consumo que podía cambiar en poco tiempo. Una pérdida del tejido industrial
tradicional en ciertas regiones a causa de la competencia, tanto en otros países como en otras
regiones del país. Una relocalización de los empleos industriales hacia estas regiones en el sur,
sudoeste y oeste debido a una menor conflictividad laboral. Un aumento de los empleos
industriales en las regiones industriales establecidas (Nueva Inglaterra y California) debido al
efecto llamada de las ya establecidas. Y una capacidad de generación de empleos de servicios
cerca de estas zonas para cubrir las necesidades de los trabajadores de estas industrias.
51
Para devolver la competitividad a las industrias tradicionales se aprobaron leyes de
internacionalización que animaban al capital a volver a producir dentro del país con medidas
proteccionistas que perjudicaban las importaciones. La reacción de los inversores extranjeros
fue comprar empresas americanas para competir desde dentro y beneficiarse así de estas
medidas. Estas inversiones acaban en zonas menos industrializadas, más baratas, algo que
reduce la disparidad entre regiones y suaviza proceso de desindustrialización en el viejo
cinturón industrial y contribuyen a la descentralización de la estructura productiva tradicional.
Es el precio a pagar por la relación entre la evolución de las regiones y movimientos de capital
controlados desde el extranjero y sujetos a una estrategia mundial que busca maximizar su
inversión.
Para hacer frente a los cambios, la industria se reestructuró centrándose en nuevos
productos y procesos como la vuelta al carácter pionero de antaño, la robotización de la
industria, el diseño y control de proceso por ordenador, los sistemas flexibles de producción
tipo “just in time” para fabricar solo lo necesario y un cambio en los productos, de
electromecánico a electrónico-plástico. Se incrementó del grado de internacionalización en la
distribución y la producción, automatizando e informatizando la industria para ahorrar fuerza
de trabajo. Se mejora la calidad del producto a la vez que se aumentaba la productividad. Para
entrar en un mercado solo es necesaria una espacialización adecuada, donde los centros de
producción estén conectados con los de dirección y control de las localizaciones primarias para
realizar cambios rápidamente y adaptarse a lo que demanda el mercado. Pero no todas las
regiones pudieron llevarlo a cabo, Detroit no lo consiguió, pero en otras zonas como California
sí que pudieron.
El volumen de transacciones y el alcance global de los mercados financieros no podría
haberse conseguido sin la introducción masiva de las tecnologías de la información en la
industria financiera. El sector financiero se centró en procesamiento de información de lo que
obtenía unos grandes beneficios. Pero la globalización y velocidad de las transacciones hacia
que todo fuera volátil, cualquier cambio en cualquier parte del mundo podía variar la
economía de uno o varios países y las políticas mundiales.
La ciudad global es la ciudad dual, donde las operaciones necesitan de un alto nivel de
coordinación por parte de una elite empresarial que controla los flujos del capital mundial en
un área muy pequeña mediante las redes de telecomunicaciones globales. Mientras, otras
zonas de alrededor de esa misma ciudad son devastadas por la decadencia social y la falta de
recursos económicos debido a la mala redistribución de la riqueza. Estas ciudades y regiones se
caracterizan por la inestabilidad de su estructura económica y su dinámica social, son una
52
consecuencia de la volatilidad de los movimientos de la economía internacional. Esto
profundiza las crisis y aumenta la importancia de los gobiernos locales y estatales que sean
capaces de atraer capital extranjero a sus regiones para amortiguar los efectos de los cambios.
Pero este carácter emprendedor acentúa la polarización, se fomenta la ciudad dual, ya que
cuanto más dependiente se vuelve la economía a escala global, menos poder de actuación
tienen los gobiernos locales y regionales para cambiar lo que pasa allí. Las estructuras
tradicionales de control social y político han sido revertidas por los flujos de información. El
reto al que se enfrentan los habitantes del mundo es como retomar el control de sus vidas,
para ello han de reequilibrar el espacio de los flujos, que ejercen los centros financieros y
empresas de las grandes ciudades, con el poder de los lugares, que tienen ellos mismos.
Conclusión
A lo largo de los capítulos anteriores se ha hablado continuamente del espacio de
flujos y de su capacidad para modificar la estructura de las ciudades. Las organizaciones
empresariales y los gobiernos poseen redes de intercambio de información asimétricas que no
depende de las características de una ubicación concreta para el cumplimento de sus
funciones, donde la mayor parte puede moverse a voluntad de un sitio a otro. Estos espacios
de flujos han sido capaces de aislar a fragmentos de la población debido a la posibilidad o
imposibilidad de acceder a esta red por la que circula la información. Los gobiernos han visto el
poder que les confería el control del conocimiento, de esa información. Gracias a un uso
concreto podían mantener y aumentar su influencia sobre los ciudadanos de su país y sobre
los gobiernos de otros países. Buscando la forma de tener todo bajo control se creó una nueva
economía internacional que generaba una geometría variable de producción y consumo, de
fuerza de trabajo y capital y de gestión e información, la economía informacional.
Para ejercer esta influencia, las nuevas tecnologías han sido el instrumento
fundamental, pero no el origen de la distribución organizativa por la que optaban los
gobiernos y las grandes empresas multinacionales. Han proporcionado un lugar por el que
53
intercambiar la información, dotándolo de una rapidez jamás vista que permitía mandar datos
en formato digital de un extremo a otro del mundo en cuestión de segundos. Descubrimientos
como los microprocesadores o Internet no tenían como objetivo aislar o controlar el
conocimiento, más bien era el opuesto al que los gobiernos y empresas les han terminado
dando. A consecuencia de esto, las democracias han perdido poder respecto al capital. El
capital puede circular globalmente, sin fronteras, enviar información ocultándola al resto,
realizar estrategias político-militares que los gobiernos desconocen e incluir mensajes
culturales globales para difundirlos en todo el mundo en distintos medios como prensa, radio,
televisión o Internet.
Pese a estos cambios que permiten comunicarse con cualquier parte del mundo y
tener a disposición más información que nunca, los ciudadanos siguen viviendo en un lugar
físico no en estas redes de intercambio de información. El problema está en que carecen del
control de estos flujos de información, son otros los que deciden qué es lo que pueden y no
pueden conocer. Para retomar el control sobre sus vidas no basta con dividirse en tribus o
grupos aislados, que no tienen conexión entre sí, manteniendo una actitud fundamentalista
con respecto a las demás, es necesario estar conectados. El poder, en manos de gobiernos y
grandes corporaciones, si que está conectado y es gracias a esto es por lo que no se disuelve.
Estas redes mantienen o aumentan su influencia y según pasa el tiempo resultará más difícil de
contrarrestar.
Para cambiar es necesaria una reconstrucción social completa, mediante proyectos
sociales y espaciales a varios niveles: cultural, económico y político. A nivel cultural es
necesario mantener una identidad y reconstruirse sobre las raíces históricas de cada conjunto
de habitantes de un lugar, pero sin llegar al tribalismo y fundamentalismo. A nivel económico
hay que encontrar el papel especifico de cada ciudadano dentro del grupo y tener una fuerza
de trabajo adecuada con cualificación necesaria y unos sindicatos capaces de negociar un
sistema de producción general beneficioso, tanto para el capital como para los trabajadores.
Sin una identidad cultural y el poder político que proporcionan los gobiernos locales bien
estructurados, los trabajadores son vulnerables ante el capital. A nivel político es necesario un
conjunto dirigentes locales capaces de presionar a las organizaciones económicas y políticas
globales. Estos gobiernos sí que conocen los puntos fuertes de su zona que desconocen los
gobiernos nacionales. Para que funcione los gobiernos locales han de reforzar participación
ciudadana y conectarse con otros similares para organizarse, se debe evitar el tribalismo.
Actuando sobre la fuerza de trabajo y el poder tienen que crear sus propias redes para
intercambiar esta información. Uno de los puntos básicos es conseguir la participación
54
ciudadana, las tecnologías de la información son fundamentales para este fin y para competir
con las redes a nivel nacional o mundial. Pero no basta solo con esto, son necesarias
movilizaciones ciudadanas, decisiones políticas y estrategias institucionales para restaurar
poder de lugares frente al del poder de flujos al que se ha llegado con la economía
informacional.
55
Parte II: Polémicas en la ubicación de antenas de telefonía móvil
Introducción
Desde la aparición de las primeras redes públicas de telefonía móvil en pruebas a
finales de los años ’70 en Estados Unidos, Japón y Europa, el uso del teléfono móvil ha crecido
muy rápidamente. Al principio el precio del terminal móvil, el equipamiento necesario por
parte de las operadoras y los costes por minuto eran muy elevados, lo que restringía el uso a
grandes corporaciones que buscaban que sus trabajadores pudieran estar comunicados fuera
de la oficina y localizable a cualquier hora.
Pero con la aparición de la telefonía GSM a principios de los años ’90 se optimizaron
los recursos, los equipos se abarataron y las operadoras redujeron sus costes. Todo esto
permitió una rebaja en las tarifas que aumentó el número de clientes a lo largo de esos años
casi de forma exponencial. Los terminales móviles disminuyeron de precio y se perfeccionaron,
redujeron su tamaño y aumentaron su autonomía y sus funciones. Los clientes ya no eran
solamente trabajadores de medianas y grandes empresas, cualquier persona podía tener uno,
el coste de las llamadas era asequible y, aunque era más caro que el de las llamadas por línea,
asumible para un uso diario. El teléfono móvil había pasado a ser imprescindible para cualquier
sector de la población, tanto en el ámbito del trabajo o como en el del ocio, cambiando la
forma de comunicarse y de relacionarse con los demás.
Durante estos años de expansión a todos los sectores de la población se puede ver el
paso de un uso profesional, donde el teléfono era una herramienta de trabajo para negocios, a
un uso personal, donde el trabajo se mezcla con el ocio. Además, a diferencia del teléfono fijo,
el teléfono móvil es algo personal, permite llamar a una persona y no a un lugar, localizarla en
cualquier momento, a cualquier hora del día y con un coste bajo para la flexibilidad que ofrece.
La tecnología GPRS (2,5G), UMTS (3G) y próximamente LTE (4G) han permitido añadir
nuevas funciones a los terminales móviles que antes solo eran posibles en los ordenadores.
Además de hablar, en los terminales inteligentes o Smartphones se puede acceder a Internet a
una velocidad similar a las conexiones fijas desde cualquier parte y en cualquier momento.
Estos avances en las redes y los terminales hacen que los usuarios acceder a sus correos y
datos como si estuvieran manejando un ordenador.
56
Para dar esa cobertura global a todos los usuarios, tanto de voz como de datos, ha sido
necesario instalar cada vez más antenas y más equipamiento en algunas áreas, algo que ha ido
generando cada vez más problemas y alarma social por las noticias aparecidas en los medios
de comunicación. Por las características de la telefonía móvil en zonas rurales, que tienen poca
densidad de población y pocos edificios, se consigue dar cobertura con menos antenas y estas
pueden alejarse los núcleos de población. El mayor problema se da en las ciudades donde el
número de clientes y de obstáculos es mayor, lo que hace aumentar el número de estaciones
base necesarias ya que tiene que haber una menor la distancia entre estaciones base para dar
servicio.
Aparece un conflicto: los clientes de telefonía móvil quieren el mejor servicio con la
mejor cobertura posible pero no quieren las antenas cerca de su casa o su trabajo. Pero todos
estos avances tecnológicos chocan con los conocimientos y la información que la población
tiene sobre cómo funcionan las redes de telefonía móvil, prácticamente nulo. Los medios de
comunicación son contradictorios, se habla indistintamente de las ventajas de tener teléfono
móvil, aparece publicidad de las operadoras y de sus inconvenientes, noticias sobre los efectos
en la salud. Estas noticias relacionadas con la salud suelen ser las que más repercusión tienen,
alertan de la relación entre las antenas de las estaciones base con la aparición de
enfermedades en lugares cercanos a estas. Las que más impacto social tienen son aquellas en
las que niños que supuestamente han enfermado y provocan un estado de alarma y rechazo
colectivo, pero no suelen aparecer ningún dato científico o técnico. Además, los estudios que
aparecen llegan a conclusiones enfrentadas, muchas veces contradictorias que no sirven para
informar y educar a la población. En los siguientes capítulos se abordara esta situación
poniendo en relieve los conflictos que han surgido entre las operadoras, los clientes, las
administraciones y distintas asociaciones que apoyan o critican las comunicaciones
inalámbricas.
57
Capítulo 4: Expansión y crecimiento de la red de telefonía móvil
58
59
Situación de la telefonía móvil en España
A lo largo del capítulo y a diferencia de los anteriores, se pondrán como referencia a
España para analizar el grado de implantación de las redes móviles, esto servirá para comparar
los resultados con los otros países tecnológicamente avanzados y poder tener una idea
aproximada de la situación de la telefonía móvil global. Es posible usar a España como ejemplo
debido a que está a la cabeza en cuanto número de clientes en relación a la población, cuenta
con la implantación tecnologías móviles de última generación, un grado aceptación y un uso
acorde a países avanzados y, además, existe el debate en torno a las antenas de telefonía
móvil y la salud.
Para comenzar a estudiar el grado de aceptación en España analizaremos la siguiente
gráfica (1). En ella se puede ver el número de líneas que había contratadas en cada año desde
finales de los años ’90 hasta junio de 2011.
Como se observa en el siguiente gráfico (1), desde mediados del año 2006, en España
hay más líneas de teléfonos móviles que habitantes, pero lejos de estancarse, han aumentado.
Con datos de Junio de 2011 observamos ese crecimiento, en España hay 47,15 millones de
personas censadas (2) y 55,266 millones de clientes de telefonía móvil (1), es decir, por cada
habitante hay 1,172 líneas. Por lo que en los 5 años el número de líneas ha aumentado cerca
de un 17% respecto a la población, lo que implica un crecimiento superior al 3,4% anual de
media.
60
Al observar el gráfico se puede pensar que toda población debe tener al menos una
línea y un gran número dos. Si además descontamos del total de la población a niños, ancianos
y gente que no tiene o no quiere uno, el número de estas personas con dos líneas aumenta
aún más. Pero vamos a realizar un análisis detenido de los datos y de las tendencias de
consumo actual respecto a la telefonía móvil para ver el porqué de este número de líneas y
que hay otros usos para las líneas.
El teléfono móvil sigue siendo una herramienta de trabajo, las empresas proporcionan
una línea a sus empleados para tenerlos localizados y que sigan trabajando aunque no estén
en la oficina, fuera de su horario de trabajo. Como compensación por este nuevo horario,
algunas empresas permiten un uso personal del teléfono por parte del trabajador, sirviendo
como compensación por incremento de horas de trabajo y como incentivo para que lo lleven
siempre consigo. Pero si este límite de uso personal del teléfono que permite la empresa es
bajo, se tienen llamadas restringidas o se reciben continuas llamadas de trabajo que
interfieren con la vida personal, los empleados optan dejar el teléfono de trabajo al acabar su
jornada. Según se ha ido popularizando la telefonía móvil, los precios han bajado tanto en las
tarifas como en los terminales. Los teléfonos móviles son subvencionados por las operadoras
para obtener nuevos clientes y la tarificación por minuto tiene precios cada vez más bajos,
cercanos a los de la telefonía fija. Por tanto para estos trabajadores que deciden tener su
propio número personal, que separa la vida laboral de la personal, tener una línea adicional no
supone mucho dinero y permite olvidarse del trabajo.
Otra tendencia que ha provocado el uso de la telefonía móvil es que ahora se llama a
personas y no a lugares. Hasta hace unos años la única forma de contactar con una persona
era llamándola al teléfono fijo de su casa o al de su puesto de trabajo y preguntar por esa
61
persona, pero no había seguridad de que esa persona estuviera allí. Con la popularización del
teléfono móvil cada línea es individual, pertenece solo a una persona y cuando llamas a
alguien llamas a esa persona, no al lugar donde puede estar. De nuevo los precios asequibles
de los teléfonos móviles y las tarifas han permitido pasar de una línea por hogar, que era
compartida por todos los habitantes de esa casa, a una línea por persona. Cada vez es más
normal que los hogares haya un teléfono por cada uno de los miembros de la familia: uno para
el padre, otro para la madre, uno para cada hijo y, si hay abuelos, otro más para ellos.
Con los hijos menores, la edad para el primer móvil cada vez es menor llegando a
haber niños con menos de 10 años y un teléfono móvil propio. Los hijos piden un móvil por
considerarlo un juguete que además tiene funciones para comunicarse con amigos y de ocio:
juegos, mensajería y redes sociales. Los padres lo aceptan por sus horarios trabajo, que
normalmente impiden pasar tiempo con los hijos, por el miedo a que les ocurra algo cuando
van solos y por las posibilidades para saber dónde están.
Desde hace unos años las líneas fijas de teléfono se han mantenido estables o incluso
han ido perdiendo clientes, sobre en líneas para empresas. Estas líneas son útiles si se está
siempre en el puesto de trabajo pero no todos los puestos de trabajo lo permiten. Además, es
necesaria una instalación inicial para llevar el cable de la central telefónica hasta el abonado si
es una residencia o empresa de nueva construcción y tienen unos costes fijos mensuales,
duplicados si ya se tiene un móvil, que hacen que sean más caras por la cuota mensual de
línea. El móvil ha pasado a ser más barato de instalar y mantener que el teléfono fijo,
empresas y personas prefieren no hacer la instalación y evitar esas cuotas mensuales fijas y
poder llevarse el número si salen de su hogar o puesto de trabajo.
Los anteriores motivos explican una parte incremento de las líneas de móvil, pero en
los más de 55 millones usuarios también se incluyen líneas móviles que son solo de datos. Los
avances en la telefonía móvil (2,5G, 3G y desde hace poco 4G) han permitido conectarse a
Internet a una velocidad similar a las conexiones fija, esto ha abierto un nuevo mercado a las
operadoras que son capaces de proporcionar Internet para conectarse en cualquier lugar.
Hasta ahora, la línea de datos para un hogar o una empresa solo podían ofrecerse por cable
coaxial, fibra óptica o par de cobre (ADSL) quedando fija en el hogar o trabajo. Esas nuevas
tecnologías que han ido implementándose en la red móvil han conseguido que la velocidad de
transmisión de datos de forma inalámbrica sea similar a las líneas de datos fijas, con la ventaja
frente a estas de poder usarse en cualquier lugar. Las operadoras proporcionan una línea de
teléfono móvil nueva e independiente de la línea de voz que el cliente tiene, al entregar una
nueva tarjeta SIM es un nuevo cliente. Si se tienen varias residencias o se trabaja en lugares
62
distintos, no es necesaria una conexión en cada uno de esos lugares y se puede abaratar el
coste al tener solo una conexión móvil. La pega de esta conexión es el volumen de datos, si es
muy alto el coste es mayor que en la red fija, pero las operadoras están abaratando ese precio
ofreciendo más datos a menor precio.
Por último, además de esos 55 millones de líneas hay otros 2,4 millones más de líneas
móviles que utilizan las máquinas, las líneas M2M (Machine To Machine). Estas líneas se
utilizan en dispositivos tales como: ascensores, máquinas de venta, alarmas de seguridad en
comercios y hogares, contadores de gas, agua y electricidad, paneles informativos de
carretera, etc. Dan ventajas a los usuarios, empresas y a las operadoras, ya no es necesario
hacer una instalación por cada uno de los puntos donde hay que poner la máquina, un buen
ejemplo son los paneles en las carreteras. En muchas de sus ubicaciones no hay una zona
residencia o comercial cerca desde donde llevar una línea fija y si se llevara el coste sería muy
alto en comparación a una línea móvil.
En España a comienzos de esta década había más de 57 millones de líneas móviles en
funcionamiento y, pese a la crisis económica, no se han reducido drásticamente más bien se
han normalizado. Muchas de ellas han sustituido a líneas de teléfono fijas tanto de voz como
de datos. Debido al bajo coste de las tarifas, se ha vuelto un bien de consumo personal y ha
permitido pasar de un teléfono por lugar a un teléfono por persona. Todas las clases sociales
pueden permitirse tener una línea, ya sea de prepago o de post-pago o contrato. El rango de
edad para tener una cada vez es mayor, hay terminales de ocio, para profesionales, adaptados
tanto para niños muy pequeños como para personas muy mayores, con poca destreza o para
entusiastas de la tecnología
Las operadoras de telefonía móvil en España
Las operadoras de telefonía móvil han influido en este proceso de crecimiento para
alcanzar los 55 millones de líneas, 57 millones si contamos las líneas M2M. La idea de que
persona tenga un teléfono móvil suyo y solo suyo abrió un nuevo mercado con más clientes
potenciales. Se pasó de hogares y empresas a personas, un mercado solo podía crecer si se
construían nuevos edificios, a personas que podían tener una o varias líneas. Esto significaba
más clientes, más ingresos y unos costes de despliegue mucho menores que los de la telefonía
fija. Con cada célula de telefonía móvil se cubría un área con mucha población sin tener que
63
hacer zanjas en cada calle y para luego llevar un cable hasta cada casa. Lo único que
necesitaban las operadoras era dar un terminal a los clientes si ya tenían cobertura.
En España desde 1976 hasta el cambio a la tecnología GSM en 1994, la compañía
Telefónica de España era la única que ofertaba en servicio móvil con tecnología analógica.
Primero bajo en nombre TMA-450 (en la frecuencia de 450MHz) y cuando debido a la
demanda se saturo, se pasó TMA-900 (en la frecuencia de 900MHz) ofertado a través la marca
MoviLine. Esta tecnología permitía hasta un millón de clientes, pero debido al aumento de
clientes pronto escasearon las líneas disponibles. De los 100.000 clientes que había en 1991, se
pasaron a 900.000 en 1996 lo que obligaba a buscar soluciones para aumentar tanto el
número de clientes como el espectro radioeléctrico dedicado a la telefonía móvil, que estaban
próximos a saturarse.
La solución para soportar ese crecimiento fue pasar de una red analógica a una red
digital GSM, puesta en marcha en 1994 por Telefónica de España bajo la marca Movistar. Un
año más tarde, en 1995, para favorecer el libre mercado y la competencia, salió a concurso la
segunda licencia que gano la empresa Airtel (actualmente Vodafone España). Y tres años más
tarde, en 1998, salió a concurso la tercera licencia que consigo Amena (actualmente Orange
España). Las operadoras ofrecían sus servicios en las frecuencias de 900 y 1.800 MHz.
Con tres empresas compitiendo, a finales de los años ’90 las campañas de captación de
nuevos clientes para telefonía móvil fueron muy agresivas. Las operadoras ofrecían un móvil
de prepago con un precio asequible que empezaba en unos 30€ y con saldo de prepago para
hablar ya incluido en ese precio. El cliente disponía de un saldo para llamar que era superior al
precio que había pagado por el terminal con la tarjeta. De esta manera el terminal parecía un
regalo, los nuevos clientes podían probar la tecnología, mostrarlo a la gente cercana para
animarles a adquirir uno crear una necesidad y captar así más clientes.
Las tarifas que se ofertaban con los teléfonos nuevos no eran tan baratas, al ser
prepago había que elegir entre hablar solo a unas determinadas horas (mañana o tarde) o con
los clientes del mismo operador, si no se respetaban estas condiciones o se hablaba mucho
tiempo el dinero que tenía la tarjeta se acababa pronto. Por la comodidad y la novedad de la
tecnología, en poco tiempo se recargaba con más dinero y las operadoras no tardaban en
recuperar el dinero del móvil subvencionado y obtener beneficios. Con el paso de los meses el
teléfono se volvía cada vez más imprescindible para el propietario por lo que se seguía
recargando con más dinero.
64
El siguiente paso fue fidelizar los nuevos clientes con los contratos de post-pago, a los
que tenían un mayor consumo se les ofrecían unas tarifas más económicas si se comprometían
a pagar un mínimo cada mes y a permanecer con la operadora un tiempo determinado. Las
tarifas compensaban si el uso del teléfono era frecuente, para los que tenían un uso ocasional
no era provechoso. Según se captaba y fidelizaba a los clientes se agotaban los segmentos de
población a los que poder vender una nueva línea móvil de forma sencilla, había que buscar
nuevos clientes con menor poder adquisitivo o que no estaban tan dispuestos a aceptar tan
fácilmente la nueva tecnología. Para los de menor poder adquisitivo ofrecieron nuevas tarifas,
más económicas, que consiguieron atraer a más clientes en aquellos hogares o empresas que
ya tenían uno y, además, introducir el primero en esos grupos que no habían podido
permitirse las tarifas más caras.
Las operadoras comenzaron a buscar nuevos clientes en niños, adolescentes y gente
mayor. A los niños les ofrecían un móvil atractivo, pensado para ellos, con el que poder jugar,
hablar con sus amigos y así animar a su entorno a tener uno. Los padres encontraron ventajas
en que los niños tuvieran un móvil para saber dónde estaban y que pudieran llamar si les
pasaba algo yendo solos. Para los más reticentes a las nuevas tecnologías y las personas
mayores, las operadoras les ofrecía la seguridad de poder estar siempre localizados y llamar
desde cualquier lugar, para ellos los terminales eran lo más sencillo posible, solo con las
funciones básicas y fáciles de manejar.
Las operadoras de telefonía móvil también buscaron nuevos clientes en los comercios
y empresas. Al principio, sobre todo con la telefonía analógica, los usuarios de las líneas
móviles y los móviles eran los directivos y cargos más importantes dentro de la empresa o que
estaban fuera la mayor parte del tiempo. Permitían seguir trabajando aunque se estuviera
fuera del despacho y del horario de trabajo. Con la tecnología GSM y la competencia en las
tarifas, se abarataron los costes y el móvil llego a puestos de trabajo menos importantes, lo
que permitió a las empresas beneficiarse consiguiendo ampliar el horario de trabajo y tener
siempre disponible a sus empleados y a las personas poder llamar y estar localizables en todo
momento.
Una vez todos los posibles clientes tenían su propia línea móvil, como ocurrió en 2006,
había que buscar cómo seguir ampliando cuota de mercado. Los esfuerzos de las operadoras
fueron en dos direcciones: atraer a clientes de la competencia, para ello redujeron los precios
y ofrecían renovar el terminal si se cambiaba de compañía, y en fidelizar a los clientes que ya
tenían para que no se fueran a otras compañías, para ello ofrecían nuevas tarifas y renovación
de terminales según su consumo mensual.
65
Con la puesta en marcha de las redes UMTS, las operadoras comenzaron a captar
nuevos clientes ofreciendo una tarifa de datos con la que conectarse a Internet desde
cualquier lugar, sin tener que depender de la instalación de una línea física (ADSL, fibra óptica
o cable coaxial) en ese lugar. Cada una de estas nuevas líneas de datos dedicadas había un
nuevo número al que dar una buena cobertura ya que sin ella no se podía conseguir una buena
velocidad de transmisión.
Los nuevos terminales móviles, Smartphones, y tabletas con módem 3G necesitan de
una conexión permanente a Internet. Para estos terminales las operadoras han incluido planes
de datos junto con línea de voz en la misma línea que aumentan los requisitos de las redes
móviles y permiten a las operadoras cobrar por un nuevo servicio. Para las tabletas, el plan de
datos va en una nueva línea móvil que se cobra aparte si ya se tiene una línea móvil. Las tarifas
de datos han supuesto una nueva fuente de ingresos, pero también una necesidad de mejorar
la red móvil y las conexiones entre la red fija y la red móvil para ofrecer buenas velocidades en
todo el territorio.
Actualmente existe una guerra de precios para captar clientes, debido a la situación de
crisis económica de los últimos años, las operadoras móviles tradicionales buscan unificar
todos sus servicios (fijo y móvil), los operadores virtuales (OMV) compiten por precio
captando clientes que no quieren deshacerse de su línea móvil pero que quieren pagar menos
por los servicios que con las otras operadoras. Las operadoras tradicionales, debido a la falta
de competencia real que han tenido hasta hace pocos años, han mantenido unas condiciones
en sus productos que resultan caras para cierto tipo de clientes, como los consumos mínimos o
los paquetes de productos que son poco flexibles. Las operadoras para poder ganar clientes o
no perderlos han comenzado a competir realmente desde hace poco tiempo: se ha reducido el
coste por minuto, el de establecimiento de llamada, se han eliminado los consumos mínimos o
se han creado tarifas planas. Esta competencia beneficia a los clientes, pero reduce los
márgenes de beneficio de las operadoras con redes propias, al vender su red cobran pero
menos que a los clientes finales. La portabilidad de líneas entre compañías era cada vez es
mayor, para frenarla las operadoras han estado ofreciendo terminales móviles con un precio
bajo, pero obligando a que el cliente se quedara durante un periodo de uno a dos años. Para
según que clientes era rentable, los de mayor consumo, pero para el resto no. Las operadoras
han decidido acabar con estas prácticas de facilitar terminales a coste cero, han decidido
subvencionándolos debido a los altos costes, realmente no eran un regalo ya que estaban
incluidos en unas tarifas con un precio más alto que compensaba el coste. Ahora aparecen en
las facturas, los venden a plazos o incitan a los clientes a que se busquen uno por su cuenta.
66
Esta práctica, al no ofrecer teléfonos y mantener precios, hará que las operadoras virtuales
sumen abonados cuando ya se tiene un teléfono debido al menor precio de sus tarifas.
La aceptación mundial de la tecnología móvil, la captación de nuevos clientes y el
incremento en las líneas móviles han supuesto muchos beneficios económicos para las
operadoras, pero también problemas. En poco tiempo se agotaron las líneas de telefonía
analógica, hubo que cambiar a la telefonía digital con tecnología GSM. Supuso una mejora en
las redes, pero tuvo costes. Con GSM y UMTS se ampliaron las bandas en las que las
operadoras podían trabajar, se podía dar servicio a más clientes y ofrecer nuevos servicios sin
tanta competencia. Ahora con las operadoras virtuales bajando los precios, los márgenes de
beneficio se reducen y pese a ofrecer más servicios el beneficio será menor. Las mejoras de las
redes y los nuevos equipos necesarios van a suponer un esfuerzo económico lo que llevará a
las operadoras a buscar otras formas de desplegar esas redes con menos dinero.
Problemas de cobertura
En España, para dar servicio a más de 55 millones de líneas, las operadoras deben
tener un rango de frecuencias disponible suficiente para que sus clientes puedan conectarse
sin problemas de indisponibilidad, es decir, que la red no se sature y puedan llamar siempre
que quieran sin ser informados de que la llamada no puede realizarse. Las frecuencias
utilizables están reguladas la ITU (Unión Internacional de Telecomunicaciones) y son cedidas
bajo concurso público por el Ministerio de Industria.
La ITU obliga a los países a respetar una serie de normas y liberar ciertas bandas de
frecuencia para que un mismo terminal funcione en distintos países y puede haber una
cobertura global. En nuestro país se debe dejar libre de cualquier otra transmisión
radioeléctrica las bandas de 900, 1800 y 2100 MHz. Tras el apagón analógico de la televisión y
la reordenación de las frecuencias de la televisión digital terrestre (TDT), se dispondrá también
de la banda de 800 MHz. Y en un futuro, estará disponible la banda de 2600 MHz para la
telefonía de cuarta generación (4G o LTE).
El Ministerio de Industria es el responsable de que esas bandas estén libres de
cualquier interferencia pudiendo sancionar a todo aquel que provoque interferencias. Dada la
escasez de frecuencias disponibles, tanto en España como en otros países, se sacan a subasta
pública en rangos de frecuencias para que las empresas con licencia para operar puedan
obtener la concesión temporal y dar servicio a sus clientes. Estas subastas han sido una
67
importante fuente de ingresos para los estados, se han pagado precios muy altos en las
subastas de las bandas para 3G.
En España desde 1976 la telefonía móvil analógica usaba el estándar TMA-450, en la
banda de 450MHz, según pasaban los años el número de clientes fue aumentando hasta que
en 1990 se empezó a saturarse el espectro radioeléctrico, hubo que cambiar al nuevo estándar
TMA-900 que usaba la banda de 900MHz. En esta nueva banda se podía dar servicio a un
millón de abonados, pero en 1996 ya había 900.000 abonados, cifra que estaba cerca del
límite. Fue necesario cambiar a la tecnología móvil digital, al estándar GSM.
En el año 1994 se otorgó la primera licencia a Telefónica de España para usar la banda
de 900 con tecnología digital GSM bajo la marca Movistar. El gobierno, para fomentar la
competencia, sacó a concurso público la segunda licencia que obtuvo Airtel (actual Vodafone
España). Tras preparar la infraestructura, ambas comenzaron a operar a finales de 1995. La
infraestructura de Airtel partía desde cero buscando nuevos lugares en los que colocar sus
estaciones repetidoras y competía contra una gran empresa ya establecida que tenía muchos
emplazamientos funcionado de la etapa analógica en los que solo había que cambiar los
equipos. Además del problema de encontrar nuevos emplazamientos, las frecuencias que
obtuvo en el concurso eran más altas de la banda que las de Movistar por lo que a igualdad de
emplazamientos el radio de cobertura era algo menor. Esto beneficio a Movistar
publicitándose como la compañía con mejor cobertura, en una misma zona tenía más
estaciones ya montadas y usaba frecuencias más bajas, se necesita menos potencia para
transmitir y recepción es mejor al sufrir la señal menos atenuación.
En 1998 el operador Amena, actual Orange España, obtuvo en concurso público la
tercera licencia para operar en GSM en el nuevo estándar DCS-1800, que usaba la frecuencia
de 1800 MHz. Los problemas de cobertura fueron mucho mayores que los de Airtel, la
frecuencia de trabajo era el doble que la de los otros dos operadores. El problema estaba en
que para ofrecer la misma cobertura con sus estaciones repetidoras tenían que estar mucho
más cerca, lo que implicaba poner más estaciones en una misma área. Para una compañía que
empezaba suponía unos costes de despliegues mayores tanto en equipos como en encontrar
ubicaciones. Con el fin de que todas compitieran en igualdad de condiciones y que la puesta en
marcha fuera menos costosa para Amena, en 1999 el Gobierno obligo a las dos compañías,
Movistar y Airtel, a firmar el pacto de “Acuerdo de Suministro Provisional de Infraestructura de
Red” para prestar sus redes de 900 MHz El acuerdo estuvo en vigor hasta finales del año 2000,
en este tiempo Amena pudo superar sus limitaciones técnicas, planificó el despliegue de su
propia red y ganó clientes con una política de precios más bajos que sus competidores.
68
En el año 2000 comenzaron a repartirse las concesiones para las licencias usar la
tecnología UMTS (3G) en la banda 2100 (2100 MHz). Los operadores existentes obtuvieron sus
frecuencias y se permitió la entrada a uno nuevo, Xfera (actualmente Yoigo). Se varió el orden
de asignación las licencias, a Movistar, que había tenido en las bandas 900 y 1800 las más
bajas, se le dieron las más altas de la banda otorgando así una ventaja a sus competidoras. El
despliegue de red fue más lento de lo esperado en España y en toda Europa, no estuvo
disponible hasta el año 2002 en las tres operadoras existentes y hasta el 2006 en la nueva
operadora. De nuevo, al aumentar la frecuencia de trabajo, fueron necesarias más estaciones
base y nuevos equipos para dar una cobertura óptima en todo el territorio. Para Yoigo (Xfera)
los costes de despliegue iban a ser aún mayores que los de Amena, para poder operar y tener
sus propios clientes decidió firmar un acuerdo con Movistar, aún en vigor, por el cual usaba la
red de este donde sus clientes no tuvieran cobertura y a la vez iba ubicando sus propias
estaciones repetidoras. Actualmente, UMTS no tiene la misma cobertura que GSM ya que se
ha dado prioridad a zonas densamente pobladas frente a las zonas rurales por cuestiones
económicas (más clientes potenciales son más ingresos). El patrón de despliegue ha ido desde
las ciudades más pobladas a las zonas menos pobladas y está siguiendo las vías principales de
comunicación: carreteras y líneas de ferrocarril. Se debe a que cerca de estas vías ya hay una
infraestructura disponible con un coste menor que partir desde cero, hay energía para
alimentar los equipos y acceso a redes de comunicaciones, que suelen estar próximas estas
vías de comunicación y son necesarios para conectar con la red propia de cada operadora.
Desde 2006 con entrada en vigor de la orden CTE/601/2002 propuesta por la Comisión
del Mercado de las Telecomunicaciones de España (CMT) no es necesario crear una
infraestructura propia para dar servicio. Se permitió la creación de operadoras móviles
virtuales que podían llegar a acuerdos con las operadoras Movistar, Vodafone, Orange y Yoigo
para dar servicio usando sus redes. El modelo de negocio de las OMV es comprar minutos de
voz, paquetes de datos y servicio técnico a las operadoras a un precio más barato que ofrecido
a los clientes finales, las OMV pueden ofrecer mejores precios que las grandes compañías al no
tener infraestructura que mantener, solo necesitan centros de atención a sus clientes.
En los próximos años, cuando la red LTE, 4G o de cuarta generación, comience a
funcionar está previsto usar dos nuevas bandas de frecuencia, la banda 800 y la 2600. La
banda 800, de 800 MHz., estará disponible cuando la ordenación de los canales de televisión
terrestre digital (TDT) libere esa parte al desplazarse los canales de televisión a frecuencias
inferiores. La banda 2600, de 2600 MHz., está libre de otras transmisiones, asignada a los
69
operadores y por primera vez según la región la asignación de algunas frecuencias no
pertenecerán a la misma compañía en todo el territorio.
Los operadores han tenido que incrementar el número de estaciones repetidoras de
telefonía móvil y realizar modificaciones en las redes de todo el territorio para poder dar
cobertura a todos sus clientes. Han tenido que usar nuevas tecnologías, pasar de analógico a
digital, de GSM a UMTS y de UMTS a LTE para poder dar de alta a más usuarios y ofrecer
nuevos servicios. En este proceso también han intervenido otras organizaciones como la ITU y
el Gobierno, se ha tenido que especificar globalmente las frecuencias utilizables para dar una
cobertura global y liberar las que estuvieran ya usadas para hacer frente al crecimiento.
Algunas decisiones tomadas por estos agentes externos han beneficiado y perjudicado, según
el momento, a una compañía frente a sus competidoras. Actualmente por la cantidad de
clientes, se han igualado el ancho de banda disponible para todas las compañías, hay un
reparto más justo de las mejores frecuencias.
Ubicación de antenas y repetidores
La telefonía móvil se caracteriza por tener una organización espacial celular, en la cual
se repiten ciertas formas geométricas cada cierta distancia: las células y los racimos. En cada
una de las células se utilizan una parte de las frecuencias disponibles que tiene una operadora,
son divididas de tal manera que el número usuarios simultáneos sea adecuado para la
densidad de población de este área. Los racimos son agrupaciones de varias células en las que
no se repite la misma frecuencia y están organizadas de tal manera que las interferencias entre
frecuencias cercanas sean mínimas. Para dar cobertura a un área se repite el mismo racimo,
con las células en la misma posición espacial, hasta cubrir completamente un área.
Para dar servicio a sus clientes, una operadora dispone de un rango de frecuencias
que la Administración le ha asignado, según las recomendaciones de ITU, y pagando una
cantidad de dinero por su uso, habitualmente varios millones de euros, durante un periodo de
tiempo. En este rango de frecuencias el ancho de banda disponible está limitado ya que el
espacio radioeléctrico es un recurso caro y escaso, es necesaria una buena planificación para
dar cobertura en el mayor porcentaje del área al mayor número de clientes posible, sin
problemas de saturación de red.
70
Las operadoras han de buscar lugares en los que instalar sus equipos, deben contar
con servicios básicos como electricidad, acceso a redes de datos para las operaciones de
gestión, envío y recepción de tráfico de voz y datos. Ese lugar ha de ser seguro para que los
equipos estén protegidos de actos vandálicos e inclemencias climáticas, así como contar con
una altura suficiente para colocar las antenas en un sitio libre de obstáculos y en el que tenga
una visión directa del área al que dar cobertura. Si no es un edificio propio, como las centrales
de la red fija o edificios de oficinas, las compañías adquieren o alquilan terrenos o edificios por
los que pagan periódicamente a los dueños del inmueble una cantidad de dinero en concepto
de alquiler. Estos pagos permiten sufragar otros gastos del inmueble y compensar por las
molestias que los equipos generan.
Los equipos necesarios para dar un servicio de telefonía móvil son las estaciones base
y las estaciones móviles. Las primeras tienen como parte más visible las antenas colocadas en
torres con suficiente altura, pero tienen otro equipamiento que no se ve. Estos equipos son los
encargados de dar cobertura en la zona, gestionar las llamadas entrantes y salientes y
comunicarse con los sistemas de conmutación de las operadoras para poder llamar a
terminales bajo cobertura de otras estaciones base o a terminales de la red fija. Las estaciones
móviles es el nombre que reciben los teléfonos móviles o cualquier otro dispositivo que sea
capaz de usar la red móvil.
En España, cuando comenzaron las redes de telefonía móvil con la tecnología analógica
en 450 MHz se pretendía cubrir la mayor área posible con el menor número de estaciones
repetidoras y, por tanto, la menor inversión posible debido al coste de cada estación
repetidora. En grandes ciudades, trabajando en 450MHz., eran necesarios solo unos pocos
repetidores para cubrir todo el área, en ciudades más pequeñas con uno o dos era suficiente y
en zonas rurales con una se daba cobertura a un área grande sin tener que llevar toda la
infraestructura de la red fija hasta pueblos o zonas remotas con una sola estación. La
frecuencia de trabajo y los pocos clientes permitían este tipo de células.
El aumento del número de clientes provocó cambios en la red, tanto en su estructura
como en la tecnología usada. El paso de 450MHz. a 900MHz. supuso duplicar o triplicar el
número de estaciones base para dar cobertura a un misma área. En las ciudades hubo que
buscar nuevas ubicaciones donde situar las antenas, los edificios públicos o de la operadora no
fueron suficientes y a instalar en terrenos o inmuebles pagando un alquiler. Se les ofrecía una
cantidad de dinero periódica a cambio de usar una zona como lugar donde colocar la estación
repetidora para la red móvil. Cuando se concedió la nueva licencia para Airtel, actual Vodafone
España, tuvo que buscar sus propios emplazamientos para sus estaciones repetidoras ya que
71
Movistar no compartió sus instalaciones. Este fue su elemento diferenciador durante mucho
tiempo, el de compañía con mejor cobertura del territorio frente a los precios más baratos.
Para Amena, actual Orange España, la puesta en marcha de su propia red fue más
compleja, sus frecuencias de GSM que recibió fueron en 1.800 MHz. Para esta frecuencia el
número de estaciones necesarias para cubrir la misma área es el triple o cuádruple que con
GSM en 900 MHz., para su despliegue inicial necesitaban buscar más lugares donde colocar sus
equipos y antenas que sus competidores. La Administración intervino obligando a los otros dos
operadores a ceder temporalmente sus equipos hasta que pudiera desplegar su propia red
para más tarde cederle algunas frecuencias en la banda de 900 MHz. que ayudaron a mejorar
su cobertura.
Con la llegada de UMTS se concedió una nueva licencia para Xfera (actual Yoigo) y se
liberó un nuevo grupo de frecuencias en 2.100 MHz para este operador y los otros. En esta
frecuencia, para dar cobertura a un área similar al que se cubre con GSM en 900 MHz., el
número de ubicaciones para estaciones repetidoras el quíntuple o séxtuple. Para evitar los
costes de despliegue que supone esa frecuencia, la operadora Yoigo llego a un acuerdo con
Movistar para que esta le cediera su red. Actualmente está funcionando de forma similar a una
Operadora Móvil Virtual pero la diferencia de que hay zonas en las que si tiene sus propios
repetidores. Estas áreas son zonas con gran densidad de clientes en las que es rentable hacer
un despliegue propio.
Por tanto, en España actualmente hay cuatro operadoras y cuatro redes distintas,
además de las OMV que revenden estas redes a sus clientes, cada una de las redes tiene que
usar sus propios equipos en el área al que hay que dar cobertura. Cuando comenzó la
instalación de las redes, cada operador debía encontrar un lugar donde ubicar la estación
repetidora, pagar por su uso y asumir los costes iniciales de los equipos, antenas e instalación.
En los comienzos de la telefonía móvil GSM hemos visto que Movistar, por cuestiones
de diferenciación frente a los competidores, no compartía sus instalaciones ya que partía con
la ventaja de haber sido una empresa pública. Tenía los lugares donde estaban las estaciones
de telefonía analógica que pudo reconvertir para GSM cambiando el equipamiento y por eso
contaba con una cobertura mejor que los competidores tanto en zonas urbanas como en zonas
rurales. Sus competidoras, las actuales Vodafone y Orange, tuvieron que partir de cero.
Solamente se compartieron redes entre operadoras cuando el Gobierno les obligo para
facilitar la entrada de la actual Orange.
72
Hasta la llegada de las redes UMTS, 3G, las operadoras actuaron como hemos visto,
cada una por su cuenta debido a unos costes de despliegue asumibles por el precio de las
llamadas y el crecimiento que habían experimentado. Pero con los ajustes de precios en las
tarifas, un crecimiento menor de clientes y el creciente número de antenas y equipos
necesarios para dar cobertura con esta nueva tecnología hacia que no todas las zonas en las
que había que hacer la inversión fueran rentables. En zonas de grandes ciudades la inversión si
mereció la pena por el número de clientes y el tráfico que generaban, permitía amortizar
rápido la inversión realizada. En otras zonas con menos población, en las que había que
incrementar el número de repetidores ya existentes, la inversión necesaria no se ajustaba con
el número de usuarios que iban a usar la red haciendo que la amortización de la inversión y los
beneficios tardaran más en alcanzarse, algo que a las operadoras más pequeñas y recién
llegadas les fue difícil de asumir. Por ello, a finales del año 2006 las operadoras Vodafone y
Orange llegaron a un acuerdo para compartir instalaciones, equipos y partes de la red móvil en
ciudades pequeñas con menos de 25.000 habitantes. Algo similar ocurrió un año después, en
2007, con la firma de un acuerdo entre Movistar y Yoigo en el cual unieron sus estructuras de
telefonía 3G. La finalidad de estos acuerdos es, por un lado, reducir costes para no duplicar
infraestructuras en áreas poco pobladas en las que con una sola red se puede dar servicio a los
clientes de ambas operadoras y, por otro lado, realizar un despliegue mucho más rápido y
eficaz de la red 3G por todo el territorio.
En todo el territorio hay cobertura GSM, para voz, y GPRS (2,5G), para datos, cercana
al 99% de los lugares, pero no existe una igual para UMTS (3G) por lo que acabamos de ver. En
el siguiente gráfico de la CMT (3) vemos las estaciones repetidoras de 3G y la falta de
cobertura en las zonas blancas, en su mayoría zonas rurales, en el año 2011:
73
Mapa de cobertura 3G en España
En los últimos años, debido a la última crisis económica, la disminución de ingresos a
causa la bajada de la demanda del servicio, la agresiva competencia entre operadoras, sobre
todo por las operadoras virtuales, y los costes de despliegue de las nuevas redes en
frecuencias, que multiplican el número de estaciones repetidoras necesarias, han provocado
que las operadoras estén llegando a acuerdos con el fin de reducir costes. Estos fenómenos de
colaboración, recordemos la dura competencia en los comienzos, además suceder en España
se está dando en toda Europa. Un claro indicador de este cambio en la mentalidad de las
operadoras se dio en España, en el año 2009, con un acuerdo firmado entre Movistar y
Vodafone. Las compañías se comprometían a compartir los lugares donde tenían sus equipos y
antenas, pero no sus redes, de esta manera los gastos se repartían entre ambas ahorrando en
alquileres, electricidad, mantenimiento, etc.
Pero además de las cuestiones económicas, en las zonas urbanas que tenían antenas
de telefonía móvil cerca surgió otro problema para las operadoras complicando el despliegue.
Comenzaron a aparecer noticias de personas que enfermaban o decían sentirse malestar
desde que tenían cerca una estación repetidora móvil. A raíz de estos casos la comunidad
científica realizó estudios, unos mostraban una relación directa entre la proximidad de las
antenas y los efectos en la salud y otros que no encontraban relación alguna. Este asunto lo
trataremos en el siguiente capítulo con mayor profundidad, pero a pesar de no haber nada
74
claro la población comenzó a rechazar que las antenas estuvieran cerca de su hogar, su
trabajo, el colegio de sus hijos o cualquier otra zona en la que pasaran tiempo. Debido a la
alarma social y a los estudios, los gobiernos nacionales, regionales y locales comenzaron a
legislar en la colocación de las antenas y los permisos, se endurecieron los requisitos para que
un sitio pudiera ubicar una antena y se doto a los propietarios de inmuebles de recursos para
rechazar las instalaciones si no había una mayoría suficiente.
Todo esto genero problemas a las operadoras, en los lugares en los que ya tenían sus
antenas y que estaban cerca de viviendas o lugares sensibles (como centros de educación o de
sanidad). Los vecinos comenzaron a revisar las instalaciones para ver si cumplían con las
nuevas normativas, provocando un encarecimiento en los alquileres y, en aquellos que no
cumplían, se necesitaron nuevas inversiones para adecuarlos o directamente para retirar todo
ya las nuevas leyes surgidas por la alarma lo permitían. Por otro lado, por las noticias
aparecidas en los medios de comunicación, encontrar las nuevas ubicaciones necesarias para
situar las antenas de las nuevas redes, era mucho más complicado y más caro, bastaba que un
grupo de vecinos se opusieran a la instalación para que no se pudiera colocar en ese edificio.
Todo esto dificulto el despliegue a las operadoras, si había que mover las antenas a otro
edificio distinto, que no era el escogido en un principio, la ubicación no sería la óptima para
dar la cobertura deseada y había que cambiar los cálculos para tener una cobertura similar a la
inicial. Se podía dar el caso de que por la negativa de un edificio se necesitara de más
estaciones en una zona o tener que aumentar la potencia de transmisión de las cercanas para
completar la cobertura, algo que no es beneficioso. Por estos motivos las operadoras que no
habían colaborado y apenas tenían relaciones de ningún tipo firmaron esos acuerdos con el fin
de evitar tener que buscar nuevos edificios donde instalar equipos y ahorrar dinero y
problemas.
En las ciudades, donde está la mayor parte de sus clientes, las operadoras se
encontraban con el problema de no poder desplegar adecuadamente las redes por los
problemas que acabamos de ver y en las zonas rurales, donde no hay apenas clientes para que
el despliegue sea rentable, tenían los sitios donde colocar las antenas pero no los clientes que
necesitaban cubrir la inversión.
75
Capítulo 5: Polémicas con las emisiones electromagnéticas. Antenas de
telefonía móvil.
76
77
Evolución de las redes de móviles
A lo largo del capítulo anterior hemos visto a grandes rasgos cómo funcionan las redes
de telefonía móvil y los cambios que han sido necesarios a lo largo de los años para dar
servicio a un número de abonados cada vez mayor. Las frecuencias han pasado de los 450
MHz. en telefonía móvil analógica, a los 900 MHz. y 1.800 MHz. de GSM, a los 2.100 MHz. de
UMTS (3G) y 800 MHz. y 2.500 MHz de LTE (4G). Con estas nuevas frecuencias las operadoras
han necesitado más emplazamientos para situar antenas en lugares a menor distancia, por lo
que el número de estaciones base se duplicaba o triplicaba según se aumentaba la frecuencia
en cada una de las evoluciones de la tecnología móvil.
En las ciudades no ha sido suficiente colocar estaciones base a las afueras o en
edificios propios para tener una buena cobertura en toda el área, lugares en donde hay menos
dificultades para poner las antenas. Las operadoras han necesitado llegar a acuerdos con
administraciones públicas, empresas privadas y comunidades de vecinos para poder instalar
allí sus equipos y dar una cobertura óptima.
Desde la entrada en funcionamiento de GSM la competencia entre las operadoras ha
ido creciendo y los ingresos se han recortado, provocando una reducción las ganancias en las
operadoras. Se ha compensado en parte con la oferta de nuevos servicios, como las tarifas de
datos. Esta competencia entre las operadoras ha beneficiado a los usuarios que han obtenido
unas tarifas más baratas que las que había hace unos años, pero el dinero disponible para la
ampliación de las redes propias ha disminuido. Las operadoras, que montaban sus redes por
separado, ahora llegan a acuerdos de colaboración para compartir ubicaciones y partes de sus
redes con el fin de ahorrar costes y evitar duplicar redes en las zonas con menos densidad de
clientes y menos ingresos.
Además de las dificultades económicas que han tenido las operadoras para realizar las
ampliaciones de sus redes, en los medios de comunicación han ido apareciendo noticias que
relacionaban la proximidad de las antenas con la aparición de dolencias y enfermedades
graves en personas. Según aparecían estos casos, se comenzaron a realizar estudios para
demostrar si las dolencias de estas personas tenían que ver con las antenas. Los estudios
buscaban una relación directa entre la exposición a los campos electromagnéticos emitidos
por los terminales y antenas de las estaciones de telefonía móvil con estar cerca de esas
antenas durante largos periodos de tiempo. A lo largo de este capítulo analizaremos algunos
78
de esos estudios, muchas veces contradictorios y que llegan a conclusiones totalmente
opuestas.
Al publicarse estos estudios, las operadoras y los fabricantes de equipamiento, tanto
estaciones como terminales, han visto como las normativas para la instalación de estaciones
base y para la homologación de equipos se endurecía, ya no valía cualquier edificio y cualquier
configuración de los equipos y antenas. La ubicación de las estaciones base y la emisión de
campos electromagnéticos pasaron a estar regulados por una normativa en ayuntamientos,
gobiernos regionales, estatales, europeos e incluso por organizaciones mundiales, que se
vieron presionadas a legislar por la alarma social generada por los casos aparecidos en los
medios. Estas normas fijaban unos valores máximos en las potencias de transmisión y
distancias que se consideraban como seguros para la salud de los que vivían cerca.
Todas estas noticias y estudios hacían que la población fuera mostrándose contraria a
tener cerca una estación base de telefonía y dificultaron, aún más, la colocación de nuevas
estaciones base que hacían falta. Las operadoras se encuentran con el problema buscan
nuevos emplazamientos para dar la mejor cobertura posible con una publicidad muy mala y los
clientes buscan ser clientes de aquellas operadoras que tengan la mejor red pero no quieren
estaciones base cerca de donde viven, trabajan o estudian debido a las noticias que reciben de
los medios de comunicación y al desconocimiento casi total de cómo funciona la telefonía
móvil. Surge una contradicción: se quiere la mejor cobertura en una zona pero con las antenas
lo más lejos posible de donde se viva. Y esto, debido a las características de las redes móviles,
es difícil de conseguir.
Contaminación electromagnética: natural y artificial
La primera pregunta que debe surgir tras hablar de las comunicaciones móviles y los
problemas de salud que se les atribuyen es: ¿qué es un campo electromagnético? Un campo
electromagnético es una combinación ondas eléctricas y ondas magnéticas que se desplazan
simultáneamente a una velocidad próxima a la de la luz transportando energía. Lo que se
desplaza en esas ondas son los fotones, que son las partículas fundamentales del
electromagnetismo. Se caracterizan por una frecuencia de oscilación, medida en Hercios (s-1), y
por una longitud de onda, medida en metros. La longitud de onda es la distancia recorrida por
una onda para realizar una oscilación completa, es decir, volver a un mismo punto pasando por
su máximo y su mínimo. La energía transportada depende de la frecuencia de oscilación, a
79
mayor frecuencia mayor es la energía transportada. Según sea esta energía las ondas serán
más o menos peligrosas.
Desde que surgió el primer ser vivo en la Tierra hace millones de años todos y cada
uno han estado expuestos a radiaciones y campos electromagnéticos, procedentes sobre todo
del Sol y en menor medida del mismo planeta. Esta exposición ha sido básica para la existencia
de vida en el planeta, los seres que han vivido y viven en la Tierra han aprovechado la luz y el
calor, que no son más que campos electromagnéticos, para obtener energía para crecer y
reproducirse. Pero no todo lo que llega desde el espacio a la Tierra puede atravesar la
atmosfera, hay ciertos tipos de radiación electromagnética, que veremos más adelante, que
son peligrosos y perjudiciales para los seres vivos. Estos campos no pueden atravesar la
atmosfera existe una protección y es una de las diferencias para que exista vida en la Tierra y
no en otros planetas del sistema solar. A pesar de que gran parte de las radiaciones
electromagnéticas nocivas son filtradas por la atmosfera, una pequeña parte de estas la
atraviesan, las de menor frecuencia. Para minimizar los efectos nocivos de los campos
electromagnéticos con más energía que atraviesan la atmosfera, los procesos evolutivos han
dotado a los seres vivos de mecanismos de defensa que protegen y limitar estos daños con
protecciones naturales que, sobre todo, evitan que las células sufran mutaciones genéticas. En
ocasiones, esta adaptación ha marcado las diferencias entre la supervivencia de una especie
frente a otra.
80
En este gráfico (4) se puede ver el espectro electromagnético a la que la Tierra está
expuesta de forma natural. La atmosfera de la Tierra protege de ciertas radiaciones filtrándolas
completa o parcialmente, ya que la exposición prolongada a ciertos campos es perjudicial o
mortal para los seres vivos. Los rayos ultravioletas (a partir de la banda de ultravioleta medio),
rayos X o rayos Gamma se caracterizan por ondas de una frecuencia muy alta, del orden de
millones o billones de GHz., y por tener una gran energía cinética almacenada en las ondas
respecto a las de menor frecuencia. La exposición a este tipo de radiaciones provoca un
aumento de la temperatura de los tejidos y mutaciones en las cadenas de ADN de las células
debido a la energía que transportan, los efectos son mayores según aumenta el tiempo de
exposición y su frecuencia. Poniendo como ejemplo la radiación ultravioleta, el tiempo de
exposición máximo antes de afectar a los seres humanos es del orden de minutos u horas. Esta
es la radiación más próxima a luz visible en la que solo una parte, la de menor frecuencia y
energía, consigue atravesar la atmosfera y según se acerca a nivel del mar pierde parte de esa
energía, siendo las zonas de alta montaña las que más energía reciben al recorrer una menor
distancia, y las que menos energía llega las zonas a nivel del mar. A los seres vivos solo les llega
una pequeña parte de esta radiación, pero una exposición prolongada en el tiempo tiene
efectos en la salud, un ejemplo que se ve habitualmente es tomar el sol en la playa en verano a
las horas centrales del día durante un largo periodo, donde el índice de radiación ultravioleta
es más alto. Según aumenta el periodo de exposición la luz solar provoca: enrojecimiento,
sequedad, manchas, arrugas, cáncer de piel y, por último, mutaciones en las cadenas de ADN,
responsables de enfermedades como el cáncer de piel. La evolución ha dotado a los seres vivos
de defensas que protegen y permiten una exposición durante más tiempo con son la
pigmentación de la piel o el pelo. Si la exposición fuera a radiaciones de mayor frecuencia,
como rayos X o gamma, en menos tiempo sería aún más peligrosa o directamente mortal para
los seres vivos.
Las radiaciones naturales del tipo radio, microondas, infrarroja o luz visible tiene una
frecuencia y energía menor que las anteriores. Proceden en su mayoría del Sol y llegan en lo
que se conoce comúnmente como luz y calor, son algo básico para la Tierra y las especies que
viven en ella. Es indispensable que penetren en la atmosfera ya son necesarias para la vida. A
través de la evolución, los seres vivos han minimizado los daños que podían causar la
exposición a ese rango de frecuencias, han transformado la energía que llevan estas ondas
para su propia supervivencia y los riesgos por exposición prolongada son mucho menores que
las radiaciones anteriormente expuestas.
81
Tomando como referencia la frecuencia, se pueden separar las radiaciones naturales
en tres grupos: las ionizantes y las no ionizantes, entre las que se encuentra la luz. En la
siguiente ilustración (5) se ven las características de cada uno de estos tres grupos:
- Por encima de 1015 Hercios se encuentran la radiación electromagnética
indirectamente ionizante en la que se agrupan una parte de la radiación
ultravioleta y todos los rayos X y gamma. La exposición a este tipo de radiaciones
tienen efecto nocivo en la salud en los seres vivos provocando alteraciones
moleculares que afectan a las células y al material genético que estas contienen.
Esto es debido a que la energía de los fotones de la radiación es capaz de separar
los electrones de los átomos de las células ionizándolas y a provocar un aumento
de la temperatura que daña los tejidos. La energía cinética media de la onda es
alta, provocando además de la separación de las moléculas, un movimiento de los
átomos que se traduce en calor.
- Entre 1014 y 1015 Hercios está la radiación que se conoce como luz visible,
correspondiente a los colores del arcoíris, y una parte de la gama de frecuencias de
ultravioleta. Este tipo de radiación es básica para el soporte de la vida en la Tierra,
contiene energía pero es inferior que la del grupo anterior y no es capaz de ionizar
los átomos o moléculas de los tejidos. Solo tiene efectos térmicos debidos a la
energía que llevan los fotones, son perjudiciales cuando el tiempo de exposición es
prolongado.
- Desde 0 a 1014 Hercios se encuentran los campos electromagnéticos no ionizantes
en donde se agrupan radiofrecuencia, microondas e infrarrojo. Este tipo de
campos solamente tienen efectos térmicos en los seres vivos, no tiene energía
suficiente para ionizar las moléculas. Los campos de mayor frecuencia son los que
mayor energía cinética contienen y son los que provoca un mayor aumento de
temperatura en los tejidos cuando están bajo su influencia. Los efectos
perjudiciales para la salud de este rango de frecuencias en seres vivos no están
nada claros, se sabe que la exposición puede afectar a la salud si se sobrepasan
unas ciertas dosis, pero que son compensables hasta cierto grado. Además, los
estudios realizados por el momento no han encontrado una relación única entre
enfermedades y exposición, por eso no descarta que generen o no enfermedades.
82
De estos grupos, el estudio se centrará en la parte del espectro electromagnético
perteneciente a las radiaciones del grupo no ionizante: radiofrecuencia y microondas. Desde la
formación de la Tierra hasta finales del s. XIX, las únicas radiaciones en estas frecuencias eran
naturales que procedían mayoritariamente del Sol o el espacio, es decir, sin la intervención del
hombre, pero todo cambio con la radiocomunicación. Cuando Maxwell, en 1893, sentó las
bases teóricas de la propagación de ondas electromagnéticas comenzaron las investigaciones
de otros científicos para que años después, a principios del s. XX, surgieran los primeros
equipos que permitían la transmisión de información sin hilos entre dos puntos alejados a una
cierta distancia. Los equipos de telecomunicación generaban ondas artificiales con unas
frecuencias que las ubican en el espectro electromagnético en estas zonas, son moduladas con
unas características específicas que permitían que la señal llegara al receptor y pudiera ser
reinterpretada sin que se produjeran perdidas de información respecto a lo que se envió.
Con el paso de los años el espectro electromagnético de las zonas de radiofrecuencia,
entre 0 Hz. y 1 GHz., y microondas, entre 1 GHz. y 300 GHz., se ha ido ocupando con
83
comunicaciones militares y civiles de transmisión voz, datos e imagen. Las frecuencias
disponibles, como se ha visto en el capítulo anterior, son un recurso limitado por lo que su
concesión está regulada por las autoridades de cada país que siguen unas recomendaciones y
normas a escala mundial para repartirlo. Por tanto, en el espectro electromagnético se prestan
múltiples servicios diferenciados por la frecuencia y la potencia con la que se emite. La
elección de la frecuencia o la banda de frecuencias depende del propósito de la comunicación,
a menor frecuencia mayor distancia cubierta con un solo emisor. Además, como se vio en el
primer gráfico de este apartado en el que ciertas frecuencias podían atravesar o no la
atmosfera, las propiedades físicas de esta imponen el uso de ciertos rangos de frecuencias con
el fin de conseguir un mayor alcance o bien traspasarla para poder salir al espacio exterior. El
uso de ciertas frecuencias son un requisito obligado según el tipo de comunicación a llevar a
cabo: en las transmisiones por satélite es necesario usar aquellas frecuencias que pueden
atravesar la atmosfera y en las transmisiones entre dos continentes es necesario usar aquellas
que no lo atraviesan para usar a la atmosfera como si fuera un cable en el que rebota para así
aumentar el radio de cobertura.
Por tanto, además de las radiaciones electromagnéticas naturales procedentes del
espacio o del propio planeta, el ser humano está expuesto a otras radiaciones generadas
artificialmente, con unos parámetros y características de frecuencia y energía que permiten
realizar una comunicación o una transmisión del cualquier tipo de información. Durante el
último siglo en las zonas urbanas de los países más desarrollados tecnológicamente estas
radiaciones artificiales son más abundantes y de mayor potencia que en las zonas rurales o en
otras más despobladas, debido a una mayor densidad de estaciones de radio, de televisión, de
radar o de telefonía móvil.
Campos electromagnéticos no ionizantes: efectos en la salud
Junto a las ondas artificiales generadas por las radiocomunicaciones, con una
frecuencia alta (por encima de 100 kHz.), existen otras emisiones generadas por el ser humano
en baja frecuencia que también están bajo sospecha por sus efectos perjudiciales sobre la
salud. Son las denominadas frecuencias extremadamente bajas (ELF) que provienen de las
líneas de alta tensión que llevan la electricidad a las casas con frecuencias de 50 o 60 Hz.,
dependiendo de país. La frecuencia de las ondas es baja pero el voltaje es alto, del orden de
varios miles de voltios lo que provoca que los campos eléctrico y magnético sean elevados en
84
las proximidades de los cables conductores, estaciones generadoras y transformadoras. Los
estudios realizados por la Organización Mundial de la Salud (OMS) (6) han llegado a la
conclusión de que la exposición a estos campos son un “posible carcinógeno humano”. A pesar
de la aparente gravedad del término, en esta clasificación se incluye el café, los gases de
escape de los motores de gasolina o los humos generados de la soldadura, indica que el riesgo
de cáncer está escasamente probado en las personas e insuficientemente probado en
experimentos con animales, pero se valora la solidez de las pruebas científicas no el riesgo de
cáncer, es decir, los datos que se conocen no permiten descartar completamente que la
exposición a los campos ELM produzcan cáncer, siendo necesarias más investigaciones.
En lo que sí parece haber una relación es en los casos de leucemia infantil en las zonas
de viviendas o colegios que están situadas cerca de líneas de alta tensión, estas áreas tienen
un mayor número de casos que otras zonas alejadas. En un estudio realizado en el año 1996
por la Academia Nacional de Ciencias de los Estados Unidos se llegó a la conclusión de que los
niños que viven cerca de las líneas de alta tensión tienen un alto riesgo de padecer ese tipo de
cáncer, pero solo este ya que no se encontró relación con ningún otro tipo. Por el contrario, en
adultos no se encontró una relación entre que sus domicilios estuvieran cerca de las líneas con
que tuvieran un mayor riesgo de sufrir cualquier tipo de cáncer. Otros estudios realizados en
adultos no han obtenido resultados concluyentes, por ejemplo, a los trabajadores de las
empresas eléctricas se les estudio tratando de encontrar una relación entre su trabajo,
cercano a equipos y líneas de alta tensión, y el aumento de casos de cáncer que sufrían. El
resultado encontró una relación con los casos de cáncer, pero al omitirse otros factores como
la exposición a sustancias químicas que se usaban en el entorno de trabajo, no fue
concluyente, ya que esas sustancias químicas podían ser la causa.
Si se analizan las señales artificiales generadas por el ser humano con frecuencias de
300 Hz. a 300 GHz. se puede ver que según su frecuencia tendrán distintos efectos en los
tejidos. Entre estas señales se encuentran las emisiones de dispositivos alimentados con
electricidad (electrodomésticos, maquinaria profesional), emisoras de radios comerciales y
militares, sistemas de comunicación públicos, privados y militares, emisoras de televisión o
sistemas de radar, se pueden separar en tres grupos:
- Las frecuencias menores a 1 MHz. no tiene efectos caloríficos, solo inducen
corrientes y campos eléctricos sobre los tejidos. Si la densidad de corriente, que se
mide en Amperios por metro cuadrado (A/m2), supera los 10 m A/m2 puede
afectar a procesos vitales si esa corriente atraviesa zonas como el corazón o la
parte del cerebro que controla las funciones vitales. Si la corriente inducida supera
85
en zonas como la piel los 100 mA/m2 puede afectar al organismo provocando
contracciones musculares involuntarias. Los riesgos para la salud son similares al
manejo de equipamiento eléctrico, si los equipos están bien diseñados y aislados,
es decir, cumpliendo la normativa vigente, las emisiones estarán dentro del
margen de seguridad siendo improbable que afecte a los seres vivos.
- Las frecuencias de entre 1 MHz. y 10 GHz. si tienen efectos caloríficos en los tejidos
vivos, las ondas son capaces de penetrar y trasmitir su energía aumentando la
temperatura de estos. A menor frecuencia la profundidad de penetración en
tejidos es mayor, es decir, las frecuencias más bajas llegan a penetrar varios
centímetros, alcanzando órganos internos, y las mayores solo unos milímetros
quedándose en las capas superficiales de la piel. Al exponer tejido a ondas con
estas frecuencias el peligro está en la potencia que llega, los efectos perjudiciales
se dan cuando el coeficiente de absorción específico es mayor de 4 W/kg
(Vatios/kilogramo) y cuando la temperatura aumenta más de 11º C durante un
largo periodo de tiempo (7). Si este aumento de temperatura se prolonga durante
horas puede: afectar al desarrollo de un embarazo produciendo anomalías
congénitas en el feto, producir infertilidad masculina y afectar a los ojos causando
cataratas. Pero estos niveles de energía se dan en las cercanías de las antenas de
radio o televisión, zonas con acceso restringido, situadas a muchos metros de
altura y alejadas de las viviendas, oficinas o cualquier otro tipo de zonas habitadas.
Como se ha visto, las frecuencias usadas por las antenas de telefonía estarían en
este grupo pero emiten con una menor potencia, solo se alcanzarían esos
coeficientes de absorción en las zonas cercanas a las antenas, donde solo acceden
los operarios de mantenimiento.
- Frecuencias mayores de 10 GHz. son absorbidas por la superficie de la piel, pero
solo una pequeña parte llega a los tejidos interiores. En este caso los efectos
perjudiciales se dan cuando el coeficiente de absorción específico de 1.000 W/m2,
provocando quemaduras en la piel o cataratas oculares. Estas densidades de
potencia solo se dan cerca de radares potentes, como pueden ser en los
aeropuertos, en lugares donde el acceso está prohibido para personas y no hay
ningún tipo de edificio civil en las inmediaciones.
86
De los tres grupos de frecuencia mencionados, se estudiaran con detalle el grupo de 1
MHz. a 10 GHz., en ese rango se encuentran los sistemas telefonía móvil y otras transmisiones
inalámbricas. Si se estudia un área urbana de España, como Madrid o Barcelona y su periferia,
se puede encontrar: emisoras de radio AM y FM, estaciones emisoras y repetidores de
televisión, emisoras de radio de radioaficionados, de empresas, de organismos públicos y
militares, estaciones base de telefonía móvil, equipos de transmisión de datos sin cable, etc.
Para dar cobertura a la zona donde se quiere que funcione se generan unos campos
electromagnéticos por la ciudad para llevar esas transmisiones, con mayor energía según se
está más cerca de los transmisores y repetidores y menor según aumenta la distancia a estos.
Muchos están planificados para llegar hasta todos los rincones de las ciudades, incluyendo en
el interior de los edificios. El mayor problema de salud con estas emisiones se da cerca de la
estación base o repetidora, es decir, los sitios con mayor densidad de potencia.
Si se profundiza en las características de las emisoras de radio comercial que
constituyen el dial de una gran ciudad y sus alrededores toda la banda de frecuencias está
ocupada, es decir, apenas hay huecos para nuevas emisoras y la separación entre ellas mínima
para aprovechar al máximo el dial. Cada emisora cuenta con sus propias estaciones y
repetidores o bien usa las torres de comunicación común que retransmiten su señal en un
canal asignado, en AM entre 526,5 KHz. y 1.606,5 kHz. y en FM entre 87,5 MHz. a 108 MHz. Las
estaciones de radio importantes con cobertura regional emiten con una potencia que depende
de la cobertura y la calidad que quiera tener; como ejemplo, una radio con una cobertura de
hasta unos 30-40 km y en la que se desea que la señal recibida sea de calidad alta, la potencia
del transmisor debe ser de entre 300 y 1000 W. No hay que confundir esta potencia a la salida
del transmisor con la potencia de salida en la antena (PIRE o potencia isotrópica radiada
equivalente) que dependerá de la antena usada y será varias veces mayor. Las frecuencias, a
pesar de ser más bajas que en la telefonía móvil, tiene una potencia radiada alta por lo que
deberán situarse en lugares altos y alejados de viviendas para que la densidad de potencia sea
baja cuando llegue a lugares habitados.
Otro ejemplo, las torres de comunicación desde donde se emiten los canales de TV
comercial de esas ciudades y parte de su periferia, como pueden ser Torrespaña (conocido
como el Pirulí) en Madrid o Torre de Collserola en Barcelona. Desde estas torres se transmiten,
entre otras, los canales de televisión que se reciben en los hogares a frecuencias de entre 470
MHz. y 862 MHz. con una potencia de salida a la antena (PIRE) de unos 500 kW. En este caso,
tanto la frecuencia como la potencia son mayores que en las radios FM por lo que en las zonas
87
cercanas a estas torres los campos electromagnéticos serán altos, más que en la radio
comercial que se ha visto antes y deberán estar aún más alejadas.
En el caso de la telefonía móvil hay una diferencia: la comunicación es bidireccional, es
decir, la señal va de la estación base al terminal y del terminal a la estación base. La potencia
de salida las estaciones base es de entre 10 y 50 W dependiendo de las características de la
célula y la tecnología usada. En el caso de los terminales, la potencia emitida es como máximo
de entre 0,5 W y 2 W dependiendo de la banda usada. Por tanto, la potencia de transmisión es
menor que en los anteriores ejemplos, pero la frecuencia es mayor y esto será un elemento
diferenciador como se verá en el siguiente apartado.
En conclusión, los seres vivos han estado expuestos desde siempre a campos
electromagnéticos, pero desde el comienzo del s. XX con la creación y desarrollo de las
radiocomunicaciones se han añadido a los campos naturales otros artificiales. La cantidad de
emisiones artificiales en las ciudades es mayor debido a la mayor debido a una ocupación de
las bandas de frecuencia de radiofrecuencia y microondas y a una mayor densidad de
población. Los campos electromagnéticos son menores que en las zonas rurales que en las
ciudades, debido al menor número de emisores. Y debido a las características de las ondas, las
zonas con mayor electromagnetismo son las más cercanas a las estaciones emisoras, pero no
solo de las estaciones base de telefonía móvil, que son las únicas que aparecen en los medios
de comunicación, sino también de cualquier otro tipo de transmisión por radio que se ha
mencionado en este apartado.
Telefonía móvil y contaminación electromagnética
A pesar de que la mayor parte de las noticias que aparecen en los medios de
comunicación están relacionadas con las antenas de telefonía móvil. Se ha visto que no solo
hay campos electromagnéticos generados por las estaciones base telefonía móvil. Los hay
naturales, como la luz o el calor del Sol con los que se llevan conviviendo desde siempre, y los
hay artificiales debidos a las líneas de alta tensión o a las transmisiones de telecomunicación
generadas por el hombre. En este apartado se estudiara la telefonía móvil y los estudios que
hay sobre sus efectos en la salud.
En España, para la telefonía móvil y la transmisión de datos inalámbrica de alta
velocidad WiMAX (Interoperabilidad mundial para acceso por microondas) se utilizan o están
reservadas para un próximo uso las siguientes frecuencias:
88
- Banda 800 (LTE-4G): frecuencias desde 790 MHz. hasta 862 MHz.
- Banda 900 (GSM): frecuencias desde 880 MHz. hasta 915 MHz. y desde 925 MHz.
hasta 960 MHz.
- Banda 1800 (GSM): frecuencias desde 1.710 MHz. hasta 1.785 MHz. y desde 1.805
MHz. hasta 1880 MHz.
- Banda 2100 (UMTS): frecuencias desde 1.900 MHz. hasta 1980 MHz. y desde 2.110
MHz. hasta 2.170 MHz.
- Banda 2600 (LTE-4G): frecuencias desde 2.500 MHz. hasta 2.690 MHz.
- Banda 3500 (WiMAX): frecuencias desde 3.400 MHz. hasta 3.600 MHz.
Las frecuencias de radio comercial AM están entre 526,5 KHz. y 1.606,5 kHz., son unas
900 veces menor respecto a GSM, en FM se transmite entre 87,5 MHz. a 108 MHz., que son
unas 10 veces menores que GSM, y las frecuencias para la transmisión de la señal de televisión
son de entre 470 MHz. y 862 MHz., aproximadamente la mitad que GSM o UMTS. Comparando
estas cifras se ve que las diferencias entre señales comunes, habituales en cualquier ciudad, de
radio o televisión y las de telefonía móvil GSM es su frecuencia, algo que es importante por las
características de propagación radioeléctrica.
Una propiedad de los campos electromagnéticos es que midiendo la potencia a la
misma distancia dos señales de distinta frecuencia, la de mayor frecuencia se debilita más que
la de menor frecuencia, es decir, si se tienen dos estaciones emisoras que transmiten con
distinta frecuencia y se analizan las señales a la misma distancia, la de menor frecuencia
conserva más energía que la de mayor frecuencia en ese punto. De forma aproximada, si una
señal tiene el doble de frecuencia que la otra, ambas se emiten con la misma potencia y con
antenas de similares características y mapas de radiación, al recorrer la misma distancia la
señal con el doble de frecuencia habrá perdido el unas cuatro veces más de energía que la otra
en ese punto. A esto hay que añadir que las frecuencias más bajas penetran más en los tejidos
que las de frecuencias mayores, por lo aumentan la temperatura de órganos internos en lugar
partes como la piel más preparada para los cambios de temperatura.
Con los datos y estudios vistos hasta ahora no se puede afirmar categóricamente que
exista una relación entre las antenas de las estaciones base de telefonía móvil y las
enfermedades que se vienen asociando a su presencia, o al menos no se pueden asegurar que
sean la causa única de problemas de salud. Debido a las propiedades de las ondas
electromagnéticas a igualdad de distancia a las antenas del punto de referencia y si ambas
emiten con la misma potencia, hay un riesgo mayor para la salud cuando los tejidos están bajo
la influencia de la señal transmitida de menor frecuencia, como la señal de una emisora de FM
89
o de televisión, que cuando reciben la señal que tiene mayor frecuencia, como la de la estación
base de telefonía móvil de GSM o UMTS. Al alcanzar al punto de referencia, las ondas
electromagnéticas de telefonía móvil llegarán con menos energía y penetrará menos en los
tejidos que las ondas de FM o televisión, lo que provocará un menor aumento de temperatura
de los tejidos. Además este aumento será más superficial ya que no puede penetrar a la misma
profundidad que las de menor frecuencia.
Las frecuencias usadas en la telefonía móvil pertenecen al grupo de radiaciones no
ionizantes. Por tanto, no tienen suficiente energía como para romper los enlaces de las
moléculas que forman los tejidos como en las radiaciones ionizantes, solo tienen efectos
térmicos sobre los seres vivos. Cuando se expone un tejido a su influencia las moléculas vibran
y esa vibración genera calor que aumenta la temperatura. Se pueden soportar estar expuestos
durante un cierto periodo de tiempo recibiendo una cierta cantidad de radiación sin sufrir
daños, a partir de cierto tiempo o cantidad de radiación comienzan a producirse problemas
debidos al aumento de la temperatura. Los seres humanos son capaces de aguantar esas
exposiciones por la tolerancia a otras radiaciones naturales, como a la luz y la energía térmica
que llega del Sol, debido a los mecanismos de protección natural. Por este motivo, solamente
se puede absorber una cierta cantidad de energía sin efectos secundarios. Es lo que se conoce
como Tasa Específica de Absorción (SAR), un cierto grado de intensidad de radiación durante
un determinado tiempo tras el cual, al superar estos límites de tiempo e intensidad, comienzan
los efectos perjudiciales para la salud. Estos efectos son similares a una exposición prolongada
al Sol: cefalea, náuseas, desorientación, vértigo, cansancio y, si la potencia es muy alta,
quemaduras, cataratas o esterilidad. Por ello, los límites de tiempo y de cantidad de radiación
durante ese periodo, la SAR, han sido estudiados y están fijados por las recomendaciones de
las autoridades de los países y es necesario cumplirlos para que los equipos sean homologados
para poder venderse en ese país o región.
En el Consejo de la Unión Europea del 12 de Julio de 1999 se establecieron las
densidades de potencias que podía registrarse en cualquier lugar de una ciudad, ya fuera en
exteriores o interiores, que se consideraban seguros, es decir, que no tenían efectos nocivos
para la salud. Para frecuencias de las bandas de 900 y 1.800 MHz. el límite máximo de
exposición para radiaciones generadas en las estaciones base de telefonía móvil era de entre
450 y 900 µW/cm2. En España se siguieron estas recomendaciones, pero otros países
restringieron aún más estos límites que recomendaba la Unión Europea, por ejemplo,
Alemania lo redujo a entre 200 y 900 µW/cm2, Italia a 100 µW/cm2, Suiza a 4,2 µW/cm2 o la
ciudad de Salzburgo en Austria a solo 0,1 µW/cm2. Estos límites no son comunes en todo el
90
mundo, en otras zonas como Estados Unidos, Canadá o Reino Unido es algo más alto, con
valores de entre 500 y 1.000 µW/cm2, en China se establecen en 6 µW/cm2 o en Rusia en 5
µW/cm2. La diferencia entre las densidades máximas de potencia que pueden registrarse en
cualquier punto de los países o ciudades se debe a la aplicación de distintas recomendaciones.
Las más restrictivas toman precauciones frente a los informes más negativos que relacionan
las antenas con un mayor riesgo para la salud, el resto hacen caso a los informes que solo
atribuyen efectos de aumento de temperatura y que minimizan los riesgos.
Las antenas se comportan de una manera bastante predecible ya que están diseñadas
para emitir hacia una zona de una forma concreta, sino fuera así habría interferencias entre
antenas lo que impediría tener una buena cobertura y servicio, algo que encarecería la
comunicación afectando a los resultados económicos de las empresas de telefonía ya que
serían necesarias más frecuencias y localizaciones para estaciones base. La forma en la que
emite se denomina diagrama de radiación, los fabricantes de antenas lo dan en forma de mapa
cartográfico, observando la antena desde arriba, perpendicular al suelo. En el diagrama se
puede ver como las antenas de telefonía, las más habituales, reparte la mayor parte de la
potencia que emiten en un sector de entre 60 y 120 grados. En ese sector hay un máximo de
intensidad en una zona concreta, que coincide con el frontal de la antena, de unos 15 o 30
grados, lugar donde la potencia es máxima. De esta manera juntando tres o seis antenas
consigue dar cobertura a los 360 grados con la menor cantidad de frecuencias e interferencias
entre ellas mismas y el resto que forman la red de telefonía. Las antenas emiten la mayor
parte de la señal en su parte frontal minimizando la señal emitida hacia arriba donde no hay
clientes, hacia abajo, hacia los laterales o hacia atrás que serían interferencias para las antenas
contiguas. Muchas interferencias suponen un empeoramiento de la comunicación por lo que
sería necesario colocar más estaciones base y frecuencias, afectando a los resultados
económicos de las operadoras, por eso se procura que la señal salga solo hacia delante así las
antenas que tiene al lado no reciben interferencias, pero es algo que no se consigue del todo
ya que una pequeña parte de la señal llega a las antenas que tiene a su lado.
En el siguiente gráfico (8) se ve como emite una de las tres o seis antenas que forman
la estación base:
91
Analizando el gráfico, la antena emite la señal a un máximo de 4,5 W/m2 en GSM de
900MHz. de forma perpendicular al mástil en el que está instalada y con la zona de máxima
directividad, donde la potencia tiene mayor intensidad, paralela al suelo con un ligero
apuntamiento hacia el suelo. El diseño de las antenas de telefonía móvil hace que su diagrama
de radiación emita la mayor parte de la potencia a la zona frontal, menos potencia en los
laterales, la parte trasera de la antena y casi nulo hacia abajo. Por tanto, los vecinos que
tengan encima una antena van a recibir la señal emitida muy debilitada, debido a los
diagramas de radiación y a que los materiales de construcción atenúan la señal. Los niveles de
energía son similares e incluso menores que otros aparatos eléctricos que hay habitualmente
en los hogares y que no se consideran peligrosos, como los electrodomésticos. Otros de los
posibles afectados serían los vecinos que estén en los alrededores de las antenas, pero en este
caso recibirán la señal debilitada por la distancia que les separa. A las operadoras no les
interesa que haya obstáculos cerca que tapen la antena por lo que no van a colocar las antenas
apuntando a otro edificio a poca distancia, esto afectaría al radio de cobertura haciendo
necesarias más antenas y, por tanto, dinero. Por lo que si el edificio se encuentra a 20 o 30
metros y la instalación cumple con la normativa la señal llegará debilitada a esas viviendas
cercanas, de nuevo con valores considerados como seguros. En resumen, los vecinos que vivan
debajo recibirán una dosis mucho menor que los que vivan en las inmediaciones y estos,
cuando la distancia es de unas decenas de metros, recibirán dosis menores que las están
dentro de los límites recomendados.
92
Hay estudios que han buscado relaciones entre las emisiones electromagnéticas y la
aparición de ciertas enfermedades, como el cáncer, en seres vivos. Para realizar las pruebas y
ver si había una relación, se usaron animales a los que se expuso a frecuencias similares a las
que nos rodean. Se llegó a la conclusión de que la radiación electromagnética generaba
tumores cuando a los animales se les exponía a una potencia alta pero en un periodo de
tiempo corto. Muchos de ellos se realizaron de una manera concreta, las ondas
electromagnéticas se emitían a corta distancia, con una potencia elevada durante un largo
periodo de tiempo y concentradas en una zona específica, una situación que es altamente
improbable si se cumple la normativa en la instalación de estaciones base. Para conseguir un
entorno similar las personas que vivieran junto a las antenas deberían tenerlas muy cerca,
entre cinco y diez metros, apuntando directamente hacia ellos, durante todo el día y a la
misma altura de su vivienda. Es algo que impiden las normativas de instalación ya que se
ponen a varios metros de altura en las zonas más elevadas de los edificios y, además, las
personas se mueven y no están siempre en el mismo lugar durante todo el día.
No ayudan a despejar las dudas las contradicciones que aparecen en los estudios,
libros e informes realizados que hay publicados hasta ahora sobre las antenas de telefonía
móvil, las señales electromagnéticas y los efectos en la salud. Los resultados y conclusiones
que obtienen son completamente opuestos e impiden despejar de una vez las dudas de si
tienen o no efectos sobre la salud. Tampoco lo hacen los medios de comunicación ante
cualquier noticia en la que se mencione cáncer y telefonía móvil suelen dar la noticia sin más,
tomando como verdad absoluta el testimonio de uno de los afectados. Sugestionan a los
espectadores para que tengan miedo a las antenas sin más. No investigan, solo piden la
opinión de los afectados sin contrastar con la comunidad científica. Al hacer esto, basan la
opinión que transmiten a los espectadores a los hechos de los afectados que culpan de las
enfermedades a las antenas sin tener en cuenta otros factores externos que pueden haber
influido en la aparición. Por otra parte, cuando aparece una información de este tipo, que no
es cierta o al menos en parte, la comunidad científica no emite comunicados para desmentir y
aclarar los errores en los que se ha caído con esas noticias. Aunque es comprensible no querer
aparecer en los medios ya que cualquier persona sin ningún tipo de cualificación lo rebatiría y
la mayor parte de la gente elegiría la opinión sin fundamentos científicos o la que le dijera que
va a enfermar si tiene esas antenas cerca.
Los problemas que se encuentran los investigadores son la complejidad para estudiar
un entorno con muchas variables y en los intereses de las empresas y colectivos que los
encargan, los intereses impiden que las conclusiones sean definitivas y completamente
93
objetivas. Para realizar bien las pruebas y obtener unos resultados fiables e indiscutibles es
necesario un estudio muy complicado teniendo en cuenta muchos factores y que requiere un
estudio de muchos años. Además, para que se considere como válido y probado otros
investigadores, en otros laboratorios siguiendo su mismo procedimiento deben obtener
exactamente el mismo resultado, si esto ocurre las conclusiones obtenidas son aceptadas. La
complejidad para realizarlos se debe a que no solo interviene una persona y una antena de
telefonía que emite la señal con una potencia determinada. Hay muchos otros factores que
pueden influir en el resultado final: los lugares en los que realizan su vida, el tiempo de
exposición o la dosis recibida diariamente, la potencia de transmisión de la antena que varía
continuamente según los usuarios a los que da servicio o la exposición a otras sustancias
perjudiciales que no tienen que ver con el electromagnetismo. Si esto resulta complicado en
un laboratorio con un entorno cerrado, hacer algo similar en una ciudad se vuelve casi
imposible. Para que la obtención de resultados fuera precisa sería necesario analizar a varios
individuos en las mismas condiciones, unos bajo la influencia de antenas y radiación y otros sin
ella. De esta manera, si viviendo en el mismo lugar, con las mismas condiciones pero estando
unos bajo la influencia de las antenas y los otros no, si los que están cerca de antenas sufrieran
más casos de enfermedades o cáncer, entonces se podría concluir que es en la diferencia
donde está el problema.
Los seres vivos están sometidos a otras radiaciones naturales como la luz que se recibe
del Sol, que tiene mayor frecuencia y, por tanto, más energía que las ondas de radiofrecuencia
o microondas. La radiación de la luz que atraviesa la atmosfera y alcanza la corteza terrestre
puede llegar a los 1.000 W/m2 aunque los valores medios son menores, para una zona como
España están sobre los 350 o 400 W/m2. Estas cifras de la luz solar son un millón de veces más
altas que las emitidas por una antena de telefonía móvil que cumple con la normativa a
distancias de unas decenas de metros. Por tanto, parece más peligroso estar al sol durante
mucho tiempo un día de verano que estar a unas decenas de metros de una antena. Los
efectos de la exposición a dosis de menor potencia, como las que ha generado artificialmente
el ser humano, deben ser objeto de estudio para ver cuál es su influencia en la Tierra. Son algo
novedoso y reciente ya que hace menos de 100 años que se descubrieron, pero se han
extendido hace menos de 15 años con la telefonía y las nuevas tecnologías inalámbricas como
las redes de ordenadores WiFi, que usan frecuencias de 2,4 GHz o 5 GHz. Si tienen algún efecto
sobre la salud, solo se verá pasado un periodo de tiempo amplio, del orden de años, y debido a
la relativamente reciente generalización de la telefonía móvil hace que todavía no se tengan
información de lo que pueda ocasionar en el ser humano y en el resto de los seres vivos.
94
Cuando los estudios se realizan en laboratorios exponiendo animales a una antena radiando a
alta potencia durante un largo periodo de tiempo en un lugar reducido, no hay posibilidad de
extrapolar los resultados a los seres humanos por lo visto anteriormente. Para tener una
situación similar fuera del laboratorio, la persona tendría que vivir enfrente de las antenas, sin
moverse para permanecer en la zona de máxima direccionalidad y que la antena siempre
transmitiera cerca de la máxima potencia de forma continua, es decir, con el mismo número
de usuarios llamando día y noche. Esta situación es improbable y, como se ha visto, lo más
cercano a esta situación sería si la persona viviera enfrente a unas decenas de metros o justo
debajo, en el último piso del edificio. En estos casos las dosis de radiación a las que se
enfrentaría serían bajas si las comparamos con las recibidas del Sol y entrarían en los
márgenes seguros debido a las atenuaciones que sufriría la señal por la distancia o por los
diagramas de radiación de la antena y los materiales que separan la antena de la vivienda.
Por tanto, con lo visto has ahora el hecho de tener una antena encima de casa o en el
edificio de enfrente no implica un riesgo mayor que el de estar cerca de electrodomésticos o
estar al sol un día de verano. Las noticias que aparecen en los medios de comunicación casi
siempre influyen negativamente sobre las antenas para rechazarlas y tenerlas miedo sin dar
una explicación técnica de cómo funciona la telefonía móvil y que es lo que ocurre con las
ondas electromagnéticas una vez salen de la antena. Cuando se hacen entrevistas a los
afectados los síntomas que sufren por tener cerca la antena suelen ser malestar, ansiedad o
dificultad para dormir y lo atribuyen exclusivamente a tener cerca la estación base. Estos
problemas que mencionan los sufren la mayoría de adultos que trabajan, por asociación pasan
a relacionar todo lo que les pasa con las antenas, culpándolas de esos síntomas por el miedo
que le han inspirado las noticias e informaciones que ha recibido.
Es cierto que algunas personas que padecen enfermedades como la hipersensibilidad
electromagnética tienen una menor tolerancia a recibir dosis de electromagnetismo. Según la
gravedad de su enfermedad, los enfermos que la sufren se ven obligados a abandonar las
ciudades. Los más graves, no pueden siquiera estar cerca de electrodomésticos como un
frigorífico o una televisión por la radiación que emiten, radiaciones que para el resto no
supone ningún problema para ellos pueden ser mortales. Para la gente que dice sentir las
ondas electromagnéticas los síntomas parecen ser más psicológicos que por enfermedad y más
por estar influidos de las noticias negativas que aparecen en los medios de comunicación
respecto a las antenas. Las personas que tienen cerca o ven desde su casa una estación de
telefonía solo relacionan su malestar con la presencia de las antenas sin tener en cuenta otros
95
problemas como las preocupaciones que pueden sufrir en su vida, en su trabajo o la exposición
a otro tipo de sustancias como la contaminación ambiental.
Las estaciones móviles: los teléfonos móviles
Hasta ahora se ha analizado el elemento de las redes de comunicación sin cables que
genera más controversia y el que aparece en las noticias con mayor frecuencia, las antenas de
telefonía móvil. Según las propiedades del electromagnetismo a esas frecuencias, las ondas
que emiten las antenas no suponen un riesgo para la salud mayor que otras emisiones
radioeléctricas o de microondas, siempre que cumplan con la normativa de seguridad y se
guarde la distancia de seguridad. El único efecto físico conocido y contrastado es que generan
es un aumento de temperatura de los tejidos que están bajo su influencia. Las ondas no tienen
energía suficiente para romper los enlaces de las moléculas y, además, según aumenta la
distancia a la antena va disminuyendo su energía, pero la aparición en otros estudios de
síntomas distintos no permiten descartar nada. Estos estudios no han descartado
completamente que pueda tener otros efectos distintos para la salud, sobre todo cuando la
exposición es prolongada en el tiempo.
La telefonía móvil funciona de manera distinta a la radio o televisión, donde solo emite
la estación base. La estación móvil, donde se recibe la llamada, también necesita comunicarse
con la estación base. Estas no son otra cosa que los teléfonos móviles, que tiene un alto
porcentaje de la población. Los móviles son bidireccionales: son receptores de la señal que
emite la antena de la estación base y emisores de la señal hasta la antena de la estación base.
Se puede escuchar y hablar, algo que no es necesario en la televisión. El teléfono tiene una
antena emisora que hacer llegar la señal desde el terminal a la estación base, que puede estar
cerca o a unos cientos de metros. Según la distancia y las interferencias, el teléfono móvil
necesitará emitir con mayor o menor potencia para que la señal llegue con una calidad
mínima. Si la señal no es suficiente, la comunicación se entrecortaría impidiendo una
comunicación fluida entre los usuarios o, directamente, finalizaría la llamada abruptamente.
La potencia de transmisión de un teléfono está limitada por varios factores y va desde
unos 125 mW (0,125 W) a los 2 W. El límite en potencia transmitida se debe, por un lado, a la
batería que tiene una capacidad limitada y si se transmite con mucha potencia se agotará
rápidamente lo que hará que el terminal no sea útil por tener poca autonomía. Y por otro lado,
tal vez el más importante, es que la antena no puede alejarse más que unos centímetros de la
96
cabeza, las zonas que son adecuadas para colocar la antena no son muchas y no es posible
alejarlas. Si se radia con mucha potencia en la zona de la cabeza, no hay atenuación por
distancia como con otras antenas. La energía de las ondas electromagnéticas no se dispersaría
y llegaría con casi toda la potencia hasta los tejidos. Esto provocaría un aumento de
temperatura que puede ser perjudicial por muy cerca del cerebro. Es una zona en donde la
temperatura tiene mucha importancia, sobre todo si la llamada se prolonga en el tiempo. En
cualquier enfermedad que produzca fiebre una de las partes que primero se enfría es la
cabeza, ya que si la temperatura aumenta unos grados pueden provocarse daños en el
cerebro.
Como otras antenas que emiten ondas electromagnéticas, la potencia de emisión del
terminal está regulada para limitar sus efectos en la salud. Las recomendaciones son relativas a
la Tasa Específica de Absorción (SAR) que los fabricantes no deben superar para obtener la
homologación de los equipos para poder comercializarlos. Se recomienda no superar un cierto
grado de intensidad de radiación durante un determinado tiempo para no provocar daños en
los tejidos, en la Unión Europea la “Internacional Commission on Non-Ionizing Radiation
Protection”, (ICNIRP), recomienda que en los teléfonos móviles la SAR no sea mayor de 2,0
W/kg. En otros países, como en los Estados Unidos de América la “Asociación Norteamericana
de Estándares de la Asociación de Ingenieros Eléctricos y Electrónicos” (IEEE-ANSI), se
recomienda que la SAR no supere los de 1,6 W/kg. La mayor parte de los terminales no llega a
estos valores y, como muchos se distribuyen globalmente, cumplen con la más restrictiva de
1,6 W/kg.
En los teléfonos móviles, las zonas donde se pueden colocar las antenas no son
muchas debido al diseño o tamaño del equipo. En los primeros terminales, la antena estaba en
la parte superior, sobresalía del terminal y hacía falta desplegarla para que la cobertura fuera
óptima. Según pasaban los años, los terminales iban haciéndose cada vez más pequeños y las
antenas pasaron a ser antiestéticas, aunque redujeron su tamaño no dejaban de ser molestas
para poder llevar el terminal en el bolsillo, y el fabricante Nokia, con el modelo 8810, integro la
antena dentro del propio teléfono haciendo que no sobresaliera nada del terminal. Tras esta
innovación, los fabricantes generalizan la integración de la antena dentro del teléfono pero
deben alejarla del contacto de otros tejidos vivos por sus efectos sobre la señal. Si la antena se
sitúa en la parte baja, en la zona más alejada a la oreja, suele entrar menos menor contacto
con la mano y la señal no se ve afectada. Si eligen otra zona con mayor contacto con la mano,
como los laterales del terminal, la señal emitida si se ve afectada. Cuando la mano que sujeta
97
el teléfono entra en contacto con la antena, la señal se atenúa lo que hace necesario que
emita con mayor potencia consumiendo más batería y, por tanto, aumenta la SAR.
El menor coste de las llamadas, permite alargar las conversaciones sin preocuparse por
el consumo. Las operadoras, como parte de su estrategia comercial, hacen promociones en las
que solo se paga el establecimiento de llamada y se pueden hablar decenas de minutos o en
las que si hablas con otros clientes de la misma operadora tiene coste cero. Esto beneficia a
sus clientes, que incluso les permite ahorrarse la línea fija por las ventajas de movilidad que
ofrecen, pero al hablar durante todo ese tiempo se está más expuesto a las emisiones
electromagnéticas que si se realizara la llamada por un teléfono fijo. El teléfono tiene que
mantener periódicamente una comunicación con las estaciones bases cercanas para mostrar
que sigue activo, indicar donde se encuentra para realizar una llamada o poder estar localizado
si le llaman. Al recibir o realizar una llamada se tiene establecer una comunicación
bidireccional, es decir, recibir la señal de la estación base y enviar de vuelta la señal que genera
el teléfono, este es uno de los momentos en el que la antena del terminal móvil emite con
mayor potencia, pero sin superar los 2 W. Una vez establecida la comunicación, se recibe la
señal de la estación base con una energía relativamente baja que el teléfono se encargara de
amplificar para interpretar la conversación. Por otra parte, el terminal trasmitirá la voz en
forma de señal codificada que interpretara la estación base, la antena emitirá a pocos
centímetros de la cabeza con una potencia media entre 125 mW y 250 mW. En el peor de los
casos, si la cobertura es escasa, pueden darse picos puntuales de hasta 2 W. La señal emitida
por el móvil apenas se atenúa ya que la antena se encuentra a pocos centímetros de los
tejidos. Por este motivo, la energía contenida en la onda electromagnética llegará casi al
completo hasta los tejidos, algo que haré los efectos térmicos sean mayores.
Las emisiones de los terminales homologados están dentro de los márgenes de
seguridad, no se ha encontrado relación entre el electromagnetismo y las enfermedades con
las que suele relacionarse, como el cáncer, y los estudios realizados no han dado unas
conclusiones inequívocas pero los gobiernos de ciertas regiones están dando recomendaciones
para prevenir efectos aun no descubiertos. La Unión Europea, en la resolución número 1815
del 27 de Mayo de 2011 con el título “Los peligros potenciales de los campos
electromagnéticos y sus efectos en el medio ambiente” (9), recomienda la aplicación del
principio “ALARA” (As Low As Reasonably Achievable) o “tan bajo como sea razonablemente
posible”. A modo preventivo, recomienda exponerse a la menor cantidad de emisiones
radiaciones electromagnéticas que sean posibles, tanto por los efectos térmicos como por los
efectos térmicos o biológicos. Además, el Principio de Precaución se debe aplicar cuando los
98
estudios científicos no permiten determinar el riesgo con suficiente certeza, especialmente en
el contexto de una creciente exposición de la población.
Si un usuario adulto, utiliza el teléfono normalmente, es decir, unas cuantas llamadas
al día que duran unos minutos, las emisiones recibidas serán algo mayores que si usara un
teléfono fijo pero están dentro de los límites de seguridad. Si se hace un uso intensivo del
teléfono con múltiples llamadas que se alargan durante todo el día seguirá siendo seguro, pero
con el fin de reducir las emisiones electromagnéticas, lo recomendable sería dar un mayor uso
al teléfono fijo o, si no es posible, utilizar los aparatos manos libres de cable, que suelen
entregar los fabricantes con el teléfono. Al usarlos disminuyen las emisiones y la energía
recibida ya que aumenta la distancia hasta las zonas sensibles como el cerebro.
En los adultos al estar los huesos del cráneo y el sistema nervios formados, la radiación
electromagnética que llega al cerebro es menor ya que el hueso forma una especie de barrera.
En niños y jóvenes esto no pasa, todavía no se han terminado de cerrar los huesos del cráneo y
el sistema nervioso no está todavía completamente desarrollado, al no haber esta barrera las
ondas electromagnéticas llegan con mayor energía al cerebro que en los adultos. Como se vio
en el primer capítulo de la parte referente a la telefonía móvil, el uso de la telefonía móvil está
extendiéndose en los menores debido a: el abaratamiento de las tarifas, la necesidad de
ejercer un control de los padres cada vez más preocupados por tener la seguridad de localizar
a sus hijos rápidamente, unos terminales pensados para jóvenes con funciones lúdicas y el
cambio que se ha producido en la forma comunicación donde las redes sociales se hacen que
cada vez más importantes para relacionarse. Los teléfonos forman parte de sus actividades,
son la herramienta que utilizan para comunicarse con amigos y familiares. Estos usos hacen
que los menores estén usando continuamente el terminal, algo que choca con
recomendaciones como la del principio “ALARA”. Los padres y tutores, deberían limitar el uso
en menores al estrictamente necesario como son las situaciones de emergencia, pero es un
asunto complejo por ser su vía de comunicación con el mundo. Si los padres limitaran su uso
surgirían los problemas y razonar en esas edades es difícil. Cambiar esta situación en la que el
móvil es un juguete más es complicado, no hay argumentos firmes que desaconsejen su uso de
una forma contundente no hay pruebas incuestionables. Solo hay recomendaciones para
prevenir posibles enfermedades en un futuro y las recomendaciones, si no van acompañadas
de un peligro real, suelen obviarse y más si hay una presión social en la que se excluye si no se
tiene un móvil.
99
Conclusión
A lo largo de los dos últimos capítulos se ha visto como la telefonía móvil se ha
extendido y cada vez más integrada en la rutina diaria de las personas. Ha sido una de las
tecnologías que más rápido ha crecido y se ha popularizado en todo el mundo. En España
durante los últimos 15 años han pasado de unos 4 millones a más de 50 millones de líneas lo
que hace que existan más líneas y teléfonos que personas. En otras partes del mundo también
lo ha hecho, incluyendo los países con un mayor índice de pobreza, lo habitual es que el
número de líneas sea similar a la población del país, pero incluso en otros países las líneas
llegan a casi doblar en número a las personas. Esto da una idea del éxito que ha tenido esta
tecnología, ha conseguido que cada persona tenga una forma de estar localizado
individualmente en cualquier parte del mundo y en cualquier momento.
El éxito de la telefonía móvil ha conseguido cambiar costumbres en la sociedad. Los
propietarios rara vez salen de su casa sin su teléfono móvil encima, es básico como las llaves o
la cartera. Con el abaratamiento de los costes de las tarifas y los terminales cada persona tiene
uno propio. Se pasó de llamar a un lugar, en el que podía estar o no la persona, a llamar
directamente a esa persona. Según ha evolucionado la tecnología, los terminales ya no solo
sirven para llamar a otra persona, se ha mejorado la seguridad, la autonomía y las
prestaciones, se han incluido nuevas funciones: mensajería, video-llamada, fotos, vídeo, correo
electrónico, Internet, etc. Los requerimientos de las nuevas características y el aumento de
clientes requerían un despliegue de redes con mayor capacidad, que permitieran dar servicio a
más usuarios a la vez usando el terminal más tiempo. Fue necesario liberar y asignar nuevas
frecuencias para la telefonía móvil, cada vez más altas, para atender a los nuevos usuarios y el
tráfico que generaban. Todo esto hizo necesario ampliar la red con más centrales y antenas
que soportaran el nuevo tráfico generado.
Para que cada persona tenga su terminal pueda usarlo en cualquier momento,
funcione sin cortes y pueda disponer de todas las nuevas funciones es necesario nuevas
infraestructuras, las estaciones base son las más visibles pero no las únicas necesarias. Las
estaciones base se componen de equipos y antenas que emiten la señal para que llegue a los
móviles y reciben las señales de estos para poder tener una comunicación bidireccional, en la
que se pueda hablar y escuchar. Para dar cobertura a un determinado área es necesario
colocar cierta cantidad de estaciones base, el número depende de las características de la red
y del número de usuarios a los que hay que dar servicio. Cuando la tecnología GSM (2G), que
usa la banda de 900 MHz., evolucionó a UMTS (3G), que usa la banda de 1.800 MHz., el
100
número de estaciones base que eran necesarias para dar cobertura a la misma área llegaba a
triplicarse, es decir, donde con GSM una era suficiente para dar servicio a un área con UMTS se
pasó a necesitar tres. Las operadoras tuvieron que buscar nuevos emplazamientos donde
colocar sus equipos o, para ahorrar costes, compartirlos con las otras operadoras. En
España, a las tres operadoras principales, Movistar, Vodafone y Orange, les costó dar el paso
ya que basaban su estrategia comercial en la diferenciación de sus redes, cada uno desplegaba
su propia red. Por ejemplo, esa diferenciación le servía a Movistar para tener unas tarifas más
altas debido a la mejor cobertura en todo el territorio.
Cuando las operadoras trataron de realizar el despliegue se encontraron con un
problema: la mala prensa de las antenas. Las noticias que aparecían en los medios de
comunicación atribuían su cercanía a enfermedades, sobre todo con la aparición de casos de
cáncer. Los problemas de salud con los que se relacionaba la presencia de antenas hicieron
que a las operadoras les fuera mucho más difícil encontrar nuevos sitios en los que colocar
estaciones base, se encontraban con más trabas teniendo que pagar más por el alquiler de las
azoteas de los edificios. Las operadoras tuvieron que contrarrestar las noticias que aparecían
para tranquilizar a los que vivían cerca de las estaciones base. Tuvieron que realizar estudios
para demostrar que no había relación directa entre los efectos del electromagnetismo emitido
por las antenas y las enfermedades que se le asociaban, sobre todo con el cáncer. Además,
realizaron mediciones para demostrar que las estaciones base cumplían con la normativa
impuesta pasa tranquilizar a los que ya vivían cerca de las antenas, evitando así que les
desmontaran las estaciones base que ya tenían en funcionamiento. Los problemas con la
colocación de antenas y el miedo que provoca su presencia es debido a las noticias que llegar a
la población, en las que normalmente solo hablan los afectados sin preguntar a científicos o
técnicos, y la falta de estudios científicos concluyentes. Los clientes quieren y usan los
teléfonos móviles, quieren tener la mejor cobertura y poder usar las nuevas funciones de su
terminal pero no lo quieren es ver una antena cerca de su domicilio o de la escuela de sus
hijos. Esto hace que a las operadoras les cueste conseguir desplegar su red para dar la
cobertura necesaria al no encontrar emplazamientos adecuados y los que encuentra tienen un
alquiler más alto o una fuerte oposición de los vecinos.
Pese a que la información que llega de los medios de comunicación, no solo hay
emisiones electromagnéticas por las antenas de telefonía móvil. En cualquier lugar del planeta
se pueden hallar emisiones no ionizantes, con más o menos energía que las de telefonía, tanto
de radiofrecuencia, microondas, infrarrojo o luz visible. Estas radiaciones son naturales o
artificiales, generadas por el ser humano, no son capaces de romper enlaces de moléculas
101
como las ionizantes, solo pueden hacer que vibren aumentando su temperatura. El aumento
de temperatura que pueden conseguir vendrá dado por la energía que la onda contenga, a
más energía más vibración y calor. Dentro del grupo de la radiofrecuencia las ondas
procedentes de la televisión o la radio tienen una frecuencia menor, pero son emitidas con
varias veces más potencia que las de móvil por lo que podrían parecer más peligrosas. Debido
a las propiedades de las ondas, las señales con las frecuencias más altas al recorrer la misma
distancia pierden más energía que las de menor frecuencia. Si en un punto equidistante se
miden las señales, las de radio o televisión, con una frecuencia menor, llegaran con más
energía que las de telefonía móvil, con una frecuencia más alta. Y los efectos sobre los tejidos
parecerán también menos perjudiciales en la telefonía móvil ya que las señales con frecuencias
mayores penetran menos que las de frecuencias menores, por lo que no llegaran a los órganos
internos para calentarlos.
Si las estaciones base, tanto de radio, televisión o telefonía móvil, están bien
instalados, emitiendo con una potencia dentro el rango permitido y manteniendo la distancia
de seguridad, a los edificios cercanos llegan con potencias consideradas como seguras o
inferiores a las máximas recomendadas. Lo que se debe vigilar es que las operadoras cumplan
con los niveles permitidos y no los sobrepasen bajo ningún concepto. A pesar de esto, las
noticias se han centrado en las antenas de las estaciones base, pero los móviles establecen una
comunicación bidireccional en la que el terminal también emite una señal con una potencia de
hasta 2 W para llegar a la estación base que le da servicio. De nuevo, los terminales emiten con
potencias consideradas como no peligrosas para la salud, pero un abuso, con múltiples
llamadas diarias de muchos minutos diarios, hace que se tenga una antena emitiendo a
escasos centímetros de la cabeza y el cerebro recibiendo más electromagnetismo que con una
estación base próxima.
Aunque no se haya podido demostrar científicamente una relación directa entre las
emisiones electromagnéticas de baja potencia que se prolongan en el tiempo con el cáncer no
se pueden descartar otros efectos. Por un lado, realizar estudios en laboratorios sobre
emisiones es una labor muy compleja, no siempre se recibe la misma señal en la misma parte
durante un periodo concreto. Si se obtiene algún resultado en un laboratorio este debe
poderse reproducir en distintos laboratorios dando siempre el mismo resultado para darlo por
válido e irrebatible y, de momento, los que han encontrado algún problema para la salud no
han podido ser reproducidos por lo que no pueden darse como válidos. La telefonía móvil lleva
relativamente poco tiempo usándose, todavía no hay usuarios que lleven tanto tiempo
usándolo como para poder estudiar los efectos que ha tenido el uso prolongado del teléfono
102
móvil en su salud y, de nuevo, no es fácil sacar conclusiones ya que pueden haber estado
expuestos a otros agentes que les han podido afectar a la salud. Y por otro lado, el modo de
vida actual con estrés, vida sedentaria, exposición a sustancias químicas o contaminación
tampoco ayuda a aislar como única causa de cáncer a las emisiones electromagnéticas que
emiten las antenas de telefonía móvil.
Por tanto, tener cerca una estación base de telefonía o usar un móvil, siempre que
cumplan con la normativa de seguridad, no van a provocar cáncer por si solos con lo que se
sabe hasta ahora. Pero no se puede descartar que pueda influir en la aparición si hay otros
factores, no ha pasado suficiente tiempo para saber cuáles son los efectos de las emisiones de
baja potencia que se prolongan en el tiempo. Las autoridades con el fin de evitar futuras
enfermedades recomiendan seguir el principio ALARA, es decir, recibir la menor cantidad de
electromagnetismo posible. Esto debe aplicarse sobre todo a niños, que todavía no están
completamente desarrollados físicamente. De esta manera, si se minimiza la exposición al
electromagnetismo de baja potencia se minimizan los problemas que pudiera ocasionar, si
llegara a descubrirse. Pero este principio y el sentido común no se deben aplicar solo a la
telefonía móvil, se debe aplicar a cualquier otra emisión electromagnética, incluyendo las
naturales como la luz. Lo mismo que no se está durante horas al Sol, tampoco estar todos los
días varias horas seguidas hablando con el teléfono junto al oído aunque este dentro de los
límites recomendables.
Pero esta no será la única polémica, en los últimos años el despliegue de las redes
inalámbricas de ordenadores o WiFi, tanto en ciudades como en edificios, está siendo pasando
a ocupar el puesto en las noticias de la telefonía móvil. Este tipo de redes trabaja en las
frecuencias de 2,4 GHz. o de 5 GHz. y usa transmisores de baja potencia, menores de 100 mW
o 1 W respectivamente, con los que se da cobertura a una casa u oficina. En los últimos años
se está dando cobertura a ciudades completas, esto hace que el número de equipos sea alto y
se añada otra emisión electromagnética al espectro electromagnético de las ciudades. Pero lo
que más controversia está generando son las escuelas con conexión WiFi donde se están
poniendo antenas y equipos para que los niños puedan estar conectados en las aulas. Al
conectar a una clase al completo en un aula, que es un lugar cerrado, los equipos emitirán y
recibirán a la vez, por lo que habría más emisiones electromagnéticas que las que habría
normalmente. En este caso, al igual que en los móviles las emisiones son seguras, no se ha
encontrado una relación entre la aparición de enfermedades con las ondas a estas frecuencias.
Pero, aquí sí que hay solución minimizar las emisiones sobre los niños y para que haya
conexión a Internet. El problema es en este caso es distinto al de los teléfonos móviles, aquí se
103
puede sustituir las antenas por cable, pero no es barato ya que habría que llevar una conexión
hasta cada pupitre, algo mucho más caro que poner un repetidor WiFi y hacer que los
ordenadores se conecten sin más.
104
Parte III: Polémicas con los derechos de autor
Introducción
La bajada de precios de los ordenadores personales, los avances en los programas de
software y el despliegue de las conexiones a Internet han traído importantes mejoras a los
usuarios particulares y a las empresas. Pero estos avances parece que no han servido a las
empresas relacionadas con la producción y distribución de material audiovisual. La evolución
de la industria de semiconductores, que ha multiplicado la potencia de cálculo de los
microprocesadores, y las mejoras de las redes de comunicaciones han permitido que realizaran
tareas impensables hasta hace unos años. Las operaciones que se pueden realizar en un
ordenador personal actual antes, hace unas décadas, solo eran posibles en grandes servidores
o centros de cálculos de los gobiernos o empresas. Estos equipos estaban valorados de varios
millones de euros o dólares, pero ahora con unos cientos de euros es posible tener algo
mucho. Este aumento en la potencia de cálculo de los microprocesadores unido a su coste
decreciente ha permitido abandonar gradualmente el formato analógico en el manejo de
texto, imágenes, audio y vídeo.
Las capacidades de procesamiento de información que ofrecían los procesadores han
permitido digitalizar muchos elementos que hasta hace unos años solo existían físicamente
como los libros, las pinturas, el sonido o las imágenes en movimiento. Esto permite tener
tantos duplicados exactos como fueran necesarios de forma rápida y barata para enviarlos de
inmediato a cualquier rincón del mundo usando Internet. Pasaron de tener ser objetos reales y
físicos, complejos de duplicar y costosos de enviar para ser una cadena de unos y ceros que un
ordenador podía enviar sin degradación a cualquier parte del mundo en un plazo de tiempo
menor. Esos datos se podían almacenar en un volumen físico mucho menor que el original,
una biblioteca completa actualmente cabe en un disco duro, que tiene un tamaño menor que
un libro de bolsillo.
Esta digitalización ha tenido ventajas e inconvenientes. Ha permitido que las obras
únicas, frágiles y de difícil sustitución no se degradaran por el uso continuado. Por ejemplo, los
libros anteriores a la imprenta o incunables, con una sola lectura han sido analizados,
procesados y convertidos a un formato digital. Una vez realizada su digitalización, el original
puede ser reservado para consultas puntuales evitando que se estropee, pero su copia digital
pueden usarlas múltiples usuarios. Hay tantos duplicados como sean necesarios, pueden
105
mandarse a cualquier parte del mundo, ser consultados simultáneamente y sin el temor a que
desaparezca o se estropee. Pero esta facilidad para digitalizar, duplicar y enviar los archivos
resultantes también ha tenido otras consecuencias: las fotografías, películas, discos de música
y libros pueden copiarse sin el consentimiento de sus propietarios o autores. No son
necesarias complejas máquinas para hacer duplicados, de una forma más o menos sencilla,
con un ordenador o un periférico, se pueden digitalizar, almacenar o enviar a un soporte
portátil, otro ordenador o directamente a Internet.
Los dueños de las obras con derechos de autor, es decir, los estudios cinematográficos,
las productoras de cine o televisión, los actores, las editoriales, los escritores, las compañías
discográficas o los músicos están viendo como sus obras son copiadas sin apenas esfuerzo y
enviados a cualquier parte del mundo sin su permiso. Estas empresas y los autores, al no
recibir ningún tipo de compensación económica por estas copias ilegales, han promovido
cambios en la legislación de los países para impedir que su trabajo sea usado sin su permiso y
sin recibir dinero por ello, han hecho ver a los gobiernos que era necesario un cambio en las
leyes vigentes. Estos cambios han generado muchos problemas debido a que chocaban con los
derechos de los ciudadanos. A lo largo de los siguientes capítulos se analizarán las
consecuencias de la digitalización, quienes fueron los iniciadores del paso de analógico a digital
y los motivos que han llevado a los espectadores a cambiar su forma de ver y adquirir los
contenidos audiovisuales.
Con los ordenadores y la digitalización, las empresas propietarias de los derechos
ofrecieron una mejor experiencia a los usuarios, pero perdieron el control del duplicado y la
distribución del contenido audiovisuales. Cualquiera con una copia digital de una obra con
derechos de autor y los suficientes conocimientos podía duplicarlo sin el consentimiento de las
productoras, editoriales o autores. Lo ponía a disposición del resto del mundo por un canal de
distribución distinto al legal, compartiendo sin obtener beneficio al prestárselo a conocidos o
revenderlo a un precio mucho menor que el original y, por tanto, más atractivo. Ese precio
podía ser muy bajo ya que solo había que cubrir los costes del soporte digital en el que se
almacenaba, un disco de CD o de DVD, y una pequeña parte de la amortización de los equipos
necesarios para el duplicado. Los que vendían las obras de esta manera se quedaban con todos
los beneficios de la venta en perjuicio de los propietarios o autores, que no recibían nada. Pero
la evolución de la tecnología produjo otro cambio que hace aún más complicado solucionar el
problema, la distribución pasó los soporte físicos al intercambio virtual, las redes de
telecomunicaciones permitieron prescindir del soporte físico. El intercambio de ficheros con
106
derechos de autor se hacía directamente desde un ordenador conectado a Internet, era rápido
y relativamente sencillo para todos, pero complicaba aún más el problema.
A lo largo de los años, los autores, empresas y corporaciones que controlaban los
derechos de autor de las obras obtuvieron influencia suficiente para presionar a los gobiernos.
Gracias al volumen de negocio que manejaban, han podido mediar para cambiar las leyes y
hacer que fueran más benévolas con sus intereses particulares. Ese poder les permitía sugerir
o imponer cambios en las leyes ya existentes, no tan beneficiosas para sus intereses, o crear
unas nuevas a su medida. La aprobación de nuevas leyes que protegen a los propietarios ha
generado mucha polémica en los últimos años, ya que muchas chocan con otras vigentes más
favorables para los usuarios. En esta parte, el estudio de la problemática se centrara en
España, uno de los países con mayor porcentaje de consumo de contenido no original y donde
el derecho a realizar una copia privada está contemplado en la Constitución, y en Estados
Unidos donde la influencia de sus leyes y acciones tienen repercusión en todo el mundo y por
ser donde tienen su sede social las principales empresas del sector audiovisual y editorial.
107
Capítulo 6: Las compañías audiovisuales y los autores
108
109
La industria discografía
Desde la prehistoria, hace unos 50.000 años, el ser humano ha estado unido a los
sonidos rítmicos, a la música, que se empleaba para preparar o festejar los rituales de caza.
Hasta la aparición de civilizaciones más avanzadas, como la egipcia, la griega o la romana, no
surgieron los primeros instrumentos musicales o la escala de siete notas. Según pasaban los
siglos la música evolucionaba y los compositores iban teniendo más importancia en la
sociedad, la música enseñaba y entretenía tanto a reyes y aristócratas como a la plebe. Hasta
finales del siglo XIX, la única forma de escuchar cualquier tipo de música era en directo. Debía
ser interpretada por músicos que tenían que tocar los instrumentos musicales, no era posible
reproducirla en otro momento o sin un músico o sin los instrumentos. Hubo aparatos que
fueron los precursores de la música grabada, como las cajas musicales, los órganos o las
pianolas pero tenían sus limitaciones. Las primeras permitían escuchar una pequeña
composición grabada en un cilindro metálico al girar y golpear otras piezas metálicas. Los
órganos fueron los antecesores a las pianolas, hacían sonar las piezas musicales sin necesidad
que un músico tuviera que estar presente. Las composiciones se grababan en papeles
perforados que activaban resortes para mover las teclas y hacer sonar al instrumento, como si
un músico estuviera tocándolo. Se podría reproducir música, pero solo eran pequeñas piezas y
de un solo instrumento.
En 1857, el francés Édouard-Léon Scott patentó el fonoautógrafo que podía grabar
sonidos pero no reproducirlos. Para poder reproducirlos hubo que esperar hasta 1877, año en
el que Thomas Edison invento y patento el fonógrafo en Estados Unidos, fue el primer aparato
capaz de reproducir y grabar sonidos. La grabación de sonido era posible gracias a un
transductor acústico-mecánico convertía las ondas sonoras en surcos, las vibraciones del aire
movían un estilete que labraba un surco helicoidal en un cilindro con una capa de material
similar a la cera maleable. Una vez completada la grabación, el estilete recorría el surco
generando una onda sonora que emita el mismo sonido, o casi, que se había grabado. El
cilindro del fonógrafo fue el primer soporte estándar de audio en el que se podían grabar y
reproducir sonidos de hasta 2 minutos, era el precursor de las cintas de casete o los CD. El
fonógrafo no fue concebido para usarse como reproductor de música, su finalidad estaba
relacionada con la telefonía fija que acababa de patentarse un año antes. Se inventó para
usarse como un contestador automático donde guardar la voz de los mensajes telefónicos o un
dictáfono, pero la sencillez para grabar y reproducir lo convirtió en un éxito e hizo que se usara
como soporte físico para almacenar música.
110
El fonógrafo se popularizo creando un nuevo mercado de la nada, la industria
discográfica. Antes era necesario acudir a lugares donde poder escuchar música, con este
invento los clientes podían compraban piezas musicales grabadas. En el año 1900, en Estados
Unidos se consolidaron las tres primeras “compañías discográficas”: Edison Record, Columbia
Phonograph y Victor Talking Machine Company. Estas tres compañías hoy no se podrían
considerar como tales ya que su negocio principal no era la música, era fabricar y vender
fonógrafos y cilindros sin grabar. Pero esta nueva oportunidad de negocio les llevo a vender los
cilindros con música ya grabada. Ante el éxito de ventas, los fonógrafos evolucionaron y se
centraron en mejorar la calidad del sonido para reproducir música con cierta fidelidad, los
primeros sonaban mal y eran motivo de burla de los músicos de la época, que no lo tomaban
en serio y no le veían ningún futuro. Junto con los fonógrafos también evolucionaron los
soportes de grabación, los primeros cilindros se degradaban al reproducirse unas decenas de
veces ya que no estaban creados para ese fin, las características necesarias para la grabación
de la voz requerían materiales blandos y moldeables fáciles de grabar. El sonido se veía
afectado cuando el estilete recorría el surco varias veces, se buscaron materiales más
consistentes que la cera, pero esa dureza dificultó la grabación casera. Eran sencillos de
almacenar, de cambiar y estaban estandarizados en las tres compañías, esto permitía
comprarlos sin tener que fijarse en el fabricante. Además, podían fabricarse en serie a un
precio asequible, permitiendo tener varias piezas musicales. Con un fonógrafo y los cilindros ya
grabados se podía escuchar música en cualquier momento y lugar, sin que un músico o una
orquesta lo interpretaran cada vez que se quisiera oír. Fue el comienzo de la venta de música.
Al fonógrafo le surgió pronto un competidor. En 1888 en Estados Unidos, Emile
Berliner patentó el gramófono que permitía reproducir sonidos previamente grabados, pero
en lugar de usar cilindros usaba discos. El funcionamiento era similar al del fonógrafo ya que
también había un surco que había que recorrer para obtener las ondas sonoras, pero en lugar
de recorrer la superficie de un cilindro de forma helicoidal se recorría un disco de forma espiral
hecho de goma laca (“shellac”). Los discos grabados comenzaron a venderse en Europa en
1889 con un tamaño de 5 pulgadas, para pasar después a 7 pulgadas en 1894 y venderse
también en los Estados Unidos, ambos tenían una calidad de sonido peor que la del cilindro. En
1901 y 1903 se comenzaron a fabricar los discos de 10 y 12 pulgadas, que superaban el tiempo
de grabación de los cilindros, 3 y 4 minutos frente a los 2 de este. Durante la década de 1910,
el cilindro y el disco convivieron pero poco a poco se fueron imponiendo las grabaciones en
disco a las de cilindro, hecho que se hizo patente cuando en 1929 Edison dejo de vender
grabaciones en cilindro. Los motivos que provocaron que el cilindro desapareciera como
111
soporte de las grabaciones musicales fueron sobre todo económicos. Los gramófonos tenían
una mecánica más sencilla y, por tanto, eran más baratos de fabricar que los fonógrafos. La
producción en serie de discos resultaba más barata que en cilindros, para hacer múltiples
copias de un disco era necesario un único disco maestro que tuviera la grabación original,
mientras que con el cilindro era necesario interpretar la música por cada grupo de copias,
había que usar múltiples fonógrafos para grabar en cada toma de sonido. En los discos se
podían usar las dos caras por lo que el tiempo disponible se duplicaba, se podían almacenar de
forma sencilla y eran menos voluminosos que los cilindros. Este cambio de formato supuso una
pérdida de funcionalidad a los clientes que no recuperarían hasta el magnetofón años más
tarde: los discos solamente podían grabarse con equipos complejos, no era posible hacer
grabaciones caseras como con el fonógrafo. A pesar de estas mejoras el fonógrafo no
desapareció, siguió usándose fuera del mercado musical hasta principios de los años 50. La
posibilidad de grabación y su sencillez eran útiles para registrar la voz, usándose como
dictáfono en el entorno empresarial.
Durante esos primeros años de convivencia en el mercado del cilindro y del vinilo, las
tres grandes discográficas competían en Estados Unidos ofreciendo distintos estilos de música
editando simultáneamente en ambos formatos sin un claro vencedor. Uno de los motivos que
hizo que el gramófono se impusiera, además de ser más económico, fue debido los nuevos
gustos musicales que surgieron en esos años. Columbia Phonograph y Victor Talking Machine
Company fueron las únicas compañías que editaban discos de Jazz y apoyaban el gramófono
frente al fonógrafo. Este nuevo estilo musical estaba de moda de los años ’20 pero al propio
Edison, dueño de la otra compañía, no le gustaba y se opuso que su compañía editara cilindros
de Jazz, hecho que provoco que se vendieran cada vez menos cilindros y que estos acabara
desvinculándose de la música.
El éxito en las ventas música grabada hizo que hubiera un auge en la creación de
nuevas compañías discográficas tanto en Estados Unidos como Europa, con Odeon y
Parlophone. En 1917, cuando las patentes de las máquinas de grabación y de la fabricación de
discos expiraron, surgieron nuevas compañías discográficas. Los comienzos de esas compañías
fueron muy distintos, unas comenzaron vendiendo tanto los fonógrafos y gramófonos como
los soportes sin grabar, otras viendo la oportunidad de negocio sin tener que pagar patentes
comenzaron a vender directamente los soportes grabados y otros nacían sin relación con el
mundo musical pero acabaron en él. Un ejemplo de esto último ocurrió cuando las compañías
General Electric y AT&T se asociaron en 1919 para fundar la compañía RCA (Radio Corporation
of America) para fabricar radios. En 1929 RCA adquirió la discográfica Victor Talking Machine
112
Company, pasando a ser RCA Victor. Estas compañías, que comenzaron vendiendo fonógrafos,
gramófonos, radios, pasaron a producir, fabricar, distribuir y promocionar la música gracias a la
acogida y las ventajas que tuvieron los soportes intercambiables.
Como se ha visto, el Jazz fue uno de los motivos por los que un soporte triunfo sobre
otro. Pero detrás del Jazz nos encontramos con la evolución que sufrió la música durante esos
años. Se rompió con las formas y técnicas que procedían de Europa y que dominaban desde la
Edad Media. Ese tipo, denominada actualmente como música clásica, estaba relacionada con
la clase alta de las sociedades europeas por lo que tenía un público restringido por su posición
social. La evolución popularizo la música haciéndola menos compleja y elitista, permitiendo
que se difundiera a las clases menos poderosas. Sobre el año 1900, el Jazz fue el primer género
musical popular que cambio el panorama musical, años más tarde le seguiría el Blues, Soul,
Rock, Pop o cualquiera de los estilos que existen actualmente. Todos esos cambios unidos al
precio asequible de los gramófonos y los discos permitió a los consumidores decidir la música
que querían escuchar, las discográficas tenían que ajustarse a lo que los compradores
demandaran.
Durante la década de los años ´20, los esfuerzos de los fabricantes de fonógrafos,
gramófonos y soportes se centraron en mejorar la calidad del sonido para mantener las
ventas, ya que la fidelidad del sonido no era uno de los puntos fuertes de ambos. Pero surgió
un competidor, las emisoras de radio comenzaron emitir en múltiples ciudades y los
receptores de radio hicieron que disminuyeran las ventas de fonógrafos y gramófonos y, por
tanto, de la música grabada. Solo los principales fabricantes consiguieron mantenerse hasta el
final de la década, los más pequeños eran absorbidos o cerraban. En el año 1929, Estados
Unidos sufrió la Gran Depresión que hundió las ventas de discos hasta finales de los años ´30 y
principios de los ´40, tras la Segunda Guerra Mundial. Todos estos hechos provocaron cambios
en las discográficas tanto en Europa como en Estados Unidos, ahora el mercado musical estaba
en manos de otras tres compañías: ARC, Decca y RCA Victor.
En la década de los ´40, cuando acabo la guerra la economía se recuperó y las ventas
de discos volvieron a crecer. Los discos mejoraron su calidad y resistencia a los golpes al
comenzar a fabricarse masivamente de vinilo, sobre todo debido a que los soldados
desplegados se quejaban de que los de goma laca se rompían durante el envío. Aparecieron
los discos con formato LP (Long Play) y EP (Extended Play) con microsurco que permitían
grabar hasta 25 minutos de audio por cara con calidad y fidelidad de sonido. Los discos podían
contenían varias canciones de un artista o piezas más largas, fue el comienzo de los álbumes
musicales. Al igual que ocurrió con los fonógrafos, al fonógrafo en 1944 le surgió un
113
competidor: el magnetófono de bobina abierta. Este aparato grababa en rollos de cintas
permitiendo grabaciones de mayor duración y con una buena calidad, pero su tamaño limitaba
su uso a lugares como los estudios de música. Por otro lado, la radio pasó de ser un
competidor a un aliado para las discográficas, los programas de música incluían y ayudaban a
vender los discos que contenían las más populares.
La recuperación económica tras la Segunda Guerra Mundial trajo un aumento en las
ventas de discos que hizo que surgieran nuevas discográficas. Durante esa década, se
popularizaron otros estilos de música como el Rock & Roll, R&B, Reggae o Country que se
sumaron a la música clásica y al Jazz. A principios de los años ´50, las cinco compañías
discográficas más importantes eran: Columbia, RCA Victor, Decca, Capitol (EMI) y Mercury.
Pero unos años después, durante los años 1954 a 1958, se produjeron cambios en los gustos
musicales que afectaron a las más importantes. Las discográficas independientes que contaban
con músicos de Rock & Roll y R&B fueron las que más canciones colocaron en los primeros
puestos de las listas de éxitos y de ventas, consiguiendo robar cuota de mercado a las cinco
grandes. Debido al éxito de esta nueva música y volumen de dinero que generaba, las
pequeñas discográficas, las que tenían un buen catálogo de géneros y artistas, pasaban a
generar beneficios rápidamente. Un ejemplo de lo anterior se dio en Detroit en 1959 con la
discográfica Motown, promotora del Soul, fue creada por un trabajador de Ford que pidió un
préstamo de 800 dólares, pronto paso a tener a sus artistas entre los que más sonaban en la
radio y los que más discos vendían. Las grandes discográficas, que no tenían artistas o grupos
de esos estilos, buscaban nuevos sonidos procedentes de otros países o fichaban a los músicos
de talento que salían de la radio o de pequeñas discográficas. Esto sucedió con músicos como
Elvis Presley, en 1952 comenzó en una discográfica surgida de una radio y tras encadenar una
sucesión de éxitos firmó en 1956 un contrato con RCA. Cuando el público encontraba un estilo
musical buscaba más, debido a la variedad de músicos y estilos las discográficas comenzaron a
especializarse, separaban alguna sus marcas o sellos para dedicarlos a un estilo de música
concreto. Además de las pequeñas discográficas, también entraron en el negocio de la música
las productoras de cine y televisión, creaban sus propias discográficas en donde vendían los
discos de los artistas que aparecían en sus películas o sus programas.
Durante los años ´50 y ´60 la música se hizo portátil, los avances en la electrónica, en
particular en los semiconductores y transistores, permitieron miniaturizar los equipos hasta el
punto de que los receptores de radio cabían en un bolsillo. El transistor, pese a ser un
descubrimiento los Laboratorios Bell de los Estados Unidos en 1947, comenzó a ser usado por
empresas de Japón. Estas empresas eran las encargadas de la fabricación de los componentes
114
de electrónica por sus costes reducidos de producción y mano de obra en comparación a
Estados Unidos. Debido a la externalización de la producción Japón tardo poco en ser un país
puntero en la miniaturización electrónica y las aplicaciones relacionadas con los transistores.
En 1957, la empresa Sony, de Japón, comercializó el primer aparato de radio portátil con un
tamaño de bolsillo en el que era posible escuchar la radio en cualquier lugar fuera del hogar,
los transistores de radio se convirtieron en un éxito de ventas. Hasta ese momento las radios
de válvulas tenían un gran volumen, por lo que solo se podían usar en el hogar, al
popularizarse el transistor era posible llevarla consigo.
Tras la miniaturización de radio le tocó el turno a la música grabada, no había sufrido
grandes cambios desde el éxito del vinilo en la década de los ´40. Los discos de vinilo ocupaban
mucho espacio y eran frágiles, se buscaron alternativas para hacer que los soportes físicos
donde llevar la música fueran más pequeños, se buscaba que cupieran en un bolsillo como la
radio de Sony. Las cintas magnetofónicas fueron las elegidas para realizar la reducción de
tamaño, en ellas no había una aguja sensible a los movimientos que podía dañar los
microsurcos del disco al haber moverse, las cintas estaban recubiertas de un material
magnético que se podía leer y escribir con un cabezal electromagnético, eran resistentes,
duraderas y no le afectaban las vibraciones. En tamaño eran ser similares a los rollos de las
películas de cine, es decir, solo eran aptas para estudios musicales u hogares, no para llevar
encima. El primer intento para miniaturizarlas se produjo en 1958 por parte de la discográfica
RCA Victor con el cartucho de cinta RCA, pero fracaso, su tamaño era más grande que el de los
futuros casetes y la calidad de sonido no era buena. El segundo intento tuvo mucho más éxito,
en 1962 la empresa Philips inventó el Casete Compacto poniéndolo a la venta en 1963 en
Europa y en 1964 en los Estados Unidos bajo la marca Norelco, la filial de Philips en el país.
Pese a no ser el único sistema de cinta magnética que había en el mercado fue el que triunfo al
no tener que pagar licencia por usarlo. La empresa Sony tuvo mucho que ver, presionó a
Philips para que no cobrara por usarlo, permitiendo a otras empresas vender las casetes sin
tener que pagar por comercializar la música en este formato, esto lo convirtió en un estándar
como lo fue el cilindro del fonógrafo o el disco de vinilo o el disco de gramófono. Junto con los
casetes Philips también comercializo los primeros reproductores portátiles fueron un éxito de
ventas con varios millones de unidades vendidas a lo largo de los años siguientes. En los
primeros años esos equipos eran portátiles pero no de bolsillo, permitían reproducir música
con cierta calidad y, sobre todo, grabar de forma no profesional, recuperando para el usuario
una función que se había perdido con los cilindros de fonógrafo.
115
Como sucedió con los cilindros o los discos, la calidad de sonido de los casetes no fue
buena en sus comienzos. En 1971 los avances tecnológicos permitieron que la alta fidelidad
(Hi-Fi) llegara a los casetes, la empresa Advent fabricó equipos que reproducían las cintas de
dióxido de cromo (CrO2) a la velocidad adecuada y junto con la tecnología de reducción de
ruido Dolby tipo B hacían que el ruido percibido en la grabación fuera menor y, por tanto, la
calidad del sonido mejorara. Las ventas de música en casete aumentaron al producirse estas
mejoras pero los vinilos mantuvieron sus ventas, el cambio en la elección mayoritaria de
soporte sucedió a partir de 1979. En este año Sony presento su primer reproductor de casete
de audio portátil estéreo y asequible al que denomino “Walkman”, el equipo incorporaba
todos los avances para reproducir la música con alta fidelidad y un tamaño algo mayor que el
de una cinta de casete. El primer Walkman no fue más que una grabadora a la que le quitaron
funciones como la grabación o el altavoz interno para reducir al máximo su tamaño, la música
solo la escuchaba la persona que usaba los auriculares. Los primeros equipos no tuvieron un
gran éxito de ventas por un precio algo elevado, pero en menos de dos años todos los
fabricantes de electrónica tenían en su catálogo equipos similares provocando un aumento
considerable de las ventas de música grabada en casete. Las ventajas de los “Walkman” eran
que se podía llevar consigo fácilmente, permitían escuchar varias horas de música con unas
pilas e intercambiar fácilmente distintos casetes. Estos eran compactos para su capacidad,
resistentes y duraderos, no se estropeaban al llevarlos fuera del equipo por lo que la gente
fuera de su hogar podía escuchar música variada durante mucho tiempo. Estos equipos
portátiles cambiaron la forma de escuchar música ya que paso a individualizarse, los únicos
que podían escuchar los casetes eran los que llevaran los auriculares puestos. Los casetes
también se incorporaron a los sistemas de audio de los automóviles, soportaban las
vibraciones y permitía elegir la música que se quería escuchar algo que las radios no permitían
hacer.
Los cambios tecnológicos y las posibilidades de promoción de las radios modificaron el
poder de las mayores discográficas. A finales de los ´60 las seis mayores eran: CBS, Warner
Brothers Records, RCA Victor, Capitol-EMI, PolyGram y MCA. En este grupo vemos como a las
tradicionales se suman otras de orígenes diferentes. Por un lado está Warner Brothers
Records, que comenzó con el cine poniendo una banda sonora a las películas mudas y se
recuperaba tras el descenso de ventas previo a la II Guerra Mundial. Por otro lado están las
compañías surgidas de las emisoras de radio que habían sabido buscar nuevos músicos de
éxito, como CBS, RCA Victor, EMI-Capitol o MCA que crecieron más que las tradicionales
pudiendo adquirirlas. Y por último esta PolyGram, surgida de la unión de Philips y Siemens,
116
que eran sellos discográficos de menor tamaño, que con las ventas de casetes dieron el salto
para ser una de las principales discográficas. A mediados de los años ´70, las principales
discográficas variaron poco, las cinco principales eran: ABC, Warner, CBS, RCA, EMI y
PolyGram. La discográfica ABC procedía del mundo cinematográfico, como Warner, pero tras
uno tiempo sin tener artistas de éxito fue vendida a MCA, por lo que a finales de los ´70 las
principales eran: CBS, EMI, Warner, Polygram y MCA. La visión para ofrecer discos con los
nuevos géneros musicales que surgieron durante esos años, como el Pop, Disco, Rap o Punk,
fueron imprescindibles para mantener las ventas y, por tanto, el domino del mercado.
Una de las características de los casetes era la posibilidad de realizar grabaciones
caseras que no tenían los discos de vinilo, se recuperaron tras la desaparición de soportes
como los cilindros de fonógrafo. El bajo coste de los soportes de grabación, los casetes, y de
los equipos de grabación, las pletinas, unido a la facilidad para hacer grabaciones de larga
duración, resistentes y con una alta calidad del sonido facilitaron su implantación y éxito tanto
en países fuertes económicamente como en los menos desarrollados. Al margen de las
grandes discográficas, surgió un mercado alternativo en el que las cintas de casete se vendían
grabadas de forma artesanal con nuevos grupos y géneros musicales, con contenido
informático, educativo e incluso con discursos de líderes políticos o religiosos. Poder vender
cintas con el contenido propio era sencillo debido su bajo coste y la simplicidad para realizar
los duplicados, los propios músicos o pequeñas discográficas independientes podían editar sus
propias grabaciones con un coste muy bajo, algo que no era posible con los vinilos ya que
necesitaban de un proceso de grabación más complejo. Los casetes fueron el soporte para la
difusión de nuevos géneros y grupos musicales además de otro tipo de contenido, el formato
triunfo cambiando la forma de oír y almacenar la música.
La posibilidad de realizar las grabaciones caseras permitió a los usuarios realizar sus
propias cintas. Los equipos reproductores de casete fueron incorporando nuevas funciones
como grabar la radio o, al añadir la segunda pletina, leer una cinta y copiar lo que el contenido
en una cinta vacía obteniendo un duplicado con una calidad de sonido casi igual que la original.
Esta función podría considerarse como el principio de la “piratería” o copia no autorizada, el
propietario de la música no recibía dinero por las canciones. En las casetes, la calidad de la
grabación de la copia era casi igual al original, no como en los cilindros de fonógrafo. Pronto
surgieron nuevos usos a la función de grabación y a las mejoras en la tecnología, se grababan
las canciones de la radio, en lugar de comprar los casetes originales, o se copiaban las cintas
originales, una persona compraba la cinta y realizará duplicados en cintas vírgenes para
llevarlas en el coche, el “walkman” o daba una copia del original a familiares y amigos. Las
117
ventas no se resintieron, las copias no supusieron un problema debido a que cada duplicado
perdía algo de calidad con respecto al original.
Al final de la década de los ´70 las principales discográficas eran: CBS, EMI, Warner,
PolyGram y MCA. Los efectos de la difusión de la música en radio o TV y la venta de los nuevos
soportes, los casetes, se dejaron notar. Las discográficas tradicionales se vieron superadas por
aquellas que controlaban los medios donde sonaba la música como la radio, el cine o la
televisión (CBS y Warner) o por aquellas que fueron las primeras en editar la música en los
nuevos soportes, los casetes, como PolyGram que estaba participada por Philips. A lo largo de
la década de los ´80 las ventas de casetes siguieron aumentando en detrimento de las de
discos de vinilo.
Los fabricantes de equipos buscaban un sonido perfecto, una calidad del audio que
tanto los discos como los casetes no podían ofrecer debido a su sensibilidad ante cualquier
tipo de imperfección física en los soportes, cualquier arañazo o mota de polvo afectaban al
sonido. Por ello los fabricantes de electrónica Sony y Philips se unieron para investigar posibles
soluciones, de esta colaboración surgió el Compact Disc o CD en el año 1981. Fue otra
revolución para el mundo de la música y, más adelante, para otros sectores como la
informática. La música pasaba de grabarse de forma analógica a grabarse digitalmente. Hasta
ese momento, los soportes eran analógicos, la señal se escribía en los discos en un surco y un
transductor se encargaba de transformar el movimiento físico de la aguja en ondas sonaras o,
en los casetes, el cabezal electromagnético leía el campo magnético de las cintas de casete
transformando la señal eléctrica resultante en sonido. En ambos soportes se incluían partes no
deseadas, ruido, que afectaban a la calidad y fidelidad del sonido. Con el CD esto cambio, el
sonido, una señal analógica se convertía a digital, es decir, a unos y ceros, el ruido se podía
eliminar y siempre sonaba exactamente igual que cuando se grabó o que el disco maestro del
que se sacaban las copias. El CD busco tener el mismo tamaño de bolsillo que tanto éxito dio a
Sony en la radio de transistores y el “Walkman”, simplificaba el soporte físico donde almacenar
la música y, por tanto, abarataba el coste. El Compact Disc estaba hecho de compuesto
plástico que se podía estampar como los discos de vinilos, algo que facilitaba su producción en
masa e incorporaba métodos de corrección de errores para que no le afectara la suciedad, las
motas de polvo o las huellas dactilares. En el casete, la cinta debía pasar por el cabezal
desenrollándose de un cilindro y enrollándose en otro, eran partes móviles susceptibles a
arañazos, roturas o enredos que durante el proceso de grabación debían recorrerse por
completo. Al igual que los otros soportes, pese a comenzar a venderse en el año 1982, hasta
principios de los años ´90 no fue el soporte mayoritario, los equipos reproductores no eran
118
baratos en esos primeros años y la música disponible era mucho menor que en el resto de
formatos. Y de nuevo, los usuarios perdían la capacidad de realizar grabaciones caseras de una
forma sencilla.
Los éxitos de ventas de casetes y los equipos reproductores, como el Walkman, unidos
al nuevo formato, el Compact Disc, provocaron cambios en las discográficas. A finales de los
´80 las principales era: Sony, Warner, PolyGram, BMG, EMI y MCA. El éxito en la venta de los
soportes y los equipos reproductores permitió a Sony comprar otras compañías discográficas,
como Columbia en 1987, para hacerse una de las más importantes del mundo. Esas compras le
permitieron estar en las dos partes principales del negocio de la música: la venta y promoción
de discos y la venta de reproductores y soportes en los que se escuchaban esa música. Con
PolyGram sucedió lo mismo que con Sony, las ventas de música, soportes y reproductores le
permitían adquirir otras discográficas y añadir a su catálogo otros géneros. Como sucedió en la
década anterior, a los grupos de comunicación les interesaba el mercado por lo que Time se
fusiono con Warner dando lugar a una discográfica aún mayor. Y las discográficas tradicionales
como EMI o MCA, dado el éxito de las ventas, seguían vendiendo y añadiendo nuevos artistas,
géneros musicales y pequeñas discográficas.
Durante la década de los ´90 la hegemonía del casete acabo, la digitalización de la
música se impuso. En el año 1992, 10 años después de iniciar su comercialización, el CD supero
en ventas al casete, los álbumes se editaban en los dos formatos pero los clientes preferían la
calidad del sonido de los CD. Los discos de vinilo, con ventas cada vez menores debidas al éxito
de los otros soportes, quedaron relegados a grupos de clientes minoritarios que buscaban algo
distinto en el formato, algo como la calidez del sonido de la que carecían los CD. Para devolver
la capacidad de poder realizar sus propias grabaciones, Sony desarrollo y comercializo un
nuevo soporte: el Minidisc. Era un disco óptico protegido por una carcasa plástica similar a un
CD, pero con un tamaño menor, calidad similar y, de nuevo, incluía la opción de poder grabar
los discos, pero no tuvo éxito. Sony y otras empresas intentaron introducir nuevos soportes
para vender la música grabada como el Minidisc o el Super Audio CD, pero la popularidad del
CD hizo imposible que ningún otro formato tuviera éxito ya que eran más caros y no aportaban
mejoras importantes, o al menos no tantas como para plantear la compra de nuevos discos de
música y equipos donde escucharlos.
A la vez que el CD se imponía como soporte musical más vendido, el número de
grandes compañías se reducía. A finales de los ´90 quedaban cuatro grandes discográficas:
Warner Music Group, EMI, Sony Music y Universal Media Group. De ellas ninguna tenía como
origen la música como tal. EMI es la que más se aproxima, en sus orígenes se dedicaban a la
119
fabricación de fonógrafos, gramófonos y, dado el éxito, a vender música pregrabada en los
soportes. Algo que con el tiempo abandonaría para centrarse solamente en la promoción y
venta de música en los soportes que demandaran los compradores. Las otras discográficas
entraron en el negocio de la música por el dinero que se movía. Sony accedió desde la venta
de transistores de radio, equipos reproductores de casete y CD y los soportes de estos. Warner
y Universal desde el sector audiovisual y de la comunicación, sus otros negocios les permitían
publicitar a los músicos e incrementar las ventas de sus discos.
A principios de los años ´90 se creó la Web, permitía acceder a la red Internet de una
forma más sencilla, accesible para gente no experta. Los ordenadores y la electrónica
incrementaban su capacidad de cálculo a la vez que reducían su tamaño y su precio. Una
familia de un país desarrollado podía adquirir uno, ya no era exclusivo de empresas y entraba
así en el hogar. Estos avances unidos a las mejoras en las redes de telecomunicaciones
cambiaron completamente el negocio de la música, como se verá en el siguiente capítulo.
La industria cinematográfica
El cine tuvo como precursores al teatro o los espectáculos de danza surgidos siglos
atrás. Para buscar el origen de cualquier actuación delante de público hay que remontarse a la
prehistoria, a los rituales de caza. A lo largo de los siglos esos rituales fueron evolucionando en
civilizaciones como la egipcia, griega o romana hasta llegar a lo que actualmente se puede ver
en un teatro o auditorio. El cine cogió del teatro a los actores y los decorados, pero faltaba una
forma de grabar sus representaciones. Hubo intentos años atrás, pero no fue posible
encontrar la manera de capturar y reproducir el movimiento usando medios mecánicos. La
falta de medios técnicos retraso la captura de imágenes hasta finales del siglo XIX. En el año
1895, los hermanos Lumière inventaron el cinematógrafo que podía filmar y proyectar
imágenes en movimiento. Poco antes Thomas Alva Edison inventó el kinescopio, pero sus
funciones limitadas impidieron que triunfara, pero junto con otros inventos de Edison sirvió a
los hermanos Lumière como inspiración. La posibilidad de realizar grabaciones de las funciones
y poder reproducir permitió que surgiera un nuevo tipo de creación artística, el cine.
Como con la música, una vez grabado no era necesario repetir la escena o que los
actores representaran una y otra vez una función, al reproducirla siempre era la misma. La
primera proyección tuvo lugar el 28 de diciembre de 1895 en París, Francia. Durante unos 20
minutos se mostraban varias escenas de la vida cotidiana grabadas uno de los hermanos
120
Lumière en las que aparecían sus amigos y familiares. A pesar de la importancia que llegaría a
tener, el cine se consideraba como atracción menor, un espectáculo de feria. No se
comprendieron las posibilidades que el cine ofrecía hasta que George Méliès mostró la obra
“Viaje a la luna” en 1902, unos efectos especiales bastante elementales para lo que se ve
actualmente en el cine pero que inspiraron a otros realizadores. La popularidad iba en
aumento y los espectadores pagaban por ver las proyecciones, por lo que durante la primera
década de 1900 surgieran pequeños estudios de cine que realizaban películas de pocos
minutos sin sonido de pocos minutos con argumentos no muy complejos en los que el
decorado y el vestuario eran bastante simples. Las películas carecían de sonido por lo que era
necesario que en las proyecciones hubiera alguien para interpretar la música o los efectos
sonoros. Surgió un nuevo negocio en el que los dueños de los estudios cobraban a los
espectadores por ver sus grabaciones y, también, por las partituras de las canciones que se
interpretaban durante la proyección para acompañar a las imágenes, pero estas no eran
siempre originales. Muchas películas se basaban en obras teatrales o novelas con derechos de
autor por lo que las disputas judiciales por los derechos de autor eran frecuentes. Lo mismo
ocurrió con la música, las partituras usadas no eran compuestas en exclusiva para las
proyecciones por lo que sus autores también reclamaban sus derechos.
En Europa, las principales empresas cinematográficas eran francesas (Gaumont, Pathé)
e italianas (Itala Films) dominaron el mercado mundial hasta la Primera Guerra Mundial (1914)
momento en el que la industria cinematográfica de Estados Unidos tomo el relevo. En Estados
Unidos, el cine tuvo un éxito mayor que en Europa debido a que la mayoría del país eran
inmigrantes que desconocían el idioma o eran analfabetos. La lectura o las funciones teatrales
no eran una opción de entretenimiento para los recién llegados ya que no podían entender las
obras, esto hizo que el cine mudo fuera la primera opción para pasar los ratos de ocio. El cine
llegó a los Estados Unidos con problemas de patentes debido las similitudes entre el
cinematógrafo de los hermanos Lumière, el kinescopio de Edison y otras copias no autorizadas
de ambos que fueron objeto de distintas disputas legales iniciadas por Edison. Al ver la
importancia que iba a tener intentó obtener el control sobre los derechos de explotación de
cinematógrafo en los Estados Unidos, fundando en 1908 Motion Picture Patents Company
(MPPC), también conocida como Edison Trust, que fue disuelta en 1912 al considerarse ilegal.
Los pleitos provocaron que los productores de cine se fueran de Nueva York a Hollywood, al
oeste de los Estados Unidos. Allí había unas condiciones ideales: muchos días soleados durante
todo el año, variedad de localizaciones exteriores y cercanía con la frontera mejicana para
escapar si alguna de las demandas prosperaba.
121
A principios de la década de 1910, los principales estudios cinematográficos se
establecieron en Hollywood: Fox, Metro Goldwyn Mayer, Paramount Pictures y Universal.
Estas empresas veían el cine como un negocio en el que el dinero era lo más importante, una
visión distinta a la de Europa en la que la parte artística se tenía más en cuenta. Esta visión
comercial provoco que además de producir las películas los estudios buscaban tener el control
total del todo el proceso: salas de proyección, directores y actores. Sus salas de proyección
eran exclusivas sus películas y no podían proyectar las del resto, los contratos firmados con los
actores eran abusivos y las cláusulas permitían que los estudios intercambiarlos como si fueran
materiales de grabación. Estas condiciones provocaron que los actores y directores de mayor
éxito, como Charles Chaplin, fundaran United Artist en donde al menos los actores eran una
parte importante de la industria y no algo que se podía prestar sin consultarle.
Durante los años ´20, debido a la Primera Guerra Mundial en Europa, los Estados
Unidos pasaron a ser los primeros productores de cine mundial sustituyendo a Europa. En
1926, los estudios Warner Brothers apostaron por el cine sonoro para superar un periodo de
crisis, consiguiendo el primer éxito del cine sonoro en 1927 con “The Jazz Singer” que les
permitió crecer para convertirse en una de los grandes estudios. Tras Warner, el resto de
estudios se aventuró con el cine sonoro, el diálogo o la banda sonora pasaron a ser una parte
importante de la película. Poco a poco, el cine mudo fue pasando a un segundo plano frente al
empuje de las películas sonoras. Estos cambios hicieron que los actores con talento musical
tuvieran carreras paralelas en el cine y en la música, como se vio en el anterior apartado. Los
sellos discográficos surgidos de los estudios de cine fueron importantes en la industria
discográfica, continuaba así el interés de los estudios en controlar todos los aspectos
relacionados con sus películas desde la grabación a la exhibición. Las películas sonoras tenían
la ventaja de que la banda sonora estaban relacionadas, por lo que las ventas y promoción de
uno beneficiaban al otro, aumentando así los ingresos de los estudios.
Con la inclusión el sonido comenzó “La Edad de Oro de Hollywood” que duraría hasta
finales de la década de los años ´40. Los grandes estudios de Hollywood apostaron por
sonorizar las películas y contaron con el apoyo de los espectadores, esto consolido su posición
con una cuota de mercado cercana al 95-96% que dejaba un porcentaje marginal al resto de
estudios independientes. Los grandes estudios eran cinco: Loew/MGM, Paramount, 20th
Century Fox, Warner Brothers y RKO. Tenían en común que cada una era propietaria de los
estudios donde rodaban sus películas, controlaban la distribución con una importante cantidad
de cines propios donde solo exhibían sus propias producciones y tenían una cartera
importante de actores, directores y personal relacionado con el cine. Con un tamaño menor
122
pero con una estructura similar estaban los estudios Universal y Columbia, que contaban con
menos salas de proyección donde exhibir sus cintas. Y el último estudio importante era United
Artist, que contaba con instalaciones para los rodajes pero menos salas donde proyectar las
películas. Su forma de rodar era distinta al resto, prestaba dinero a productores
independientes para que hicieran sus películas en lugar de estar contratados
permanentemente por el estudio. Los pequeños estudios independientes y el personal que
estaba en las salas para poner el sonido a las películas mudas no lo tuvieron fácil. El cine mudo
tenía cada vez menos espectadores y el coste del equipamiento era demasiado alto para que
los pequeños estudios pudieran adquirir lo necesario para sonorizar sus películas. El personal,
que desde el comienzo del cine había estado en las salas para narrar o poner la banda sonora,
vio cómo su trabajo ya no era necesario. Algo similar les ocurrió a los actores y directores de
cine mudo, los que no supieron adaptarse a los cambios vieron como sus carreras se acababan.
La Segunda Guerra Mundial (1939-1945) trajo un cambio en los guiones de Hollywood,
proliferaban las películas patrióticas o de propaganda. Se aprovechaba la popularidad del cine
para que el mensaje llegara al público, tras Guerra la temática volvió a cambiar, el estado de
desconfianza de Guerra Fría también llegó al cine e hizo que algunos actores, directores y
escritores tuvieran que salir del país rumbo a Europa por motivos políticos. El mayor problema
con el que se enfrentaron los grandes estudios fueron las demandas por monopolio, como el
de los Estados Unidos contra Paramount Pictures. Las salas de cine, al pertenecer a los
estudios, no podían proyectar otras películas que no fueran las suyas lo que impedía la libre
competencia. En 1948, los tribunales federales de justicia obligaron a los estudios a
deshacerse de sus salas de cines para favorecer la competencia y permitir que las del resto de
estudios de menor tamaño pudieran llegar a proyectarse. En la década de los ´50, los cambios
en la temática de las películas, la huida a Europa de algunas estrellas y la creciente popularidad
de la televisión hicieron que Hollywood sufriera una grave crisis que traería el fin de su Edad de
Oro. La bajada de espectadores obligo al cierre de algunas salas, los estudios recaudaban
menos lo que hacía que tuvieran menos dinero para producir nuevas películas y los
informativos, películas y series que se emitían en televisión cada vez atraían a más audiencia.
Para contrarrestar el efecto de la televisión, los estudios cinematográficos buscaron nuevas
maneras de atraer a los espectadores a las salas, usaban la televisión para promocionar sus
mejores películas y tecnologías como el cinemascope o el cinerama que permitían
proyecciones en pantallas más grandes. También olvidaron los temas propagandísticos y
volvieron a retomar las películas de temática épica basadas en hechos históricos o en la biblia,
como Los diez mandamientos (1956), Ben-Hur (1959), Espartaco (1960) o El Cid (1961). Los
123
estudios también probaron otras técnicas de grabación como las tres dimensiones (3-D) pero
fue una moda pasajera que apenas tuvo éxito, duro de 1952 a 1954.
El ocaso de Hollywood supuso un impulso para el resto de estudios del mundo, sobre
todo en Europa. A pesar de todos los esfuerzos, durante los años ´60 en Hollywood cada vez
producían menos películas mientras que en otras regiones de Asia o Europa cada vez eran
más. En Europa también surgieron zonas como Hollywood, con estudios y variedad de
localizaciones, en Reino Unido estaba Pinewood y en Italia, Cinecittá. Además de estos grandes
estudios, otros productores y empresas de producción independiente en otros países, como
Francia, consiguieron hacer cine distinto al de Hollywood. Las películas no seguían los modelos
de producción de los grandes estudios estadounidenses, innovaron con las historias y con la
forma de contarlas sin buscar premeditadamente un éxito de taquilla. Se trataban temas tabú
de Hollywood como la violencia o el erotismo, no permitidos debido al código de producción
por el que se regían los guiones en los Estados Unidos. Hasta finales de esta década el cine de
Hollywood no evoluciono, se comenzó a producir un cine similar al europeo incluyendo en las
películas los temas hasta el momento prohibidos. Con este cambio surgió el “Nuevo
Hollywood” donde los directores y actores eran cada vez más importantes a la hora de contar
las historias bajos su punto de vista donde se mostraban escenas violentas o sexuales.
A pesar de los cambios, los grandes estudios de cine seguían teniendo la cuota
mayoritaria del mercado. Los estudios comenzaron a ser cuidadosos a la hora de elegir las
películas que producían y en las que invertían más dinero, seguía prevaleciendo la parte
económica frente a la artística. Con la idea de maximizar los beneficios, los grandes estudios
cambiaron su forma de hacer películas. Por un lado, había pocas películas con un presupuesto
alto pero que generaran muchos ingresos, lo que se conoce como un “blockbuster” o éxito de
taquilla. Buscaban una historia que atrajera a la mayor cantidad de público posible,
preferiblemente joven, y realizaban una enorme campaña de publicidad en los medios de
comunicación con el fin de conseguir que el mayor número de espectadores acudieran a las
salas. Y por otro lado, los grandes estudios comenzaron a aplicar el modelo que United Artist
utilizaba, donde se financiaba una película y ayudaban a su distribución, pero sin tener
contratado al personal necesario. Los grandes estudios se mantuvieron a excepción de RKO
que a finales de los ´60 se disolvió debido a la mala gestión de su presidente, Howard Hughes.
Su puesto, debido al éxito de forma de producir, fue ocupado por United Artist. También se
produjo otro hecho importante cuando Decca Records, el sello discográfico, entre 1951 y 1952
adquirió una parte mayoritaria de Universal. Fue el primer estudio en ser adquirido por una no
relacionada con el cine. Al grupo de estudios más pequeños se unió Walt Disney Productions-
124
Buena Vista Film Distribution, que centraba su producción en el cine familiar y que obtuvo
grandes éxitos de taquilla desde 1930 lo que le permitió superar en cuota de mercado a otros
grandes estudios.
El comienzo de los ´70 fue difícil para los grandes estudios, la asistencia al cine llegó a
su mínimo en esos años. Los estrenos anuales por estudio disminuían, pero siempre buscaban
que fuera el mayor éxito de taquilla posible. La promoción en medios de comunicación y la
reserva de multitud de salas de cine en el momento del estreno comenzaron a ser habituales,
buscaban la asistencia masiva a una película. En 1980 esta forma de producción tuvo
consecuencias desastrosas para United Artist que acabo arruinada y siendo comprada por
MGM debido a la película “Heaven´s Gate” (La puerta del cielo), que costó 44 millones de
dólares y apenas recaudó 3,5 millones. A finales de los ´80, los principales estudios eran
Paramount, Warner Brothers, Columbia, Universal, 20th Century Fox, MGA/United Artists y
Disney-Buena Vista que pasaron de 95% de cuota de mercado en la época dorada a apenas un
75%. Los grandes estudios, la mayor parte independientes desde su creación, pasaron a estar
bajo el control de los grandes grupos audiovisuales o empresas como Time Inc., CBS, News
Corporation o Coca-Cola. La mayor competencia permito que surgieran estudios
independientes o que partes de los estudios se separaran parcialmente para centrarse y
especializarse en un tipo de cine concreto.
Uno de los motivos de la cada vez menor asistencia a las salas de cine fue el
videograbador. Como ocurrió con la televisión dos décadas atrás, se popularizó una nueva
forma de ver cine sin salir de casa. Cada vez más hogares tenían uno debido a la bajada de
precios que sufrieron, podían grabar las imágenes y el sonido de señal de la televisión en unas
cintas. Donde se podía reproducir lo grabado sin imposiciones de horarios, parando,
avanzando o retrocediendo a conveniencia. A pesar de que existían desde la década de los ´50,
distintos fabricantes habían inventado y evolucionado distintos equipos pero no había un
estándar. No fue hasta los años ´70 cuando los principales fabricantes de videograbadores
(RCA, JVC, AMPEX, Matsushita, Sony y Toshiba) se unieron para definir unas características
comunes sobre las que fabricar equipos y soportes. En el año 1975 se presentó un primer
formato realmente destacable, el vídeo Betamax de Sony. Un año más tarde se presentó el
vídeo VHS (Video Home System) de JVC y en 1978 el Video2000 de Philips. De estos formatos
triunfo el VHS, no por la calidad de la imagen, que era superior en el Betamax, sino por el
precio de las cintas grabables y la duración de estas, que permitían almacenar varias horas,
sobre todo de eventos deportivos, con un coste menor que el resto.
125
A principios de la década de los ´80, según crecían las ventas de los videograbadores y
las cintas, la primera reacción de los estudios cinematográficos fue la de intentar prohibir su
venta ya que, según ellos, vulneraban sus derechos de Copyright. La gente podía grabar las
películas y programas que se emitían en televisión en las cintas que compraba y visionarlas
después sin su consentimiento, sin pagarles nada. Esta demanda de Walt Disney Productions y
de Universal City Studios contra los vídeos Betamax de Sony fue rechazada (10), no
consiguieron que se prohibiera la venta de los videograbadores ya que no había un fin
lucrativo por parte de los propietarios. La sentencia razonaba que no podían prohibir que los
televidentes grabaran algo les estaban permitiendo ver de forma gratuita para verlo más
tarde, siempre que esa grabación no tuviera ánimo de lucro. A pesar del revés que supuso esta
sentencia para los intereses de los estudios y del rechazo inicial que mostraron a esta
tecnología, el alquiler de películas pasó a ser una fuente de ingresos muy importante para la
industria del cine que complementaba a la taquilla. Los estudios encontraron una nueva forma
de explotar sus películas, por un lado los espectadores pagaban por al acudir al cine y, pasado
un tiempo, si les había gustado o no habían ido, tenían la opción de alquilar o comprar las
cintas de vídeo para verlas en su casa. El alquiler o venta de cintas de vídeo con sus películas
supuso unos ingresos adicionales que no habían previsto e incluso se comenzaron a vender
cintas que no pasaban por las salas de cine, se estrenaban directamente en vídeo. Los estudios
vieron una oportunidad de obtener nuevos ingresos con la que no habían contado y a pasar de
los obstáculos iniciales pronto comenzaron a aprovechar las posibilidades que tenían siendo
una nueva fuente de ingresos. La nueva forma de ver cine, que ahora contaba con el apoyo de
las productoras de cine, la comodidad de poder ver las películas, alquiladas o compradas, en
casa pausando la reproducción y eligiendo la hora junto con la posibilidad de poder grabar
supuso el impulso definitivo para las ventas del vídeo grabador. En esta lucha se impuso el VHS
al Betamax por su menor precio, tanto de equipos como de cintas, y la mayor capacidad para
grabar. Para evitar las copias no autorizadas de contenidos con Copyright se creó la tecnología
Macrovision que impedía el duplicado de un vídeo a otro, pero esto también impedía que las
nuevas películas protegidas pudieran verse en vídeos antiguos, que no estaban preparados y
obligaba a los propietarios que quisieran ver las cintas con Macrovision a adquirir uno nuevo
que fuera compatible.
Desde principios de los años ´90 hasta la actualidad, los grandes estudios han sufrido
múltiples cambios en sus estructuras, pero el hecho más importante es la perdida de
independencia. Desde que en 1985 el último gran estudio, 20th Century Fox, dejara de ser
independiente y pasará a manos de una gran empresa no hubo vuelta atrás. Los grandes
126
estudios pertenecían a grandes grupos que no habían formado parte de los inicios del cine. Los
estudios de 20th Century Fox pertenecen a News Corporation, un grupo empresarial
procedente del mundo editorial de Reino Unido y sus colonias que está formado por cadenas
de televisión, periódicos, editoriales, páginas web que dirige Rupert Murdoch. Warner
Brothers es ahora Time Warner, la empresa Time Inc. surgió de mundo editorial pero en
Estados Unidos, el grupo posee cadenas de televisión radio, publicidad y páginas web.
Columbia Pictures, después de esta bajo el control de la empresa Coca-Cola, paso a estar
dirigida por Sony, empresa surgida de la electrónica de consumo en el año 1946 que, con el
éxito de los transistores y sus posteriores aplicaciones, consiguió posicionarse en el mundo del
cine y, como vimos en el anterior capítulo, en el de la música con los beneficios obtenidos en la
venta de equipos y soportes audiovisuales. El estudio Paramount Pictures se encuentra
integrado dentro del grupo Viacom, este grupo fundado en los años ´70 que tuvo éxito en el
mundo de la televisión. Universal Studios pertenece al grupo Comcast, uno de los operadores
de telecomunicaciones más grandes de los Estados Unidos que proporciona servicios de
televisión e Internet por cable y posee cadenas de televisión. Y los estudios de la Metro-
Goldwyn-Mayer junto con United Artist pertenecen al grupo MGM Holdings Inc. que además
del cine posee activos en el mundo de la televisión. En resumen, los estudios de cine no
pudieron hacer frente a la popularización de la televisión, las cadenas de televisión fueron
creciendo y adquirieron los estudios de cine para asegurarse contenidos para sus canales.
Otras que entraron en el negocio del cine fueron las compañías de electrónica de
consumo. Al ver el éxito de ventas de los equipos y los soportes de VHS, traban de poner en el
mercado nuevos formatos como el VideoCD o el Laser Disc, pero sin éxito ya que no ofrecían
suficientes novedades a buen precio y carecían de un estándar común. Al igual que el paso del
casete al CD en la música, se buscaron otros soportes digitales en los que la calidad de la
imagen fuera mayor, se pudiera grabar durante más tiempo y las sucesivas reproducciones no
se estropearán la grabación. Los estudios de cine y los fabricantes buscaban una forma de
evitar las copias no autorizadas de las películas originales así como reducir los costes de
fabricación y de duplicado. Para todo esto, en 1995, las empresas Philips, Sony, Toshiba y
Panasonic inventaron y desarrollaron el DVD o Disco Versátil Digital. La información, como en
los CD de audio, se almacenaba de forma digital (unos y ceros) en un disco de plástico de 12
centímetros de diámetro en una fina capa metálica y que se podía leer ópticamente mediante
un láser. Las ventajas: no se estropeaba al leerlo varias veces, siempre se visionaba de la
misma forma sin degradarse, los discos eran mucho menos complejos que las cintas de vídeo,
se podían duplicar mediante estampación abaratando sus costes de fabricación, ocupaban
127
menos volumen con una calidad de imagen superior a la del VHS e incorporaban un sistema
anti-copia, CSS o Content Scrambling System, que era compatible con todos los reproductores
de DVD que se vendían. El problema era que, a pesar de las medidas de protección, en los
discos se almacenaba una copia digital del contenido que no tardó en ser leída.
Los DVD de vídeo solo podían ser leídos en reproductores de DVD o en ordenadores
personales con sistema operativo Windows o Mac debido a las normativas impuestas por los
fabricantes y propietarios de las películas. Los usuarios de ordenadores con sistema operativo
Unix/Linux no podían reproducir las películas en DVD que compraban, por lo que un grupo de
programadores comenzaron a buscar una solución a este problema. El 16 de Octubre de 1999,
consiguieron descifrar la protección de los DVD, acceder a la copia digital de la película que se
encontraba en el disco y copiar los ficheros de esta a un disco duro quitando todas las
protecciones que llevaba el disco original (11). Uno de los desarrolladores del software que
permitió esto fue un adolescente de 16 años de Noruega, Jon Lech Johansen. Los dueños del
material audiovisual, Asociación cinematográfica Estadounidense (MPAA) y Asociación de
control de copia del DVD (DVD-CCA), no tardaron en llevarlo ante la justicia de su país
acusándole de violación de Copyright, pero en 2003 negó ser el autor del código y fue absuelto
ya que consideraron que no había accedido ilegalmente a información de terceras personas
puesto que el DVD era de su propiedad y que las leyes del país permitían la copia privada para
uso personal, sin obtener beneficio económico. Pese al juicio y la demostración de fuerza por
parte de las partes interesadas, el programa seguía disponible y los estudios de cine vieron
como su sistema de protección anti-copia era anulado y se podía acceder a la copia digital de la
película que contenía el DVD.
A finales de los ´90 y principios de los ´00, el DVD fue aumentando sus ventas hasta
sustituir al VHS como soporte. Las ventajas para el consumidor eran más calidad de imagen y
sonido junto con unas funciones que el VHS no podía ofrecer: múltiples pistas de audio en
distintos idiomas, subtítulos, contenido extra de la película, acceso directo a partes de la
película sin avanzar o menor tamaño físico. Para las distribuidoras de las películas ofrecía la
posibilidad de volver a vender las películas de VHS remasterizadas o con contenido extra,
unificar versiones para distintos países debido a las múltiples pistas de audio y mayor
seguridad ante copias no autorizadas. Y por último, los fabricantes de electrónica, debido el
éxito y las ventajas del formato, fueron bajando el precio de los equipos reproductores
haciéndolos cada vez más baratos y, por tanto, más accesibles para la mayor parte de la
población que era menos reticente al cambio de equipos debido su bajo precio ya que los VHS
se sustituían sin esperar que se estropearan. Al igual que el VHS, el DVD permitía grabar las
128
emisiones de la TV o de otras fuentes hasta 5 horas. Los problemas no vinieron en los
reproductores incompatibles, como VHS, Betamax o Video2000, las compañías de electrónicas
respetaron la elección debido a la experiencia anterior. Las incompatibilidades entre discos
solo aparecía al grabar, había dos tipos de discos grabables (+R y –R) y hasta tres de
regrabables (-RW, +RW y –RAM). Cada formato procedía de un fabricante y solo valía para los
equipos compatibles de su marca o empresas asociadas.
Desde la aparición de los videograbadores, los avances en tecnología permitieron
miniaturizar hasta conseguir videocámaras portátiles que podían ser manejadas por cualquier
persona para realizar su propia grabación. Las cámaras y los soportes de grabación tenían un
coste relativamente bajo y con una calidad, algo menor que las profesionales, era suficiente
para grabar una película con una calidad suficiente que supieron aprovechas las productoras
independientes y los que comenzaban para realizar películas de bajo presupuesto. El paso del
formato analógico al digital junto con los avances en electrónica e informática permitieron
aumentar la calidad de las videocámaras y, por tanto, de las grabaciones que estas hacían.
Usando estas grabaciones digitales, ordenadores personales, software específico e Internet se
podían conseguir resultados cada vez más profesionales y cercanos a los de los estudios con un
coste relativamente bajo en menor tiempo y con una difusión enorme e inmediata si se usaba
Internet. Pero estos avances no solo sirvieron para realizar películas de bajo presupuesto sin
contar con el apoyo de un estudio de cine, también se usaron para realizar copias no
autorizadas de las películas de los grandes estudios. Usando un ordenador personal se podían
duplicar películas con una calidad igual o casi igual con un tamaño menor que permitía una
rápida distribución usando Internet. Como veremos en el siguiente tema, el soporte físico
donde se almacenaba la película pasó a ser prescindible, ahora no era necesario grabar una
cinta de vídeo o un DVD. En un fichero de ordenador, un conjunto de ceros y unos con una
estructura definida, se podía almacenar y enviar por Internet cualquier tipo de grabación
audiovisual. Una película podía estar disponible antes en Internet que en las salas de cine de
un país. La grabación no autorizada tenia peor calidad, pero no había desplazarse hasta el cine
y, sobre todo, no había que pagar la entrada.
Con el fin de volver a atraer a los espectadores a las salas, los estudios comenzaron a
introducir tecnología en las películas. Con los avances en la electrónica y los ordenadores se
podía grabar las películas en formato digital directamente con cámaras que prescindían de la
película o convertir las películas a digital para que así llegaran con una calidad de imagen no
vista antes en los cines y los DVD. Por otro lado, la potencia de cálculo de los ordenadores
aumentaba año a año y los programas permitían añadir efectos especiales, personajes, retocar
129
escenas o hacer películas completas con un aspecto completamente realista. Se pudieron
hacer películas que antes no habían sido posibles rodar debido a la falta de medios o a la
complejidad de las maquetas necesarias. Los avances en las cámaras, la tecnología de
grabación y de proyección de finales de la década del ´00 permitieron llevar a las salas de
proyección las tres dimensiones, como ocurrió a principios de los años ´50, se buscaba atraer
de nuevo a las salas a los espectadores ofreciéndoles algo que no podían tener en casa. Con la
película “Avatar”, de James Cameron, se consiguió que el público mostrara interés y acudiera a
las salas, pero el resto de películas no lo consiguieron debido al mayor precio de la entrada y a
que las películas modificaban su guión para usar las tres dimensiones sin aportar nada al guión
respecto a una película normal. Las películas no mejoraban con las tres dimensiones si los
guiones no acompañaban, podían atraer al público amante de los efectos especiales que no
buscaba una buena historia pero no al resto. Lo mismo ocurre con la moda de reestrenar
películas haciéndolas aptas para reproducirlas en tres dimensiones, la tecnología no aporta
nada a la historia salvo para un grupo de gente concreta.
En un nuevo intento por volver al soporte físico, los estudios y las compañías de
electrónica lanzaron nuevos reproductores, grabadores y soportes físicos en 2006 con más
calidad y capacidad que el DVD y con nuevas protecciones anti-copia. Como ocurrió con el
videograbador, no hubo acuerdo y lanzaron dos formatos incompatibles entre sí, el BluRay y el
HD-DVD. Al formato BluRay lo apoyaban las empresas de electrónica Sony, Hitachi, LG,
Panasonic, Pioneer, Philips, Samsung, Sharp, Thomson y otras compañías de informática y
electrónica de consumo junto con los estudios de cine Columbia Pictures, Walt Disney Pictures
y 20th Century Fox. Al HD-DVD lo apoyaba las empresas de electrónica Toshiba, NEC, Sanyo y
otras empresas de electrónica e informática junto con los estudios de cine Paramount Pictures,
Universal Studios y Warner Brothers. Los estudios de cine, en perjuicio para el consumidor,
solo editaban sus títulos en el formato al que apoyaban por lo que había que decidir según
quien hacia la película que reproductor comprar. Esta batalla duro hasta principios de 2008,
Warner Brothers anuncio que a mediados de ese año dejaría el formato HD-DVD para publicar
solo en BluRay. Esta decisión dejo a los propietarios de equipos de HD-DVD con unos equipos
que no les servirían de nada ya que no tendrían nuevos títulos, si querían poder ver los nuevos
tendría que comprarse un reproductor de BluRay. Esta batalla, además de perjudicar a los
clientes y a los estudios, no consiguió evitar la copia no autorizada el sistema anti-copia tardó
menos de un año en ser anulado. El precio de los reproductores y de las películas de BluRay
fue disminuyendo con el tiempo pero no lo suficientemente rápido, además la batalla de
formatos dejo a muchos clientes abandonados que tendrían más reparos en cambiar de nuevo
130
de formato. Los que optaron por un reproductor HD-DVD fueron abandonados por los estudios
sin nuevos títulos, unido el empuje de Internet y al abandono de los espectadores del formato
físico no ayudaron a incrementar las ventas de películas originales en el nuevo formato físico,
el BluRay.
En los últimos años se viene hablando de una crisis en el mundo del cine, en la que se
responsabiliza mayoritariamente a Internet y al uso que le dan los espectadores. Este tema
que trataremos en el siguiente capítulo, pero también se aprecia una crisis creativa en la que
películas o series de hace años se vuelven a grabar con nuevos actores y efectos especiales, o
donde las secuelas de películas exitosas predominan sobre las películas con historias y guiones
originales. Debido al riesgo económico que supone una baja recaudación, los estudios
prefieren poner gran parte de su presupuesto anual a ese tipo películas para asegurar una
recaudación que cubra el coste y de beneficios. Si analizamos la recaudación, de las diez
películas más taquilleras de la historia de los Estados Unidos hay 6 (o 7 si contamos una de
1999) que se han estrenado en los últimos diez años (12). De esas 10 películas, son secuelas,
han tenido o van a tener secuelas hasta 8 de ellas, la otra, “Titanic”, se volvió a estrenar en tres
dimensiones en 2012 y solo ha habido una que no ha tenido secuelas o no se piensa volver a
grabar, E.T. (El extraterrestre, 1982). Pero si analizamos la recaudación mundial (13), de las 10
con más recaudación 9 se estrenaron a partir del año 2000 y otra en 1997. De estas 10
películas, todas han tenido o van a tener secuelas, se basan en películas ya estrenadas con
anterioridad o se han vuelto a estrenar en tres dimensiones. Los estudios de cine y su forma de
producir películas han conseguido aumentar su recaudación pero solo en unos pocos estrenos
de cada año, llevándose la mayor parte de la taquilla anual con segundas o terceras partes de
películas ya estrenadas o volviendo a grabar el mismo guión con otro director y otros actores.
No solo debe culparse en exclusiva a Internet del descenso de espectadores. Por una
parte están las historias, los aficionados al cine rechazan volver a ver la misma historia, una
continuación de algo que no le gusto o guiones con una estructura predefinida en los que se
sabe lo que va a ocurrir a lo largo de la película. También hay un cambio en la forma de ver
cine, la crisis económica, el desempleo, los trabajos con horarios más extensos dejan cada vez
menos tiempo y dinero que dedicar al ocio. Los espectadores, al disponer de menos dinero y
tiempo, prefieren reproducir las películas desde sus grandes pantallas con sistemas de
altavoces con sonido envolvente eligiendo horario, sin que nadie les moleste, sin tener que
sufrir los atascos que se producen en los grandes centros comerciales. Muchas familias no
pueden asumir el coste de ir al cine semanal o mensualmente, es más económico ver una
131
película en casa que acudir al cine pagando varias entradas y con los gastos adicionales de la
comida, palomitas y bebida, o el transporte.
Las empresas editoriales y de prensa
Los comienzos de las empresas editoriales (14) están altamente relacionados con las
innovaciones técnicas que se produjeron en ciertos momentos de la historia como la escritura,
el papel y la impresión. Esas innovaciones provocaron cambios sociales, se pudo alfabetizar a
más personas haciendo que hubiera más innovaciones que facilitaban aún más la difusión de la
cultura. Antes de la invención de la escritura y del soporte para conservarla, la información
solo podía transmitirse por el boca a boca por lo era necesario estar cerca del maestro para
adquirir su sabiduría. Cuando los Sumerios inventaron la escritura, se cree que sobre el año
4000 a.C., su función no era la de difundir la información si no de conservar leyes, genealogías
o mandatos religiosos. Durante muchos siglos la escritura fue empleada para estos fines, pero
con paso del tiempo, los nuevos usos que se le dieron, entre ellos las transacciones
comerciales, se consiguió que se empleara en otros campos.
Junto con la escritura fue necesario tener un medio material en el que poder guardar
los símbolos de la escritura. Los más antiguos se cree que fueron las tablas de arcilla o de
piedra sobre el año 3.000 a.C., pero dada su fragilidad pudo haber otros que no se han
conservado. La evolución de la escritura con cada vez más información que almacenar, las
necesidades para consultarla de una forma cómoda y de que perdurara hizo necesaria la
búsqueda de otro tipo de materiales como la madera, los huesos, el bronce, los papiros o los
pergaminos hechos de piel de animal. Importaba que fuera fácil de fabricar, consultar,
transportar y que no se degradara con el uso o el paso del tiempo.
En los imperios de Egipto, Grecia, Roma o China la escritura y los materiales tuvieron
mucha importancia. En Grecia, se dieron los primeros pasos para que los libros fuera un
instrumento de comunicación práctico para el público en general, no solo para un
determinado grupo de personas. En Grecia y Roma, las conquistas ayudaron a que los libros
aumentaran en importancia para los intereses de los imperios, en los nuevos territorios se
construían bibliotecas por lo que era necesario que pudieran ser copiados y llevados hasta allí
de una forma sencilla. En Roma surgió el comercio de libros, los miembros de las clases altas
hicieron las primeras bibliotecas privadas usando esclavos como escribas. Para que pudieran
tener su copia, una persona leía el libro y unas decenas de esclavos hacían las copias. El uso de
132
esclavos abarato el coste permitiendo a personas con menos ingresos adquirir libros. Dada la
demanda los editores buscaban nuevos textos, el funcionamiento fue similar a las empresas
editoriales actuales. Los editores romanos asumían los riesgos de publicación, adelantaban el
dinero a los autores por los derechos de sus obras, elegían el formato, tamaño y precio de
cada edición de manera que fueran rentables.
En el nacimiento y expansión del Cristianismo los libros tuvieron un papel importante,
eran la única manera de llevar las enseñanzas hasta puntos alejados. Durante la Edad Media,
los monasterios fueron el refugio para proteger los libros de los ataques bárbaros. En este
periodo no se continuó con el comercio de los libros, los escribas hacían las copias solo para su
conservación o para que otros monasterios tuvieran las copias. Las bibliotecas de los
monasterios eran mucho más reducidas que en épocas pasadas, las grandes bibliotecas no
llegaban al millar de libros. Esto cambio en el Siglo XII, el nacimiento de las universidades
genero una gran demanda de libros lo que hizo que salieran de los monasterios. Los libros se
duplicaban varias veces en cada copia, los temas religiosos dejaron de ser los mayoritarios y se
volvió a comercializar con ellos fijando precios de venta y alquiler.
Entre los años 1450 y 1550, la imprenta produjo el mayor cambio en los libros. Aunque
se tienen datos de que se inventó muchos años antes en China, fue Johannes Gutenberg en
Alemania quien consiguió que tuviera éxito y de aquí se difundió el uso al resto del mundo.
Permitía realizar varias copias sin tener que escribir manualmente cada una de los ejemplares
a duplicar, usando un molde con letras individuales hechas de un material resistente, tinta,
papel y una prensa se obtenían tantas copias como fueran necesarias. Para dar una idea de la
repercusión que tuvo, antes de su invención había unos cuantos miles de libros en total en
todo el mundo, tras la invención y en apenas 50 años se llegó a unos 9 millones de ejemplares.
Los comienzos de las imprentas fueron bastante caóticos, no fue hasta el siglo XVI cuando se
comenzó a regular la producción de libros haciendo necesarios ciertos requisitos para poder
comercializar los libros, los impresores eran los dueños y fundadores del negocio, los
redactores, los editores y los que los comercializaban como libreros, las únicas partes que no
controlaban eran las de encuadernar o fabricar el papel. Viendo la repercusión que tenían los
libros, se comenzó a controlar el contenido de lo que se publica censurando aquello que no se
consideraba adecuado. Los gobernantes o la Iglesia, con la Inquisición, no permitían publicar
ciertos libros, bien por su contenido o por poner en riesgo su posición de poder.
Desde Alemania el negocio de la impresión se extendió a Europa. En Italia llegó sobre
1462-63 desde un monasterio que buscaba abaratar las copias, pero pronto se desligo de la
religión. Aldo Manucio, el mayor editor de su tiempo, comenzó a imprimir ediciones de bajo
133
coste, similares a las de bolsillo actual con más copias por edición, 1.000 copias frente a las 250
habituales, para abaratar lo máximo posible el precio. Dado el éxito de las ediciones Aldina
hubo muchos impresores que los copiaban sin pagar nada a Aldo o a sus autores. Francia,
gracias a su desarrollo cultural durante el Renacimiento, fue pronto el principal productor de
libros de Europa con ejemplares de bajo coste, similares a los de la editorial Aldina, y en 1539
fueron los primeros en establecer un código por el cual las imprentas no podían copiar los
textos que no fueran suyos, de los que no tuvieran los derechos de impresión. En Inglaterra,
escribanos, encuadernadores y libreros se asociaron para protegerse de la competencia que
hacia la imprenta y la Monarquía, para decidir lo que se publicaba, dio el control a esta
asociación. Era la encargada de tomar las decisiones, entorpeciendo mucho el libre comercio y
el desarrollo respecto a otros países de Europa. La asociación solo otorgaba permiso a las
imprentas eran miembros de la asociación, para ello debían pagar una cuota, a cada imprenta
que quisiera publicar un libro debía inscribirlo en un registro para ser el dueño durante un
cierto periodo de tiempo con el pago de otra cuota para que pudiera imprimir y venderlo, al
pertenecer temporalmente a la imprenta esta podía vender esos derechos a otras como de
cualquier propiedad. Fue el inicio de los derechos de autor, pero el coste del proceso y la
sumisión a la monarquía impidieron el desarrollo del libre comercio. Al resto de Europa fue
llegando poco tiempo después, sobre todo a las ciudades que contaban con universidades.
Entre 1550 y 1800 los cambios en la parte técnica de la imprenta fueron escasos, se
mejoró la calidad de los libros, tipografías, la encuadernación pero el proceso en sí apenas
sufrió cambios importantes. En la organización del negocio del libro si se produjeron cambios
importantes, en ese periodo se modernizo hacia una estructura similar a la que tenemos hoy
en día. El vendedor de libros asumió las funciones de edición, selección de los libros a publicar
y el riesgo financiero que implica la publicación de un libro, tanto si se vende bien como mal,
que antes eran del dueño de la imprenta. A lo largo de estos años, estas funciones se siguieron
repartiendo entre los editores y los autores. La lucha contra la censura en los libros y el
aumento en la venta de libros vinieron de la mano de la mayor alfabetización de las clases
medias, a mayor cultura más demanda de libros de más géneros y más económicos al ser las
ediciones de más ejemplares. En Europa las ciudades con universidades o las que tenían
centros religiosos impulsaban el negocio de los libros. En el caso de Inglaterra fue distinto, el
monopolio retrasó la difusión de los libros. La monarquía, con el fin de controlar lo que se
publicaba, en 1559 la Reina Isabel otorgó el control a la asociación “Stationers’ Company”
(Registro del Libro) en régimen de monopolio. Para publicar un libro o tener una imprenta era
necesario adquirir una licencia, pero esto no significaba que el texto pudiera venderse, podían
134
inspeccionar las instalaciones y confiscar y destruir cualquier texto que consideraran ofensivo
para la monarquía o la religión. De forma clandestina existían imprentas que luchaban contra
la censura publicando textos sin los permisos correspondientes. Los derechos de autor y de
propiedad de los libros de mayor éxito eran respetados, pero los derechos de publicación e
impresión se otorgaban de por vida y siempre iban a parar a manos de los más ricos. El que los
derechos en manos de unos pocos hicieron que Inglaterra estuviera en la cola de la producción
de libros en Europa, los costes de producción eran tan altos que dejaban muy poco margen a
los libreros y hacia que fuera un negocio poco rentable para las imprentas más pequeñas que
no podían hacerse con los textos de más éxito. Ese monopolio con los derechos en manos de
unas pocas empresas siguió funcionando hasta poco antes del año 1700 cuando se cerró esa
asociación, se puso fin a la manera de dar las licencias de las obras y al sistema de gremios,
pero se mantuvieron los derechos de autor.
En 1709, en Inglaterra se aprobó la Ley de Propiedad Intelectual para limitar los
privilegios que habían adquirido unos pocos y la piratería que había ocasionado la falta de
competencia. Se promulgo el Estatuto de Ana, por el cual los autores de las obras tenían
derecho a explotar sus obras y elegir la editorial con la que querían publicar. Al eliminar el
sistema anterior, el autor era reconocido como el titular de su obra y de los derechos de la
misma autorizando la reproducción de su obra al editor que considerara más beneficioso para
sus intereses. Todas estas modificaciones buscaban fomentar las artes literarias y artísticas,
pero dando al autor el poder de decir sobre su obra.
Durante el siglo XVIII se luchó por la libertad de pensamiento y de opinión, el
ciudadano podía hablar, escribir y publicar lo que considerara oportuno, pero teniendo como
límites la difamación, obscenidad o asuntos de seguridad para el país. El aumento en la
alfabetización de la población unida al todavía alto coste de los libros para cierta parte de la
misma hizo que durante el siglo XVIII aparecieran las primeras bibliotecas comerciales en las
que los libros se prestaban temporalmente por una cantidad menor que el coste del libro. En
los comienzos de las bibliotecas hubo quejas por parte de los editores y libreros ya que
consideraban que poder disponer de libros de esta manera haría que sus ventas disminuyeran
perjudicando su negocio seriamente, pero no fue así. Los lectores, al tener acceso a más libros
leían más y si les era posible lo adquirían si había sido de su gusto o alquilaban otro. La
demanda hizo que surgieran más bibliotecas, algunas móviles para las regiones alejadas de las
ciudades, o que las existentes tuvieran que comprar más ejemplares haciendo que las ventas
de los libreros y editores aumentaran en lugar de disminuir.
135
En el siglo XIX, los avances tecnológicos, como las máquinas de vapor, provocaron
cambios en la sociedad, hicieron que fabricar papel tuviera un coste menor y pudieran hacerse
libros más baratos para que los menos adinerados accedieran a ellos. Esto beneficio a los
editores anglosajones, pero perjudico a los franceses y alemanes que debido a su
especialización les fue más difícil adaptarse al mercado comercial. Debido al éxito de las
bibliotecas comerciales y al aumento de la educación surgieron las bibliotecas públicas
similares a las actuales donde eran las administraciones públicas las que adquirían y prestaban
los libros a los ciudadanos. Las mejoras en los medios de transporte permitieron que la
distribución mejorara y llegara a lugares más apartados en menor tiempo, como América. Pero
esto provoco otros problemas, los derechos de autor dependían de cada país por lo que los
libros recién llegados en barco desde Inglaterra a Estados Unidos se copiaban sin permiso en
las imprentas locales y vendían en poco tiempo, sin que el autor recibiera nada por esas
ventas. Además de este perjuicio para los autores de Inglaterra, los autores locales y las
empresas que vendían sus libros vieron como no podían competir con los precios menores de
esos libros copiados, las copias perjudicaban a la literatura escrita en Estados Unidos. Para
frenar la guerra de precios del comercio las librerías, la industria editorial quiso fijar un precio
mínimo, pero solo tuvo algo de éxito en Estados Unidos. Por otro lado, los problemas con los
derechos de autor entre países se fueron solucionando con la fundación de Sociedad General
de Autores (1884) en Inglaterra y la Liga de Autores (1912) en los Estados Unidos, estas
asociaciones estandarizaron los contratos y pagos de derechos a los autores para acabar con
las diferencias entre países. Además, con el Convenio de Berna para la Protección de las Obras
Literarias y Artísticas (1885) se fijaron los mínimos derechos de defensa internacional para
autores, los países firmantes se comprometían a defender a los autores extranjeros igual que a
los propios. Los derechos de las obras pertenecían al autor hasta 50 años después de la muerte
del autor, pasado ese tiempo la obra podía usarse sin el permiso del autor o sus herederos.
El siglo XX estuvo marcado por el desarrollo de la sociedad que elevo el nivel de vida
haciendo que la educación se generalizara para la mayoría de los habitantes de los países
desarrollados. La educación paso a ser pública y obligatoria, creando un nuevo negocio con los
libros de texto que permitió a muchas empresas dedicarse a elaborar y vender los libros
escolares. La tecnología existente permitía realizar ediciones de pocos libros a precios muy
asequibles, ya no era necesario grandes imprimir gran cantidad del mismo ejemplar para que
resultara económico, y comenzaron las ventas de libros por correo, suscripción o puerta a
puerta. La figura de los agentes literarios también apareció a comienzos de este siglo, los
autores tenían que contratar sus servicios para poder publicar sus obras. Los agentes eran los
136
encargados de buscar el talento y ofrecérselo a las editoriales para que lo publiquen
llevándose una parte de las ganancias, supuso un aumento en los costes pero el autor con
éxito conseguía más ingresos por las ventas de sus obras.
Durante la Primera Guerra Mundial, Europa sufrió una reducción de ventas debidas a
la pérdida de poder adquisitivo de las clases medias lo que afecto al negocio de los editores. En
Estados Unidos la clase media prosperaba pudiendo comprar más libros y asistir a las
universidades que también aumentaron su demanda. Pero no duro mucho, la Gran Depresión
en 1929, hizo que las ventas disminuyeran afectando tanto a Estados Unidos como a
Inglaterra, produciéndose muchas quiebras de empresas relacionadas. Los periódicos y las
editoriales, para evitar cerrar y deshacerse de los libros que no se habían vendido, comenzaron
a regalarlos por la compra de los periódicos o mediante cupones por varias la compra durante
varios días, esto enfureció a los libreros que vieron como sus ventas disminuyeron por estas
prácticas. Para aumentar las ventas se usó la publicidad, los libros pasaron a ser objetos que se
podían regalar en ocasiones especiales como en Navidad. Otras editoriales como Penguin en
Inglaterra, lanzaban ediciones de bolsillo de calidad con un precio muy reducido, se hacían
grandes tiradas por edición para reducir costes, asumiendo cierto riesgo financiero ya que el
libro podía venderse si no gustaba a los lectores. La estrategia de venta tuvo éxito y se empleó
en Estados Unidos. En la Segunda Guerra Mundial los libros se leían durante los periodos de
inactividad entre batallas por lo que las ventas no disminuyeron como en ocasiones anteriores.
Los países en guerra sufrieron la censura de los gobiernos y la falta de materiales para hacer
los libros. Por ello, las editoriales inglesas expandieron su negocio a Estados Unidos donde no
había estos problemas.
Tras la guerra, el interés por la lectura seguía en aumento y las pequeñas imprentas,
ante sus posibilidades de crecimiento, atrajeron el dinero de los inversores. Los avances
científicos y tecnológicos también ayudaron, por un lado desde 1945 hubo un gran crecimiento
en los conocimientos lo que aumento la demanda de libros en las universidades. Por otro lado,
los avances técnicos permitieron la impresión por fotocomposición, los libros en lugar de
hacerse letra a letra se hacían mediante fotos lo que permitía más rapidez y un diseño más
elaborado, y la fabricación de grandes maquinas que facilitaban la producción en masa de
calidad y bajo coste. Esto beneficio a los periódicos y a las ediciones de bolsillo de gran tirada,
pero perjudicaba a los nuevos autores que surgían que necesitaban tiradas más cortas para
darse a conocer. Todos estos avances facilitaron la edición de libros de bolsillo en otros países
menos desarrollados, las ediciones de unos 30.000 ejemplares se podían obtener con un coste
unitario bajo asumible incluso para África. Los editores compraban los derechos de obras de
137
éxito, los “best-sellers”, de otros países traduciéndolo si era necesario para ofrecer ediciones
de tapa dura o de bolsillo.
Un caso particular de la interacción de la innovación técnica y los cambios sociales que
la difusión de la cultura trajo fueron los periódicos de noticias, sobre todo durante el siglo XIX y
XX. Las noticias que ocurrían había que contarlas mientras estuvieran vigentes, por tanto la
inmediatez era imprescindible. Los orígenes de la prensa escrita hay que buscarlos en el
Imperio Romano, las autoridades repartían textos manuscritos con lo que consideraban
importante y adecuado para el público, es decir, censurando lo que no les interesaba que se
supiese. Desde el medievo las publicaciones periódicas fueron ganando importancia para
informar a los ciudadanos de lo que ocurría o lo que querían que supieran, pasaron por tres
fases: en la primera una publicación esporádica se hacía periódica, en la segunda revistas con
cierta regularidad de publicación necesitaban licencias para publicarse y eran susceptibles de
censura o al cierre y, por último, la fase en la que la censura directa desapareció, pero había un
control continuo mediante impuestos, licencias, sobornos y juicios contra aquello que no se
consideraba apto para que llegase a los lectores. Poco a poco la libertad de prensa fue
incluyéndose en las leyes de los países, permitía publicar noticias aunque no fueran favorables
para los dirigentes. El impulso definitivo para los periódicos llego a finales del siglo XVIII y
durante el siglo XIX, la tecnología mejoro las técnicas de impresión: los periódicos podían
maquetarse en menos tiempo y de manera mucho más sencilla para obtener las ediciones en
menos tiempo. Además, los avances en otros campos como la rapidez de los transportes y las
telecomunicaciones permitieron que su distribución fuera más rápida, esto era lo importante
en este tipo de publicación ya que si pasaba mucho tiempo las noticias perdían su valor. Dada
la brevedad en la vigencia de los artículos, los derechos de autor tenían sentido para proteger
el texto de su copia en otros periódicos pero no para que los autores recibieran dinero durante
un largo periodo de tiempo, como con las obras literarias. Los ingresos de los autores
proceden de las ventas de los ejemplares, la publicidad y los anuncios que se incluyen.
Los cambios que hemos visto han hecho que las empresas dedicadas a la edición de
libros que hay actualmente tengan todas unas estructuras similares, pero distintas a las de los
comienzos. Las dedicas a literatura tienen contacto con numerosos agentes literarios que les
hacen llegar obras de distintos autores que representa, leen, seleccionan lo que les interesa
publicar, contrata una imprenta para que hagan el libro, lo llevan a los puntos de distribución y
realizan una campaña publicitaria para promocionar y conseguir unas buenas ventas. También
se escogen las obras más vendidas de otros países, compran sus derechos, lo traducen si es
necesario y lo publican pagando al autor. Las editoriales de libros de texto para la educación
138
deben centrarse en los programas de estudios y revisar cuidadosamente los textos para que no
aparezcan errores, los autores no son tan importantes como la precisión de la información.
Actualmente las editoriales más importantes en todo el mundo son mayoritariamente
anglosajonas: HarperCollins, Random House, Simon & Schuster, Penguin Group, Macmillan
Publishers y Hachette, que es de origen francés. En el caso de los periódicos, los grandes
grupos de comunicación como Time Warner o News Corporation comenzaron su actividad con
la venta de diarios o libros para luego ir incorporando y diversificando su negocio con otros
medios de comunicación como la radio, televisión o Internet. Los más perjudicados con el paso
de los años han sido los dueños de las imprentas o los libreros. Han pasado a un segundo
plano, de ser los primeros editores a ser contratados para realizar tantas copias de libros con
las editoriales deciden o a simplemente ser el lugar se venden los libros que las editoriales
deciden publicitar con más agresividad y mayoritariamente con poco poder de decisión para
elegir lo que quieren vender.
A lo largo de este apartado, los autores han ido adquiriendo el control de sus obras,
sus derechos se han impuesto al caos inicial que la edición de libros causó. Se pasó de copiar
sin permiso y sin que los beneficios de las ventas fueran a los autores a tener un sistema que
controlaba las reproducciones haciendo llegar ese dinero a sus autores. En este sistema, tenía
intermediarios como los editores, agentes, impresores o libreros pero al menos había
compensación por el trabajo y protección ante cualquier infracción. Poco a poco los autores
fueron librándose de limitaciones en los temas sobre los que podía escribir, la censura
impuesta por las personas más poderosas desapareció según la cultura se iba expandiendo. Las
nuevas técnicas aplicadas en el mundo editorial acabaron con muchos negocios y oficios, bien
por no ser necesarios o por quedar obsoletos. Algunos de estos oficios, como ocurrió en
Inglaterra cuando llego la imprenta, retrasaron el desarrollo del mundo editorial y de la
expansión de la cultura por no querer aceptar los cambios que se habían producido, el retraso
perjudico a los lectores pero solo pudieron retrasar los cambios que acabaron aplicándose.
Actualmente la mayor parte de los habitantes del planeta han conseguido con la
libertad de prensa obtener una información independiente y objetiva, algo que es importante
para saber si la democracia de ese país tiene buena salud. Pero esta libertad de prensa no se
tienen en todos los países, algunos bajo regímenes autoritarios siguen censurando la
información al pueblo. En el resto que si la tienen hay algunas limitaciones para evitar difamar
o causar problemas de seguridad, pero estas excepciones pueden usarse para ocultar otros
intereses políticos o económicos. Los escritores de estos países, a pesar de poder tratar el
139
tema que deseen, pueden sufrir presiones o amenazas si lo que escriben perjudica a gobiernos
o empresas, principalmente en temas económicos o políticos.
A lo largo de la historia la interacción de la innovación técnica y el cambio social han
ido de la mano. El descubrimiento y expansión de Internet está cambiando el negocio de las
editoriales, imprentas, librerías y la sociedad en su conjunto. Las redes de comunicaciones de
alta capacidad y los dispositivos electrónicos que permiten conectarse a Internet desde
cualquier lugar permiten a cualquier persona publicar y que esté disponible desde ese
momento en cualquier lugar y para cualquier persona que desee leerlo. Como se verá en el
siguiente las personas han cambiado o están cambiando sus costumbres y la manera de
acceder a la información y leer. El proceso de producción de los libros y periódicos ha llegado
hasta nuestros días con pocas variaciones, pero su futuro no está claro ya que Internet y los
dispositivos de lectura como libros de tinta electrónica o tabletas amenazan al formato de
papel. Los cambios han dado mayor libertad de expresión ya que no es posible censurar a cada
una de las personas que escriben de inmediato, pero amenazan los negocios de editoriales,
periódicos y los derechos de autor. Actualmente impera la desorganización, similar a la que se
produjo cuando la imprenta se puso en marcha, donde las copias ilegales no pagan al autor o a
los dueños de los negocios. Los sitios donde distribuir el contenido que antes se vendía
físicamente no existen o acaban de comenzar a funcionar mientras que los no autorizados
llevan años funcionando y han evolucionado aprovechando los avances tecnológicos como
veremos en el siguiente capítulo.
140
141
Capítulo 7: La tecnología y los derechos de autor
142
143
Electrónica de consumo
Las máquinas como la imprenta, el cinematógrafo o el fonógrafo podrían considerarse
el origen de la electrónica de consumo actual. Su aparición provoco cambios en la sociedad,
acerco el teatro, la música y los libros hasta los hogares. Ante el éxito y el dinero que
generaban se aceleró la aparición de otros aparatos que los mejoraban, añadían nuevas
funciones dejando anticuado a todo lo anterior. Aunque estos inventos evolucionaron en el
tiempo de una forma más o menos rápida, no son comparables a los cambios que han
provocado los semiconductores y su aplicación a la electrónica. Por ejemplo, hasta que la
imprenta se perfeccionó pasaron varios siglos desde sus primeros prototipos, en la música de
los cilindros de gramófono a los discos de vinilo o a los casetes se tardaron varias décadas y
con el cine lo mismo. Actualmente los cambios en la tecnología electrónica se produce en
plazos de tiempo mucho más cortos, cuando un fabricante saca un producto ya está
desarrollado el producto que lo reemplazará meses después con alguna nueva función que
dejará obsoletos a los existentes.
Los avances en el campo de los semiconductores han hecho que los plazos entre
cambios de tecnologías sean de tan solo unos meses o, como mucho, años. Esta velocidad
provoca que equipos comprados hace poco tiempo y que todavía funcionan estén obsoletos al
carecer de ciertas características y especificaciones tecnológicas recién implantadas. Los
intereses económicos de los fabricantes de estos equipos buscan vender nuevos modelos un
poco mejores que los que están en el mercado cada poco tiempo. Los dispositivos en los que
los cambios se han producido de una manera más rápida han sido los ordenadores. En el año
1965 (15), el ingeniero Gordon E. Moore de la empresa Intel, el mayor fabricante mundial de
microprocesadores, formulo que el número de transistores de un microprocesador se
duplicaría cada año, aumentando sus prestaciones a la vez que reduce su precio. A pesar de
que no acertó con el periodo de tiempo en el que se duplicarían, años más tarde rectifico en
que el periodo en el que se doblarían sería cada 2 años, el resto sí que se ha ido cumpliendo
año a año hasta nuestros días. El mayor número de transistores ha permitido aumentar la
complejidad de los cálculos y operaciones que se podía realizar y disminuir el tiempo en que se
completaban. Los equipos han pasado de costar una importante cantidad de dinero y procesar
solo texto a ser asequible económicamente para cualquier persona y poder manejar imágenes,
audio y vídeo, es decir, tareas muchísimo más complejas.
Con la popularización de los ordenadores en la década de los ´80, los equipos
informáticos entraron en los hogares para quedarse como un electrodoméstico más. Su
144
manejo era mucho más sencillo, sobre todo con la incorporación de sistemas operativos con
una interfaz gráfica que permitía usar un ratón para hacer cualquier operación. No era
necesario escribir comandos de texto, complicados de recordar para los nuevos usuarios, para
que el ordenador funcionara solo había que mover el ratón y pulsar sobre lo que se quería
hacer. Año a año, los avances y periféricos permitían hacer nuevas cosas como imprimir en
papel los textos e imágenes que se generaran, reproducir sonidos, capturar fotos para usarlas
en el equipo o capturar y reproducir vídeos. Las nuevas funciones necesitaban procesadores
capaces de hacer más cálculos en menos tiempo, los equipos necesitaban ser sustituidos por
otros nuevos si se quería estar actualizado y obligaban a no dejar pasar más de 5 o 10 años
entre compras si se quería disponer de las nuevas funciones y poder ejecutar los programas de
software que iban surgiendo o conectar nuevos periféricos.
De forma paralela y gracias a las innovaciones electrónicas y la informática, las
industrias audiovisuales pudieron trabajar en formato digital y duplicar sus copias de una
forma más barata y sin degradación por uso. Convirtieron la música, fotos, vídeo y texto de un
formato analógico como los libros, casetes y cintas VHS a un formato digital en forma de bits,
unos y ceros. Los aparatos que permitían este cambio poco a poco disminuían su precio y
podían añadirse como periféricos a los ordenadores haciendo posible que cualquier usuario
pudiera trabajar con los formatos tradicionales en formato digital. Algunos de estos periféricos
fueron las tarjetas de sonido que permitían reproducir música en los ordenadores, los
escáneres que permitían digitalizar texto e imágenes, las cámaras de fotos y vídeo que
prescindían de carretes fotográficos o cintas, las unidades lectoras y grabadoras de discos de
CD, DVD o BluRay o las tarjetas y dispositivos digitalizadores de vídeo. Todos estos periféricos
unidos a cada vez un software más avanzado y a la mayor difusión de Internet posibilitaban
que cualquier usuario pudiera realizar trabajos con una calidad similar al que se podía
encontrar en las grandes empresas del sector audiovisual y darlo a conocer globalmente en
minutos.
Pero estos nuevos periféricos no siempre se usaban para originar nuevos contenidos,
también permitían copiar las obras protegidas con derechos de autor. Debido a que el tamaño
de los programas de software aumentaba, los ordenadores comenzaron a usar los Compact
Disc para almacenar programas y disminuir el número de discos magnéticos necesarios para
instalar un programa, en un solo CD cabía hasta 450 de esos discos. Gracias al éxito de los CD
musicales, a la inclusión periféricos como las tarjetas de sonido estéreo con calidad Hi-Fi y las
unidades lectoras de CD, los ordenadores se convirtieron en reproductores musicales con una
calidad similar a la de los tradicionales equipos de música de alta fidelidad. A principios de los
145
años ’90, junto con las unidades lectoras surgieron a un precio mucho mayor las unidades que
eran capaces de hacer discos de forma individual, las grabadoras de CD. Al principio su uso y su
precio hacían que sus compradores fueran mayoritariamente las empresas, lo usaban para
almacenar datos de copias de seguridad, pero la bajada de precio de las grabadoras y de los
discos grabables vírgenes facilitó que el precio de la copia de disco duplicado fuera menor que
el del original. Cada año que pasaba el precio de las grabadoras para ordenador y los soportes
vírgenes bajaba por lo que cada vez más usuarios adquirían una. Esta tecnología posibilitó que
los que tenían una copia original pudieran duplicarla para que el disco original no se
estropeara pudiéndolo llevar en el reproductor de CD del coche, en uno portátil o para
prestárselo a los conocidos. Pero también hubo otros usuarios que vieron un nuevo negocio y
comenzaron a vender las copias a un precio menor que los originales, obteniendo un beneficio
por el cada disco gracias al cada vez menor coste de los soportes vírgenes y a no tener que
pagar a los autores. En España, tras la copia puntual de algunos usuarios, surgieron grupos
organizados que comenzaron a duplicar discos de música con derechos de autor en masa que
vendían en la calle usando a inmigrantes ilegales, surgió el “top manta”. Cualquier persona que
anduviera por la calle de una gran ciudad podía comprar discos sin tener que comprar el
original ni un ordenador, solo era necesario un reproductor de CD.
Unos años después ocurrió lo mismo con los discos de DVD, el éxito del formato y la
aparición de las primeras unidades lectoras para ordenadores y al poco tiempo de máquinas
grabadoras hizo que las películas siguieran el mismo camino que la música. Las primeras
unidades lectoras y grabadoras de DVD se vendían con un precio muy alto, pero el paso de los
años hizo que su precio bajara al igual que los discos vírgenes de DVD. Los cálculos que podía
realizar un ordenador a finales de la década de los ’90 hacia posible el manejo y edición de
vídeo en formato digital y con mayor resolución. Los usuarios podían guardar sus grabaciones
caseras con una calidad nunca vista antes, las cámaras de vídeo, los ordenadores y los
programas de software permitían montar vídeo con efectos y transiciones similares a las de los
estudios de cine. Los directores y actores noveles podían grabar sus propios cortos o películas
con calidad y sin la ayuda de productoras. Pero también podían duplicarse los discos de DVD
con derechos de autor, pese a los sistemas de protección anti-copia que los grandes estudios
habían incluido.
El uso de un programa en un ordenador hizo posible saltarse el sistema anti-copia que
los DVD originales incluían. Una vez deshabilitado, los ficheros que contenían el vídeo
quedaban accesibles para ser leídos por un ordenador con una unidad lectora de DVD
cualquiera y, gracias a las grabadoras de DVD, podían ser duplicados en un disco virgen
146
obteniendo una copia exacta del original. Como se ha visto, los esfuerzos para saltarse la
protección anti-copia no era para realizar copias de los originales si no porque los discos
originales no podían usarse en sistemas operativos Unix-Linux. El desbloqueo de la lectora de
los DVD, los programas de software para realizar copias de una forma simple y la bajada de
precio de las grabadoras y los soportes hicieron el resto, las copias películas en DVD
acompañaban a la música en el “top manta”. Las películas en DVD no fueron las únicas en ser
copiadas, las videocámaras también se usaban para ir a las salas de cine a filmar las
proyecciones y así conseguir copias de las películas que estaban en cartelera. Las cámaras
permitían grabar las películas con una calidad menor a la del DVD, pero suficiente para no
pagar la entrada a la sala. El autor de la grabación podía poner esa grabación en Internet a
disposición de todo aquel que quisiera verla si ir al cine y a las pocas horas de haberse
estrenado o, incluso, adelantándose al estreno oficial sin que el propietario de la película
recibiera nada.
Cuando un nuevo soporte digital lo usaba un ordenador personal, daban igual las
medidas de protección que llevarán, era cuestión tiempo que se pudiera leer y, por tanto,
copiar. Como se ha visto anteriormente, los CD de música se leían, se comprimían y se
enviaban por Internet o se duplicaban para conservar el original o prestar a conocidos y con los
DVD ocurrió lo mismo. Pero esto no era nuevo en el mundo audiovisual, con las cintas de
casete y VHS también ocurrió. Los reproductores, tras décadas sin esta función con los discos
de vinilo o las proyecciones en cines, también podían usarse para grabar. La diferencia entre lo
digital y lo analógico era que estas copias no eran perfectas, se degradaban en cada duplicado
y solo se compartían con gente conocida mano a mano, no con todo el mundo como ocurre
con Internet. En intercambio copias de material con derechos de autor pasó de ser un hecho
aislado en el que se compartía algo físico, como con los VHS o casetes, a ser un fenómeno
global en el que Internet era el medio de intercambio y no había algo físico que compartir solo
era una cadena de bits.
En los equipos reproductores de música, el desarrollo de los semiconductores hizo que
las ventas aumentaran gracias a incorporar nuevas características con un menor precio y
tamaño. Los modelos que iban surgiendo eran cada vez más baratos por lo que más gente
podía comprar uno, se pasó de uno o ninguno por hogar a uno por persona. Aparecieron
multitud de nuevas empresas en Japón que se unieron a las de Estados Unidos que
encontraron un nuevo mercado con un enorme potencial de crecimiento. Los costes de
producción bajaban según pasaba el tiempo y los clientes adquirían un nuevo aparato cada
poco tiempo, años, por las nuevas funciones que se incluían y hacían obsoleto al que se tenía.
147
La carrera de las empresas por sacar algo más pequeño con nuevas funciones que lo
diferenciará de la competencia con un precio menor hacia que los clientes se planteasen la
adquisición de uno nuevo cada poco tiempo. Desde mediados de los años ‘40 hasta los años
’70 las radios por transistores era los dispositivos electrónicos con mayor acogida, hasta su
aparición el uso de la tecnología de válvulas de vacío obligaba a que los equipos tuvieran un
tamaño considerable y un precio alto. Con los transistores los equipos redujeron el tamaño
hasta hacerse portátiles, como las radios de bolsillo, y el precio era asequible para cualquier
persona, sobre todo pasado un tiempo tras abaratarse los componentes usados. Tras las radios
de transistores, los reproductores de cintas de casete fueron ganando importancia hasta ser la
tecnología preferida para reproducir música pregrabada desde principios de los ’70 hasta
finales de los ’90. En todos estos años la electrónica permitió hacer aparatos más baratos con
cada vez más y mejores características a la vez que se reducía el tamaño hasta hacerlos de
bolsillo. Ambos dispositivos electrónicos tuvieron un gran éxito de ventas y las empresas que
lo fabricaban, como Philips o Sony. Los beneficios de las ventas les permitieron ir haciéndose
con cada vez un mayor porcentaje del número de acciones de sellos discográficos o estudios
cinematográficos a la vez que sacaban nuevos dispositivos y soportes que les permitieran
mantener su posición en el mercado y continuar su crecimiento en esos sectores.
A principios de los años ’80 se presentaron los CD y los dispositivos electrónicos para
reproducirlos. La música grabada comenzó a venderse en un disco de plástico, contenía una
copia digital de la música que no se estropeaba con el uso continuado. Los reproductores de
CD al transcurrir unos años comenzaron a bajar de precio y a disminuir su tamaño. Algo más
tarde aparecieron los grabadores de CD personales que permitían hacer discos a medida, con
una selección de pistas personal. A finales de los ’90 ya superaba en ventas a las cintas de
casete, la calidad del audio y los precios tuvieron mucho que ver. El CD se hizo un hueco en los
hogares y los automóviles pero debido al diámetro del disco, de 12 cm, no cabía holgadamente
en el bolsillo como ocurría con los reproductores de cintas portátiles, como los Walkman. Para
solucionarlo aparecieron otros formatos con discos más pequeños como el MiniDisc de Sony a
principios de los años ’90 buscando convertirse en el nuevo soporte para la música.
Básicamente el MiniDisc era un CD de tamaño reducido protegido con una carcasa plástica que
evitaba que el disco se deteriorara. El precio de los equipos reproductores de CD y el éxito de
ventas de estos impidieron que otros soportes físicos triunfaran, pero también influyeron la
cada vez mayor presencia de los ordenadores personales e Internet.
Los ordenadores en los años ‘90 tenían sistemas operativos con interfaces gráficas
fáciles para los usuarios, capacidad de cálculo y los periféricos para reproducir, editar y grabar
148
los CD. La música en formato MP3 comenzaba a hacerse muy popular en los últimos años de la
década de los años ’90. Este formato de audio comprimido se usaba sobre todo para el
intercambio de ficheros por Internet y para almacenar en menor espacio más música, un CD
podía almacenar unos hasta 10 discos completos al convertirlos a MP3. El problema de este
formato estaba en que fuera del ordenador no funcionaba, no había dispositivos para su
reproducción y, por tanto, hacía difícil que los usuarios más inexpertos lo pudieran usar. La
industria de electrónica de consumo poco a poco se dio cuenta del nuevo mercado, surgió la
idea de poder almacenar la música en otros soportes distintos a los CD donde poder leer y
escribir tantas veces como fuera necesario. Los CD, una vez grabados, no podían escribirse de
nuevo por lo que no era posible añadir nuevas pistas sin tener que grabar un nuevo disco. Para
poder rescribir tantas veces como se quisiera había varias alternativas: los discos duros de los
ordenadores o las tarjetas de memoria. Los primeros, año a año iban disminuyendo su tamaño
a la vez que aumentaba su capacidad. Las tarjetas de memoria surgieron en la década de los
’90 para dispositivos como las cámaras fotográficas digitales, las tarjetas hacían las funciones
de carrete donde almacenar las imágenes que la cámara tomaba. Los primeros reproductores
de archivos de MP3 aparecieron en los últimos años de la década de los ’90, sobre todo en
forma de equipos portátiles con los que sacar la música con formato MP3 del ordenador y
llevársela consigo. En estos nuevos equipos la música se almacenaba en distintos soportes: CD,
discos duros o tarjetas de memoria. Los equipos que usaban CD eran baratos, en un disco
cabían muchas horas de música y podían aprovechar partes de los reproductores de CD
portátiles añadiendo solo los componentes que decodificaran la música pero persistía el
problema de añadir y quitar canciones, los discos de CD regrabables eran caros y solo admitían
un número limitado de grabaciones. Los equipos que usaban tarjetas de memorias eran más
pequeños, se podía cambiar la música frecuentemente y podían tener más autonomía al no
haber piezas móviles que consumieran energía, pero el precio de las tarjetas de memoria o los
chips de memoria encarecían el precio. Los primeros equipos de este tipo solo tenían una
capacitad de unos cientos de megabytes para que el precio fue atractivo y pudiera
comercializarse. Los reproductores que usaban discos duros de ordenadores tenían un precio
algo más caro pero era compensado por la mayor capacidad de almacenamiento, el problema
de estos dispositivos era que su autonomía se veía reducida por el consumo eléctrico del
motor del disco duro que necesitaba estar girando constantemente para funcionar. Las
baterías no disponían de una buena relación entre el volumen y su capacidad de
almacenamiento, si el consumo eléctrico era algo se necesitaba que las baterías fueran de
mayor tamaño lo que hacían que los equipos fueran más grandes, pesados y más incomodos
de transportar.
149
En los primeros años de 2000, los fabricantes minoritarios desarrollaron sus productos
para conseguir llevar encima la música, pero eran poco conocidos, algo caros y no muy
sencillos de manejar. Pese estos primeros dispositivos, no había alternativas legales reales
para comprar música en formato MP3, solo estaba Napster. La primera empresa que siguió un
camino similar al visto en otros dispositivos fue Apple Inc., una empresa del mundo de la
informática. Tras desarrollar una aplicación, iTunes, que permitiera tener organizada la música
en los ordenadores y pasarla fácilmente de CD al formato MP3, el siguiente paso fue hacer un
dispositivo en el que llevarlas a todas partes. En el año 2001 comenzó a vender el iPod, un
reproductor de música con un disco duro con capacidad para 4.000 canciones, con una interfaz
intuitiva, fácil de manejar y compatible con la mayor parte de los formatos. El reproductor se
administra con el programa iTunes que permitía gestionar la biblioteca musical del usuario
añadiendo archivos en MP3 descargados o convertir los CD del usuario a los formatos
soportados. Era posible añadir información como los títulos de las canciones y ocultaba al
usuario el proceso de sincronización de la música del ordenador al reproductor, es decir, era el
programa el que movía los archivos al sitio indicado para que el reproductor pudiera
reproducirlos con la información correcta de cada canción. En abril del año 2003, el programa
iTunes incorporó un acceso a la tienda musical propia iTunes Store, de esta manera los
usuarios podían realizar todo el proceso de compra y de traspaso iPod con un único programa.
Las canciones para cumplir con las exigencias de las compañías discográficas estaban
protegidas para controlar su distribución, un usuario no podía compartirla con sus amigos ya
que los dispositivos autorizados para reproducirlos estaban limitados. El proceso de compra se
procuró simplificar para realizarse con el menor número de pulsaciones de ratón dentro del
mismo iTunes, al configurar el programa se añadía la información del comprador y el número
de tarjeta de crédito, hecho esto, las canciones compradas se sincronizaban automáticamente
en el iPod, cualquier usuario podía hacerlo. El reproductor iPod en sus sucesivas revisiones no
tardo en convertirse en un estándar como lo fueron el Walkman o el Discman de Sony. El resto
de los competidores no se dieron cuenta del nuevo mercado y tardaron un tiempo en seguir el
modelo de Apple, además carecían de la tienda donde vender las canciones y de la sencillez
del manejo del equipo. A lo largo de la primera década del 2000, los reproductores de MP3
fueron abandonando los discos duros en favor de las memorias “flash”. Los equipos con las
nuevas memorias podían reducir su tamaño a la vez que aumentaban su autonomía gracias al
menor consumo al carecer de partes móviles y disminuían o mantenían el precio debido a la
reducción de costes de la fabricación de este tipo de memoria. Para la mayor parte de los
usuarios un dispositivo de entre 4 y 32 Gigabytes era suficiente para llevar toda su colección
150
musical y con una sola carga de batería era posible escuchar más de un día de reproducción
continua.
La venta de canciones para Apple en iTunes Store tuvieron un comienzo difícil, las
compañías discográficas no tenían claro el modelo de negocio y hubo algunas que se negaron a
ceder su catálogo. Los usuarios no compraban ningún soporte físico solo una cadena de bits, y
podían elegir comprar si querían todo el disco o canciones sueltas de ese álbum. Las canciones
tenían un precio aproximado de un dólar, y no merecía la pena comprarlo completo si el disco
no contenía más de dos o tres canciones de éxito. Esta forma de comprar música rompía el
modelo de negocio de ventas de álbumes completos que se había establecido con los discos de
vinilo y que continuó con los casetes y CD. No era necesario fabricar los discos, transportarlos
hasta el punto de venta, tenerlos expuestos o almacenados ni acudir a la tienda para
comprarlos. Cada canción era una cadena de bits que se duplicaba sin coste, se enviaba a
través de Internet y se almacenaba en los ordenadores o reproductores de música. Esta forma
de compra había disminuido los costes, pero precio del álbum se mantenía.
Unos años después de la popularización de la música en formato MP3 y gracias a los
discos de DVD, el vídeo digital comenzaba a tomar fuerza en los ordenadores, sobre todo en
los salones de las casas. En los hogares, los reproductores de DVD fueron haciéndose un hueco
junto a las televisiones, los primeros reproductores de DVD eran caros pero tras unos años en
el mercado tuvieron una considerable bajada de precio y nuevas funciones. Aparecieron otros
modelos que además eran capaces de reproducir fotografías digitales, vídeos DivX y derivados
codificados en formato MPEG-4 que antes solo podían visualizarse en los ordenadores. Estos
vídeos tenían una calidad de vídeo y audio similar a los DVD pero con un tamaño varias veces
menor. Era una ventaja ya que se podía grabar en un CD, los discos eran muchos más baratos
que los nuevos discos grabables de los DVD y las grabadoras eran un estándar en los
ordenadores algo que no ocurría con las de DVD por su alto precio. Debido al éxito del formato
los DVD se hicieron portátiles, los primeros dispositivos que aparecieron fueron los
reproductores de DVD portátiles con una pantalla plana de pequeño tamaño y una autonomía
de unas cuantas horas. Estos equipos hacían posible ver películas en cualquier lugar, haciendo
el visionado de DVD algo personal y portátil. Como a los reproductores de sobremesa, a los
equipos portátiles también se les fueron añadiendo funciones como la reproducción de vídeos
codificados en DivX, visionado de fotográficas, puertos USB para conectar memorias externas
para no tener que grabar discos. Los equipos portátiles tuvieron un éxito relativo gracias a su
bajo precio, eran portátiles pero no eran de bolsillo.
151
A los reproductores de MP3 se les añadieron nuevas características como las pantallas
a color, circuitos integrados para la reproducción de vídeo y una mejora en las baterías para
mantener la autonomía sin dejar de ser de bolsillo. Pese a las nuevas funciones el precio no era
mayor que el de los primeros reproductores, gracias a las mejoras en la producción de los
componentes electrónicos (Ley de Moore) y la economía de escala que permitía el volumen de
ventas. Estos equipos sí eran de bolsillo, podían reproducir música, vídeo y fotos durante
varias horas lejos de los enchufes.
Como ocurrió con los archivos MP3 muchas compañías vendían los equipos, pero no
ofrecían tiendas donde adquirir los vídeos ya preparados para su reproducción. Apple fue una
de las primeras compañías en ofrecer una alternativa en iTunes Store con suficiente contenido
listo para reproducir en los iPod. El resto de fabricantes, al carecer de tiendas virtuales donde
vender vídeos para sus dispositivos, estaban limitados a usuarios con mayores conocimientos
para convertir los vídeos en DVD u otros formatos comprimidos a archivos que pudieran leer
estos dispositivos. Las tiendas que ofrecían contenido multimedia debían cumplir con el
requisito de ser lo suficientemente sencillas como para ser manejadas por los usuarios más
inexpertos, es decir, que el proceso de compra sea más sencillo y seguro que el realizar la
descarga a través de redes P2P o cualquier otra forma.
En los últimos años la tecnología y la miniaturización han permitido incluir los
reproductores de audio y vídeo en los teléfonos móviles. La tendencia es que los teléfonos
móviles inteligentes o Smartphones incorporen a las funciones de llamada y recepción de
llamadas funciones como los reproductores de audio, vídeo, cámara de fotos, de vídeo y, sobre
todo, acceso a Internet. Para conseguir que la visualización del vídeo y del resto de funciones
sea lo más cómoda posible las pantallas táctiles han aumentado de tamaño, ocupando la
mayor parte del teléfono y reduciendo al mínimo el número de botones. Pese a que las
pantallas han aumentado de tamaño con respecto a los teléfonos móviles tradicionales, el
tamaño máximo de estos dispositivos viene dado por el del bolsillo del pantalón, todo aquello
que no quepa allí tendrá dificultades para tener éxito.
El éxito de los teléfonos móviles tipo Smartphone con funciones de reproductor
multimedia ha tenido repercusión en las ventas de los equipos portátiles de MP3 y de vídeo.
Un ejemplo es lo que ha ocurrido a los iPod de Apple, su cuota de mercado es de un 70%
gracias a todas las versiones de los iPod pero el aumento en las ventas de teléfonos hacen que
sus ventas caigan año a año algo más de un 7% (16). La explicación de este comportamiento de
los usuarios es que están optando por llevar solo un equipo que haga todo. En los comienzos
de los reproductores de MP3 a principios de la década del 2000, lo habitual era llevar un
152
teléfono móvil que solo servía para hacer llamadas y recibir mensajes SMS y, aparte, otro
dispositivo que reprodujera archivos MP3, dos dispositivos que había que llevar encima y
recordar recargar la batería. La electrónica avanzó durante esa década y permitió la
integración de los microprocesadores más potentes, pequeños y con mejor consumo
energético que permitieron incluir primero la función de reproducción de vídeo, luego con las
pantallas a color y por último las redes de conexión de datos para hacer de los teléfonos
móviles ordenadores en miniatura que permitían usar los ficheros de los ordenadores en
cualquier lugar. Las ventajas del teléfono móvil como equipo donde reunir funciones era claro
frente a otros dispositivos, el aumento de líneas era tal que cada habitante de los países
desarrollados tenia al menos uno y rara vez no lo llevaba consigo. Al llevarse siempre encima
era el equipo ideal para que hiciera todo lo que hacían el resto de equipos, tal vez no tuviera
las mejores prestaciones y funciones como las de los equipos específicos pero fueron
suficientes para la mayoría de los usuarios. Actualmente, los teléfonos móviles, además de las
funciones multimedia de la reproducción de música y vídeo, están incorporando las de cámara
de fotos y vídeo con una calidad suficiente para el uso diario y las de ordenador con acceso a
Internet para compartir y consumir contenido multimedia. Cuando se le añade una nueva
función que hacia otro dispositivo, las ventas de estos disminuyen, sobre todo si la calidad o
las funciones son similares a las que se consiguen en el móvil. Frente a los equipos dedicados,
los teléfonos móviles tienen la ventaja del acceso a Internet que, por ejemplo, permite hacer
una foto o un vídeo con una calidad similar a las que se consigue con las gamas bajas o medias
de las cámaras y compartirlo sin usar un ordenador.
En los hogares, la forma de consumir contenidos multimedia ha ido cambiando desde
la entrada de las televisiones en los salones. Los primeros televisores solo podían usarse para
ver lo que las cadenas de televisión emitían en ese momento. Una vez acababa el programa, la
única forma de verlo era que volviesen a emitir, un problema si un espectador se olvidaba de
la hora o no se estaba en ese momento delante del televisor. La aparición de las videocasetes
Beta y VHS facilitaron la tarea de grabación en los hogares, permitían almacenar lo que se
emitía para verlo en otro momento y repetirlo tantas veces como fuera necesario sin depender
de las cadenas de televisión. Las videocasetes abrieron el mercado al alquiler y venta películas,
series, eventos deportivos o cualquier otro tipo de emisión que tuviera interés para el cliente.
El precio de los videograbadores y de las casetes no tardo en bajar de precio gracias a los
avances de la electrónica, llegaron a muchos hogares y los modelos cubrían desde las
funciones más básicas a las más avanzadas como el duplicado o la edición en el mismo vídeo.
En la primera de las batallas de formatos se impuso el formato VHS como se ha visto
153
anteriormente por el mayor tiempo de grabación disponible y el menor precio de vídeos y
casetes para grabar.
La calidad de la imagen de los televisores mejoraba cada año y no tardó en hacerse
insuficiente cuando la digitalización de las emisiones empezó a llegar a los hogares de los años
´90 en algunos países, el VHS no podía con las emisiones de más líneas de definición. Los
reproductores y discos de DVD a finales de los ’90 llegaron para poder ofrecer a los
espectadores una calidad de imagen superior a lo que hasta ese momento se podía comprar. El
estándar que se usaba para la compresión del audio y vídeo en los DVD era MPEG-2 (Moving
Pictures Experts Group 2), la información se almacenaba en archivos digitales por lo que no
había degradación de la imagen o el sonido con el uso. Los componentes electrónicos para
codificar y decodificar los archivos eran complejos, pero en pocos años los avances de los
semiconductores permitieron abaratar costes consiguiendo equipos por menos de 50€. El uso
del formato en los ordenadores ayudó para convertirlo en el estándar, pero la débil protección
de los ficheros almacenados en los disco hizo que no tardaran en circular por Internet copias
exactas DVD o archivos de alta calidad con un tamaño menor como DivX o XviD. Estos
formatos de alta calidad normalmente usaban el estándar MPEG-4 que permitían mantener la
calidad pero con ficheros de menor tamaño. Los archivos se conseguían usando Internet, en
las redes P2P, y solo podían reproducirse con los ordenadores. Una parte importante de estos
ficheros de vídeos no compensaban a propietarios de los derechos ya que eran copias de DVD
o emisiones de televisión grabadas, pero los clientes buscaban equipos que pudieran usarlos y
los fabricantes de equipos de DVD no tardaron en incorporarlo a los equipos al ver su rápida
difusión. Pronto fue habitual encontrar reproductores de DVD que leían discos ópticos con
archivos en formato MPEG-4 y, más tarde leían, archivos desde memorias flash USB o tarjetas
de memoria de cámaras fotográficas.
Los televisores redujeron su volumen al pasar de los tubos de rayos catódicos a los
paneles LCD o de plasma que permitieron un mayor tamaño de pantalla en un menor espacio.
Las pantallas de gran tamaño combinadas con los equipos de audio con sonido envolvente
hacían posible tener una experiencia similar a la de ver una película en el cine sin salir de casa.
Para aprovechar la calidad de imagen que podían ofrecer las nuevas televisiones, la señal de
televisión pasó a emitirse en formato digital. Estos sintonizadores decodificaban la señal de las
televisiones que se transmitían en formato MPEG-2 y, para las emisiones de alta definición, en
MPEG-4. Puesto que los televisores incorporaban la circuitería necesaria para la decodificación
de vídeo o solo necesitaban algunos cambios, los fabricantes añadieron puertos USB en los que
conectar dispositivos de almacenamiento de los ordenadores para reproducir los vídeos sin
154
tener que conectar un reproductor de DVD. La idea era reducir el número de equipos para
incorporar todas las funciones en el único equipo indispensable, la televisión. Prescindir de
otros equipos reduce el número de mandos a distancia, simplifica la conexión de cables y los
pasos necesarios para ver un vídeo de esta manera, los usuarios más inexpertos pueden
hacerlo funcionar con un corto periodo de aprendizaje.
La evolución de Internet en los ordenadores personales con los servicios de
“streaming” de vídeo o de vídeo bajo demanda también está repercusión en las nuevas
televisiones. A lo largo de los últimos diez años, los componentes electrónicos y equipos
necesarios para proporcionar acceso a las redes de área local, usadas para interconectar
equipos informáticos próximos, e Internet han evolucionado simplificando su configuración y
abaratando su precio. Junto al televisor, los primeros equipos que se pusieron a la venta eran
dispositivos de almacenamiento en los que se podía almacenar los vídeos del ordenador para
verlos desde el sofá, pero carecían de conectividad. Más tarde aparecieron dispositivos con
conexión a red del hogar que permitían acceder a esos vídeos sin tener que almacenarlos, se
leían directamente del equipo que lo tuviera guardado. Hasta ese momento, los vídeos que se
reproducían eran aquellos que se conseguían de las redes P2P o vídeos personales, no había
forma de adquirirlos de forma legal. Con la inclusión de la función de red, también se podía
acceder a Internet y con ella a páginas que vendían o alquilaban vídeos de forma legal.
Actualmente las televisiones que se están comercializando han incluido las funciones de
reproducción de vídeo desde dispositivos de almacenamiento local, en red local y desde
Internet. De esta manera es posible acceder a cualquier videoclub virtual que surja instalando
en el televisor la aplicación correspondiente para comprar o alquilar películas únicamente con
un mando a distancia. Este tipo de servicios llevan poco tiempo funcionando, carecen de
acceso completo a los catálogos de películas o series de los estudios o distribuidoras y todavía
presentan fallos, sobre todo en cuanto a simplicidad y facilidad de uso. Para la mayoría de
usuarios este proceso debe ser más sencillo que ir al ordenador, buscar lo quiere ver,
comprobar que los enlaces contienen lo que realmente se quiere ver, descargar de redes P2P o
de cualquier otra manera y, una vez descargados, la calidad de los archivos sea la adecuada y
compatible con el reproductor multimedia. Y para aquellos que sepan realizar el proceso, debe
ser lo suficientemente barato para que no se planteen emplear su tiempo en realizar todo el
proceso.
Además de los teléfonos móviles y los televisores existe otro dispositivo en el que
consumir contenidos multimedia y acceder a Internet fuera de los ordenadores personales, las
tabletas o “tablets”. Son dispositivos de un tamaño similar a un cuaderno de papel con
155
pantalla táctil y una capacidad de proceso menor que la de un ordenador portátil. Carecen de
un teclado físico o de un ratón por lo que hay que usar los dedos sobre la pantalla para hacer
cualquier tarea. Permiten acceder a Internet, reproducir contenido multimedia y ejecutar
tareas propias de los ordenadores como enviar correos electrónicos, editar y visualizar
documentos. A pesar de que el concepto existía años atrás, no fue hasta el año 2010 cuando la
idea tuvo éxito. Ese año, la compañía Apple presento el iPad, empleando el sistema operativo
del iPhone y muchas de las aplicaciones de las que ya disponía este. Al partir de un dispositivo
con muchas aplicaciones disponibles fue más fácil atraer a los compradores. El iPad mantenía
la simplicidad de uso, pero para ciertas aplicaciones mejoraba el manejo al disponer de una
pantalla de mayor tamaño. Un dispositivo con una pantalla más grande que la de los teléfonos
era más cómodo de usar para periodos de tiempo prolongado y con más espacio para usar los
dedos. Además, pulsando el botón de encendido el dispositivo estaba listo para usarse sin
esperar a que cargue el sistema operativo como en los portátiles y con una autonomía mayor
que permitía trabajar durante todo el día lejos del enchufe. Las tabletas eran un nuevo
dispositivo en el que navegar por Internet, usar aplicaciones, ver de una forma más cómoda
vídeos y publicaciones escritas como periódicos, revistas, libros, manuales o catálogos.
Una de las tareas que se puede realizar en las tabletas es la de poder disponer de un
dispositivo en el que leer las publicaciones escritas como periódicos, revistas o libros. Como se
ha visto, el problema de la digitalización de los textos estaba en como leer los textos fuera de
los monitores de los ordenadores. Hasta hace poco, con la tecnología disponible no era posible
leer cómodamente durante mucho tiempo. Las primeras pantallas planas LCD a color de los
ordenadores cumplían con el grosor para poder ser portátiles, pero su consumo eléctrico era
alto debido a que necesita refrescar la imagen mostrada varias veces por segundo, aunque no
hubiera cambios, e iluminar desde detrás para poder ver algo. Al tener que volver a formar la
imagen varias veces por segundo esta parpadeaba y para iluminarla se necesitaba una fuente
de luz que aumentaba el consumo reduciendo el tiempo que podía usarse. No eran cómodas
para leer durante largos periodos de tiempo debido al cansancio que provocaba en la vista la
iluminación posterior y a que resultaban difíciles de leer bajo una luz intensa como la del sol.
La iluminación posterior que necesitaba la pantalla estaba condicionada tanto por las baterías
disponibles como por el espacio disponible. El desarrollo de la tecnología de iluminación LED
en las pantallas LCD ha permitido solucionar parte de estos problemas. Con estas pantallas las
tabletas pueden funcionar durante una jornada sin necesidad de recargar gracias al menor
consumo eléctrico y verse a plena luz del día gracias al mayor brillo que ofrecen.
156
Gracias a las plataformas de distribución de aplicaciones de los teléfonos de última
generación, desde las tabletas es posible acceder a tiendas virtuales que permiten adquirir
periódicos, revistas y libros de forma puntual o por suscripción. Ya no es necesario acudir a los
quioscos, bibliotecas o tiendas, con una conexión a Internet se puede obtener una publicación
inmediatamente. Para poder llegar a este punto ha sido necesario que la tecnología cumpliera
una serie de requisitos para permitir una lectura cómoda, por este motivo al texto digitalizado
le ha costado más tiempo salir de los ordenadores que al audio o al vídeo. Pese a los avances
de las pantallas LCD que utilizan las tabletas, no son las más adecuadas para las lecturas
prolongadas como las que se realizan sobre el papel, el parpadeo de la imagen y la iluminación
siguen siendo un problema.
En 1997, varios años antes de la presentación de la tableta de Apple, la empresa
estadounidense “e-ink” desarrollo una pantalla pensada para sustituir al papel. Su
funcionamiento es distinto al de las pantallas LCD que se usan en los equipos informáticos y
tabletas. La diferencia estaba en que solo había que plasmar la imagen de la página una vez, no
varias veces por segundo como en las LCD. Solo era necesario reconstruir la imagen que
muestra la pantalla cuando algo varíe, mientras tanto la página permanecía en la pantalla sin
consumir electricidad. No necesita ninguna fuente de luz que lo ilumine desde detrás, como en
las LCD, para poder verse por lo puede leerse sin problemas bajo la luz solar. Estas dos
características hacen que con baterías de igual o menor tamaño puedan estar lejos de un
enchufe durante varias semanas ya que solo consume electricidad al cambiar de página. Pero,
a pesar de estar disponible desde el año 1997, los lectores de libros electrónicos con esta
pantalla no llegaron masivamente al consumidor. Durante ese tiempo los dispositivos que
usaban esa tecnología tenían un precio alto, por encima de los 400$ y hasta 1.500€ los más
avanzados (17). Además, había pocos lugares donde comprar libros electrónicos, algo que
dificultaba aún más sus ventas tanto de los dispositivos como de los archivos que contuvieran
los textos.
Hasta mediados de la primera década del 2000, la tecnología no fue lo suficientemente
barata como para popularizarse, además tampoco ayudo que no hubiera lugares donde
comprar los libros digitales. Este tipo de pantalla de tinta electrónica “e-ink” es la que utiliza
los libros electrónicos o “e-book” con más éxito como los “Kindle” de Amazon, los “Reader” de
Sony o los “nook” de Barnes & Noble. El denominador común de estas empresas es que
además de vender uno o varios libros electrónicos tienen una página web en la que poder
adquirir nuevos libros de una forma más o menos sencilla con títulos totalmente compatibles
con sus dispositivos. Los dispositivos de este tipo que hay disponibles actualmente tienen un
157
precio algo menor al de las tabletas pero ofrecen menos funciones. Están pensados para
sustituir a los libros de papel, al usar memoria tipo flash permiten llevar consigo una biblioteca
completa sin aumentar de tamaño o peso, tienen pantalla táctil, conexión a Internet y algunos,
mucho más caros, hasta pantalla a color. Las ventajas de estas pantallas frente a las LCD de las
tabletas son: la vista se cansa menos si se lee durante largos periodos de tiempo ya que no
necesitan retro-iluminarse, consumen menos electricidad y, por tanto, una carga de las
baterías da una autonomía mayor. Pero no todo son ventajas, al ser una tecnología menos
usada, las pantallas son caras y más pequeñas que las LCD, solo están disponibles en blanco y
negro, las de color son demasiado caras y no se pueden usar los libros electrónicos para
visualizar textos o página que requieran desplazarse rápidamente ya las pantallas tardan unas
décimas de segundo en actualizar al nuevo contenido. Por tanto, estos dispositivos quedan
como alternativa a los libros de papel que donde no necesita actualizar frecuentemente las
páginas ni el color. Y las tabletas quedan como soporte de lectura para publicaciones que
necesitan del color y poder desplazarse rápidamente sobre los textos como las revistas,
periódicos o manuales.
A lo largo de este apartado se ha visto como la electrónica e Internet han provocado
cambios en la forma de leer libros, oír música o ver películas y televisión. En apenas dos
décadas los formatos físicos, como el papel, vinilo o cintas magnéticas, han pasado a ser
digitales, un conjunto de unos y ceros en los que no se necesita un objeto físico que los
contenga. Años atrás se necesitaban periodos de tiempo de varias décadas o siglos para
cualquier tipo de mejora o evolución, pero ahora los cambios se producen en cuestión de
meses o años. La electrónica, los semiconductores y las tecnologías de la información han
tendido mucho que ver. Han permitido realizar tareas mucho más complejas en menor tiempo,
se ha abaratado los costes de componentes de los equipos informáticos. El equipo necesario
cada año que pasa es más rápido y barato lo que permite acercarse cada vez más a la calidad
que ofrecen empresas como productoras de cine o música.
La digitalización de los soportes ha tenido aspectos beneficiosos como permitir a
cualquier persona con un ordenador editar sus propios contenidos y, gracias a Internet, poder
compartirlos con cualquier persona en cualquier parte sin depender de grandes empresas con
recursos suficientes. Pero también ha tenido inconvenientes, al digitalizarse cualquier formato
no es más que una cadena de unos y ceros, puede duplicarse sin esfuerzo y sin contar con el
permiso de los autores que no ven una compensación económica por su trabajo. Los intentos
por controlar las copias, hasta ahora, han sido en vano. Los usuarios más avanzados toman las
protecciones como retos a superar en el menor tiempo posible y hacen que el dinero invertido
158
por las empresas en proteger los contenidos sea inútil. Además, estas protecciones suelen
perjudicar a los que compran los discos o archivos originales, la protección limita el uso a
dispositivos compatibles que normalmente son más caros y tienen menos funciones que los
que aceptan archivos sin más.
Los compradores de estos productos tienen mucho que decir en el éxito de nuevos
archivos, soportes o equipos que la industria de la electrónica de consumo presenta para
manejar la música, los vídeos o los libros. Si los archivos están demasiado protegidos, hay
problemas al reproducirlos, no son fáciles de usar, no cumple con las expectativas o no tienen
un precio adecuado fracasan. También, los usuarios tienen que estar preparados para asimilar
una nueva tecnología y las funciones que esta ofrezca siéndole útil para su vida diaria, sin esto
el producto no se venderá. Además, cualquier cambio o nuevo lanzamiento requiere que
exista una tecnología adecuada que proporcione un uso adecuado, de nada sirve una pantalla
o unas funciones innovadoras si la batería dura unas horas. En los últimos productos de más
éxito, como los reproductores de MP3 o vídeo, los teléfonos de última generación o tabletas,
es imprescindible la electrónica, el soporte al cliente y el software estén a la altura. Los clientes
buscan que el producto tenga un lugar donde poder conseguir de forma fácil, rápida, segura e
intuitiva las actualizaciones que pongan al día sus equipos y nuevos contenidos para los
mismos, sin esto el éxito de un producto se complica enormemente.
Internet
Internet es un conjunto descentralizado de redes de comunicaciones interconectadas
con unos protocolos de comunicación común que permiten que un equipo conectado a una
red pueda comunicarse con otro conectado en otra red en cualquier parte del planeta. Ha
revolucionado globalmente las comunicaciones, el comercio y la sociedad en apenas unas
décadas, la rapidez y la capacidad en la transmisión de información ha permitido acortar las
distancias entre cualquier punto del planeta. Ha permitido que las noticias y el conocimiento
se propaguen de inmediato, en toda la historia de la humanidad las personas no ha estado tan
conectadas y han tenido al alcance de la mano tanta información como ahora. Pero también su
arquitectura a prueba de fallos y la falta de una legislación global han originado problemas a
gobiernos, empresas y a los propios usuarios. La rapidez en las comunicaciones, el anonimato y
los fallos de seguridad en los programas y equipos dificulta cualquier tipo de filtrado, tras esto
se esconden todo tipo de comportamientos y actividades incívicos o directamente ilegales.
159
Las primeras redes surgen a finales de la década de los años ‘50 y principios de los ’60,
con SABRE, un sistema de reserva de billetes de avión en Estados Unidos creado por IBM y
American Airlines que permitía comunicar terminales sin capacidad de proceso en las agencias
de viajes con un supercomputador, y AUTODIN I, un sistema para mejorar la velocidad y
fiabilidad del tráfico logístico de los repuestos de misiles entre las bases de los Estados Unidos
desplegadas por todo el planeta y las instalaciones de los contratistas. Durante la década de
los años ’60 el uso y desarrollo tecnológico de los semiconductores permite a los fabricantes
de ordenadores comercializar los equipos con unos precios altos, pero asequible para
empresas de menor tamaño. Las grandes computadoras y supercomputadoras se amortizan
mejor cuanto más tiempo de proceso esté ocupado, algo que un solo usuario no realiza
adecuadamente ya que es la maquina la que tiene que esperar a recibir nuevas órdenes. Para
aprovechar ese tiempo al máximo, los ordenadores más potentes comparten el tiempo de
proceso permitiendo a varios terminales solicitarle cálculos, de esta manera un solo ordenador
muy potente puede ser aprovechado por más usuarios disminuyendo los tiempos
desocupados. Esta forma de aprovechar los recursos paso de comunicar equipos dentro de las
propias instalaciones donde se encontraba el superordenador a permitir conexiones de
ordenadores más alejadas. El 29 de octubre de 1969 se produjo la primera conexión de un
equipo invitado usando ARPANET, fue la primera red que permitió comunicar los centros de
investigación y universidades de los Estados Unidos con los centros de cálculo del gobierno o
grandes empresas que no estaban en el mismo emplazamiento. También surgió DARPA, un
proyecto del Departamento de Defensa de Estados Unidos, que buscaba comunicar vía radio
zonas remotas dentro del mismo país o alejadas, como Europa, usando enlaces de satélite. En
estas primeras redes se utilizaron protocolos que han llegado a nuestros días como el SMTP
utilizado para el envío de correos electrónicos, el FTP para la transferencia de ficheros o la
conmutación de paquetes desarrollada en 1970 que permitía prescindir de un canal dedicado
en exclusiva para una única comunicación.
Al querer interconectar las distintas redes surgieron problemas, cada una tenía una
forma distinta y los protocolos de comunicación utilizados no siempre eran compatibles, sobre
todo si sus fabricantes eran distintos. De ese esfuerzo por unir las distintas redes de
ordenadores que habían surgido en el campo de la investigación en Estado Unidos y Europa
surgió Internet. Mediante esta red se podían conectar redes heterogéneas, distinta forma y
tamaño, de cualquier parte del mundo para que compartieran información. Uno de los pilares
de la red fue desarrollado en 1974 por Vinton Cerf y Robert Kahn del IEEE (Institute of
Electrical and Electronic Engineers): el protocolo y arquitectura TCP/IP. Usando los equipos
160
encargados de transmitir los paquetes de información, los routers o encaminadores, eran
capaces de hacerlos llegar hasta el destino. En 1980, el Departamento de Defensa aprobó el
estándar TCP/IP, lo que supuso el impulso final para su implantación. Desde sus orígenes
Internet fue concebido para tener una tolerancia a errores, es decir, seguir funcionando
aunque fuera atacado o una parte de la red dejara de funcionar. El desarrollo y control de
Internet fue transferido del Gobierno de Estados Unidos al sector privado poco después, pero
manteniendo una supervisión final de los avances que se produjeran.
Cuando Internet dejo de ser exclusivo de la comunidad científica y pasó a
comercializarse comenzó su crecimiento y expansión. Por un lado estaba la parte física o
hardware, el equipamiento necesario para poder conectarse. La bajada en los precios de los
ordenadores personales y estaciones de trabajo, gracias al desarrollo en la industria de los
semiconductores y circuitos integrados, contribuyo a su expansión. El aumento de equipos
dentro de empresas u otras instalaciones privadas hizo que surgieran nuevas necesidades para
conectar los equipos, con el protocolo Ethernet simplifico las conexiones entre ordenadores de
las redes y permitió compartir una conexión a Internet para todos esos equipos. Por otra parte
estaba la parte de programas o Software con los que los equipos podían comunicarse en
Internet sin necesidad de ser un experto. Lo primero fueron los correos electrónicos o emails,
dejaron de ser exclusivos para la comunidad científica, su popularización doblo el tráfico de
Internet en 1988. En 1989 se desarrolló el protocolo WWW (World Wide Web) que permitía el
intercambio de información basada en hipertexto e hiperenlaces accesibles a través de
Internet, pero no fue hasta 1992 cuando se publicó. En 1992 y 1993 aparecieron los primeros
navegadores gráficos, ViolaWWW y Mosaic, permitían tener un acceso visual a WWW. Los
avances en los ordenadores y facilitar el acceso mediante una interfaz gráfica hizo que los
usuarios no tuvieran que conocer el protocolo, solo había que pulsar botones en una pantalla
con el ratón. En 1994, del proyecto de Mosaic surgió Netscape Communications Corporations
que lanzo Netscape con las mejoras que iban apareciendo y sigue haciéndolo bajo el nombre
de Firefox. En competencia a Netscape apareció Internet Explorer de la empresa Microsoft que
lo incluyo en el sistema operativo Windows. Desde estos comienzos, han aparecido más
navegadores de Internet con cada vez más funciones que se asemejan a los sistemas
operativos que reproducen archivos multimedia y hacen funcionar aplicaciones que se
ejecutan en servidores remotos.
La comercialización de Internet creo nuevos mercados y oportunidades de negocio,
por un lado estaban las empresas que proporcionaban acceso desde los hogares o empresas
hasta los servidores que tenían acceso a Internet. A finales de los años ’90 en Estados unidos
161
había unos 10.000 ISP o proveedores de servicios de Internet que proporcionaban un acceso
local de las casas a sus equipos conectados a Internet, pero no era eficiente. Comenzaron las
fusiones para mejorar los servicios a nivel regional y nacional, de esto surgía el proveedor AOL
(American Online) que se convirtió en el líder mundial de servicios de Internet, llegando a dar
servicio hasta a 30 millones de usuarios. Por otro lado, nacieron los portales Internet como
AOL, Yahoo!, Excite y otros muchos que proporcionaban un lugar desde el que comenzar a
navegar con distinto contenido propio o de otras páginas que enlazaba, era un índice por el
que comenzar a navegar. El éxito y número de visitas de estas páginas atrajeron a empresas
que querían insertar publicidad, el problema de estas páginas era que los servicios ofrecidos
eran gratuitos, no se cobraba a los usuarios por las cuentas de correo, espacio para su web,
por las noticias y no había forma de hacer rentable solo con publicidad. El valor de las acciones
de estas empresas comenzó a aumentar debido a los especuladores, pero los servicios
ofrecidos no proporcionaban ingresos y su valor real no aumentaba al mismo ritmo. En el año
2001 la burbuja de las “empresas punto com” estallo, muchas de ellas cerraron ya que los
servicios gratuitos eran difíciles de mantener solo con la publicidad, aguantaron las que
realmente tenían un modelo de negocio con unos ingresos reales.
Pese al impacto de la explosión de la burbuja que acabo con muchos de estas
empresas, Internet siguió evolucionando llegando a cada vez más número de usuarios y la
mejora de las tecnologías, tanto de software como de hardware, que simplificaban la forma de
acceder para acceder a más y mejor contenido. Una de estas mejoras fue el paso de web
estáticas a las dinámicas, el contenido no se actualizaba frecuentemente debido a que en cada
cambio para añadir nueva información había que modificar y subir el archivo al completo, con
las páginas dinámicas los cambios eran más sencillos para el administrador, era la propia web
la que se encargaba de hacer los cambios. Además, se combinaron algunas de las funciones y
protocolos con los que surgió Internet como el correo, chat, foros o mensajería instantánea en
nuevas páginas que a las que se le dio el nombre de Web 2.0, algunos ejemplos son los blogs
de texto o imágenes, páginas como la Wikipedia, almacenes de vídeos (Youtube), fotos, audio
o archivos, las redes sociales o cualquier otra comunidad virtual en la que sus usuarios pueden
interactuar mediante un ordenador con Internet. Estas páginas han cambiado la red y la forma
en la que los usuarios se relacionan. Pero como ocurrió con la burbuja de 2001, parece que
algunas de estas empresas se les han otorgado unos valores en bolsa que no se ajustan a sus
realidades. Un ejemplo reciente ha sido la salida a bolsa de Facebook, en Mayo de 2012, sus
activos son la marca, conocida mundialmente, el gran número de usuarios y la información
personal de estos. De ellos ha de obtener beneficios comercializándolos de alguna manera
162
para cubrir los gastos en equipos, personal y obtener un beneficio a repartir entre sus
accionistas. Los inversores que pongan su dinero en las acciones de la empresa tendrán que
seguir su evolución para ver si es una nueva burbuja.
La Web 2.0 ha facilitado la publicación de contenidos a los usuarios menos
familiarizados con la tecnología poniéndolos en contacto con otros más expertos mediante
foros. Crear una página web que se fuera actualizado paso de tener que escribir el código
completo de la página para poder subirla vía FTP al servidor donde se iba alojar la web a
escribir directamente un texto en la web con el formato deseado, dar a un botón para que se
publicara y que los lectores la tuvieran disponible de manera inmediata. Para ello fue
necesario aumentar la complejidad de los programas que funcionaban en los servidores, pero
los usuarios que lo usaban salieron ganando. Lo mismo ocurrió con las fotos, el audio o los
vídeos, desde un ordenador se elegían los ficheros, se almacenaban en los servidores y se
podían ver en un corto periodo de tiempo publicados en la web. Los comercios también se
beneficiaron de estas tecnologías, podían tener una tienda accesible desde cualquier parte del
mundo, abierta las 24 horas, sin necesidad de tener un lugar físico donde exponer la mercancía
y sin necesidad de tener unas existencias determinadas de sus productos. Las ventajas eran
mayores para aquellas tiendas con materiales no tangibles como programas de software o
contenido multimedia digitalizado, no era necesario tener copias físicas que podían no
venderse si no gustaban o agotarse si la demanda era alta. Los autores de obras audiovisuales
podían distribuir sus trabajos de música, video o texto sin necesidad de que una gran
compañía tuviera que publicarlos, usando Internet podía llegar a mucha gente en poco tiempo
para darse a conocer.
Pero no todos los cambios fueron positivos. Los correos electrónicos se llenaron de
mensajes no solicitados con publicidad, estafas o productos ilegales. La información que se
publica en las páginas puede no ser veraz o contener errores, no pasa por filtros que lo
verifiquen como pueden ser las agencias de información o medios de comunicación. Los
archivos multimedia o textos digitalizados no necesitan de un medio físico para almacenarse,
son más difíciles de controlar por parte de los propietarios y difusión no autorizada de material
con derecho de autor está suponiendo un problema para autores y empresas. Los productos
que se venden en tiendas de Internet pueden ser falsificaciones, no pasar los controles de
calidad que se exigen al resto de productos o directamente ser estafas en las que se cobra el
producto pero no se envía. La falta de legislación, por lo global de la red, hace muy complicado
regular Internet, las leyes de un país chocan con las de otros en un mismo problema sobre
cuando las partes implicadas en la comunicación no están bajo las mismas leyes. Lo mismo
163
ocurre cuando se quiere bloquear o cerrar alguna web, la arquitectura de Internet permite
tener varios caminos para llegar a un mismo lugar y cerrar todos es casi imposible. Para
algunos países cuyos gobiernos censuran la información, estos inconvenientes son positivos
para sus ciudadanos. Estos tienen un medio de información mucho más complejo de controlar
que los periódicos, revistas, radios o televisiones. La red les permite saltarse muchas de las
barreras impuestas por los gobiernos para saber lo que realmente está pasando y no lo que
sus dirigentes quieren que sepan.
En la pérdida del soporte físico del material audiovisual tuvieron mucho que ver los
avances en los semiconductores y el software, fue posible digitalizar todo aquello que
necesitaba de un medio para poder comercializares: los libros, audio o video. Se pasó de un
medio u objeto físico en el que se guardaba la obra que necesitaba un proceso mecánico para
duplicarse a una cadena de bits que se podía copiar tantas veces como se deseara sin perder
información, almacenarse en los ordenadores personales o aparatos electrónicos y difundirse
por Internet rápidamente. En cada proceso de digitalización y abandono del soporte físico que
ha habido en la música, las imágenes, los vídeos o los libros ha necesitado de avances en la
electrónica de consumo para poder llevarse a cabo. Cuando los aparatos electrónicos han
permitido dejar el ordenador de lado, es decir, que no fuera imprescindible para su uso la
trasformación ha tenido éxitos: libros electrónicos, reproductores de audio, fotos o video. Pero
estos cambios han ido más allá de la digitalización y reproducción, la duplicación y el cobro de
los derechos de autor se ha descontrolado. Una vez se tiene el fichero que contiene la
representación digital cualquier usuario puede hacer tantas copias idénticas como quiera y
compartirlo con cualquiera sin pagar nada al autor o al dueño de los derechos.
Se podría considerar a los libros o el texto como uno de los contenidos que primero se
digitalizaron, debido a la codificación de las letras cuando se convierte a información digital
ocupa muy poco espacio, es posible codificar una letra con solo 8 bits o 1 byte, por lo que en
varios Megabytes pueden almacenarse cualquier libro. Pero la falta de un dispositivo
electrónico que permitiera la lectura cómoda fuera del entorno de los ordenadores ha hecho
que se retrase hasta bien avanzada la primera década del 2000, como se verá en el siguiente
capítulo.
El primer formato que llego a los consumidores en formato digital fue la música, desde
el año 1982 los discos compactos (CD) se vendía con una copia digital que no se degradaba.
Unos años más tarde aparecieron los lectores de CD en los ordenadores con los que se podían
leer los discos y la información digital que contenían. Los discos compactos no tenían un
sistema de protección por lo que la lectura en los ordenadores fue sencilla, años más tarde se
164
incluyeron otras medidas de protección pero en lugar de perjudicar a que leía el disco
ilegalmente causaba problemas al propietario del disco original. A pesar de la facilidad, no era
posible compartir el disco completo, cada minuto de música ocupaba unos 9 Megabytes y con
las líneas de conexión a Internet de 56 kilobits por segundo que había en esos años no era
posible, cada minuto, en el mejor de los caso tardaba más de 20 minutos en enviarse. Dadas
las limitaciones de la tecnología del momento, tanto en capacidad de almacenamiento como
en velocidad de trasmisión de datos, se comenzaron a investigar métodos para que el audio
ocupara menos sin que la calidad se viera afectada. Para ello era necesario realizar una
compresión de la música al grabarla y una descompresión al reducirla, en los ordenadores no
había problema. La capacidad de cálculo de los procesadores de ese momento era algo
limitada para aplicar los algoritmos de codificación pero en minutos estaba listo el audio
convertido, para la reproducción la descompresión del audio era menos costosa y podía
realizarse sin retardos en la mayoría de procesadores de ordenador. De estos formatos de
compresión el más conocido fue el “MP3”, publicado en el año 1993 por los ingenieros de
varias universidades y empresas, era una abreviatura de MPEG Audio Layer III. Este estándar
para la compresión de audio no fue el único pero si el más conocido y usado, por lo que no
tardo en popularizarse. Con la codificación estándar de 128 kilobits por segundo se conseguía
una calidad similar a la de los Compact Disc con un tamaño unas 11 veces menor, un minuto
de sonido no llegaba a ocupar 1 Megabyte y enviarlo por internet suponía algo más de 2
minutos.
Los usuarios de Internet no tardaron en ver las ventajas del formato MP3, se tardaba
menos en enviar y la calidad del sonido era suficiente, menor que la del CD pero mejor que las
de las cintas de casete. Además, los primeros reproductores portátiles no tardaron en
aparecer, los archivos MP3 podían salir del ordenador y llevarse consigo como los Walkman o
reproductores de CD. Para compartir la música se comenzó a usar Internet, ya no hacía falta
ver en persona a los amigos y conocidos para compartir como ocurría con los casetes o CD. El
problema de compartir por Internet estaba en las limitaciones de los equipos de esos años, el
tráfico de datos que generaban los usuarios al intentar descargar de un solo servidor un
archivo era demasiado para la tecnología disponible en ese momento, no era posible que los
usuarios descargaran de un solo lugar. Al conectar múltiples usuarios, cada vez más debido a
su popularización, el ancho de banda necesario para enviarles los archivos era demasiado
costoso, las líneas que se necesitaban eran escasas y muy caras. Para evitar que el tráfico
recayera sobre un solo equipo y que todos los usuarios tuvieran que conectarse, los
programadores pensaron una solución distinta: los usuarios serían los que almacenarían la
165
información y los que se la pasarían a los demás. Era el comienzo de las redes de persona a
persona o “peer-to-peer” (P2P), al no disponer de equipos potentes desde donde descargar la
información y al escasear las líneas con un ancho de banda suficiente se optó por repartir el
trabajo entre todos los equipos que se conectaran. Además, este tipo de redes facilitaban las
búsquedas de archivos para los usuarios más inexpertos, antes estaban dispersas por múltiples
buscadores, foros o chat, pero ahora el mismo programa era el que buscaba y descargaba,
mucho más sencillo de usar. La primera de este tipo de redes que tuvo repercusión fue
“Napster” creada en 1999, en ella los usuarios descargaba un programa que compartía sus
ficheros en MP3 con el resto de usuarios. Estos podían buscar otros ficheros que no tuvieran y
descargarlos directamente del ordenador u ordenadores de los otros usuarios que tuvieran
instalado el programa y lo tuvieran compartido. Las compañías discográficas y músicos
comenzaron a denunciar en cuanto el número de usuarios aumento, la red llego a los 26,4
millones de usuarios y los 80 millones de canciones compartidas en Febrero de 2001, en
menos de dos años de vida. Las canciones o álbumes al ser compartidos por los usuarios para
otros usuarios no pagaban por derechos de autor por lo que los problemas judiciales no
tardaron en llegar. En Julio del año 2001 los tribunales de justicia de Estado Unidos ordenaron
que se desconectara la red de Napster, se decido que era el responsable directo de la
infracción de los derechos de autor por permitir el intercambio de ficheros ilegales. El cierre de
la red fue posible debido a que todos los usuarios tenían que conectarse a un servidor central
que era el encargado de almacenar la lista de usuarios conectados y los ficheros compartidos
para que las búsquedas funcionaran, el cierre de ese servidor central supuso el fin del Napster
como fue ideada. Años más tarde resurgiría como red de intercambio de música legal con los
derechos de autor pero su éxito ha sido limitado si se compara con otras redes y servicios de
pago.
El cierre de Napster no soluciono el problema del intercambio de ficheros con
derechos de autor, los esfuerzos de las asociaciones de autores y discográficas fueron en vano.
Los usuarios buscaron alternativas y los programadores de los nuevos programas de
intercambio de ficheros solucionaron los puntos débiles de Napster: depender de un único
servidor y compartir solo fichero de audio. Se modificaron las estructuras de las nuevas redes
P2P descentralizando la red para que pudieran seguir funcionando si caía alguno de los
servidores principales y el intercambio de ficheros mejoro para enviar y recibir archivos de
mayor tamaño en menos tiempo, no solo música en MP3. Los archivos seguían estando en los
ordenadores de los usuarios que decidían compartirlos que los intercambiaban entre ellos
usuarios sin depender de ningún servidor central, este solo realizaba las funciones de
166
indexación y búsqueda de archivos. Esta segunda generación de redes tuvo como redes
importantes a Gnutella, Kazaa, FastTrack, eDonkey2000 o su variante gratuita eMule. Los
servidores de estas redes podían estar repartidos por distintos países por lo que los cierres se
complicaban al haber varías leyes que interpretaban el intercambio de distinta manera.
Además, las distintas actualizaciones de los programas y protocolos sobre los que funcionaban
estos programas P2P buscaban deshacerse de los servidores centrales para dificultar el cierre
de la red. Los ordenadores de cada uno de los clientes eran los encargados de hacer esta tarea
complicando aún más cualquier tipo de apagón de esa red, para esto habría que ir apagando
cada uno de los ordenadores de los usuarios de manera simultánea. Para encontrar nuevos
archivos aparecieron páginas web que proporcionaban los enlaces para poder descargar sin
buscar en los servidores de las redes P2P, eran enlaces completos, sin errores y verificados.
Algunas de estas páginas web incorporaron publicidad y gracias al alto número de visitas
obtenían dinero para pagar los servidores y beneficios, otras pedían dinero a sus usuarios para
mantener el servidor de la página web y evitar poner publicidad.
Pero el intercambio de música ya no era el único problema, a principios de la década
de 2000 los DVD de video eran cada vez más populares. Al igual que la música contenían una
copia digital de las películas que no se estropeaban al reproducirlos, la inclusión de lectores de
DVD en los ordenadores personales y, como se ha visto anteriormente, la anulación por parte
de los usuarios de los sistemas de protección anti-copia hizo que las películas comenzaran a
compartirse junto con la música en las redes P2P. En la parte técnica, las conexiones
mejoraron debido al éxito de Internet y la demanda de más velocidad, tanto internamente
como hasta los usuarios. Todavía no era posible otra opción para compartir que no fueran las
redes P2P en las que los usuarios intercambiaran archivos, los servidores centralizados no
podían atender a todos los usuarios a la vez. Las conexiones con módem telefónico de 56 kbit
por segundo se fueron sustituyendo por unas nuevas tecnologías como el RDSI, xDSL (ADSL),
fibra o cable coaxial para dar acceso más rápido a Internet a empresas y hogares y permitir el
uso simultáneo de la línea de voz y datos. Uno de los problemas de los módems era que al
conectarse a Internet no era posible llamar o recibir llamadas, con las nuevas tecnologías esto
cambio. Estas nuevas conexiones con un precio mensual fijo permitían la conexión
ininterrumpida durante las 24 horas y con tarifa plana, es decir, sin límite de tiempo o de datos
enviados o recibidos durante todo el mes. Según el país, su distribución de población y las
decisiones de las compañías de telecomunicaciones que proporcionan los servicios se
utilizaban el par de cobre de la línea de teléfono o se planificaban nuevas redes. Si los usuarios
se concentraban en un área cercana a la central telefónica, como pueden ser las ciudades, y las
167
compañías querían invertir lo mínimo posible las líneas de RDSI o xDSL eran válidas y mucho
más baratas de implantar que las de cable coaxial o fibra óptica. Se aprovechaba el par de
cobre del teléfono, solo había que cambiar los equipos de las casas proporcionando a los
clientes un nuevo módem y cambiar algunos equipos de las centrales telefónicas, algo mucho
más barato llevar el cable de nuevo hasta cada una las casas de los abonados. En las zonas
rurales, con la población más dispersa o sin las líneas de teléfono, como las zonas de nueva
construcción el xDSL o RDSI no era posible ya que la velocidad de transmisión de datos se
degrada cuando la central telefónica se encuentra a varios kilómetros. Para estos
emplazamientos el cable coaxial o la fibra eran más adecuados al sufrir menos degradación por
la distancia y su vida útil será mayor al tener más capacidad y velocidad. Pero a pesar de los
avances realizados a lo largo de la última década para seguir usando el cable telefónico con
nuevas técnicas de transmisión de datos y nuevos equipos su tope de velocidad está cerca. En
sus inicios se pasó de 56 kbit/segundo de los módems a los 128 kbit/segundo del RDSI y de ahí
a los 256 kbit/segundo del ADSL, ambos fueron un gran avance pero los nuevos servicios
demandaban una mayor velocidad. Con nuevos equipos y técnicas de transmisión se ha
conseguido alcanzar hasta 30 Megabits/segundo con líneas VDSL pero solo en zonas muy
próximas a las centrales telefónicas. Los nuevos contenidos y la demanda de más velocidad ha
hecho necesario que las operadoras tenga que planificar las redes de fibra óptica para llegar
hasta todos los hogares o empresas en lugar del par de cobre telefónico, este se ha quedado
obsoleto para la demanda actual.
Las nuevas líneas de conexión a Internet (ADSL, cable y fibra) hicieron posible que en
las redes P2P se pudieran intercambiar también archivos más grandes. Los vídeos, pese a tener
un mayor tamaño que las pistas musicales, comenzaron a intercambiarse en las redes P2P de
segunda generación como Gnutella, Kazaa, FastTrack, eDonkey2000 o eMule. Los usuarios
disponían de las copias digitales que contenían las películas en DVD, de nuevas líneas de
conexión más rápidas y a unas tarifas planas que permitían estar conectado durante todo el
día. Con las primeras conexiones ADSL, los usuarios podían compartir los DVD completos pero
tardando muchas horas, entre 2 y 4 días seguidos en el mejor de los casos. Pero este problema
no tardo en desaparecer, los ordenadores habían aumentado su capacidad para realizar
operaciones complejas y eran capaces de manejar video digital con cierta soltura por lo que en
lugar de compartir los DVD tal cual estaban grabados se comprimían. Se hacía lo mismo que
con los CD: se recodificaban para que ocuparan menos y así tardar menos en compartir. Los
archivos resultantes se deshacían de la información prescindible consiguiendo que los vídeos
mantuvieran una calidad algo peor que los DVD, pero mejor que los VHS.
168
De todos los formatos usados para hacer que los discos DVD ocuparan menos espacio
el más conocido es DivX sobre archivos AVI, tuvo su primera versión en el año 1998 y ha ido
evolucionando a lo largo de los años para ofrecer nuevas características acordes a los avances
que se han ido produciendo. Para obtener los archivos de menor tamaño, un ordenador con
un programa procesaba el DVD o el archivo de video con el códec para obtener el video y por
otro lado las pistas de audio se convertían normalmente al formato MP3. El resultado era que
un archivo de video de una hora y media pasaba de ocupar 4,3 o 8.5 Gigabytes a solo unos 650
o 700 Megabytes, entre 6 y 13 veces menos. Básicamente el proceso para generar el fichero
consistía en comparar las diferencias entre fotogramas consecutivos e intentar hace
agrupaciones de zonas similares en cuanto a color o textura. El tamaño era mucho menor sin
perder demasiada calidad o fluidez en el movimiento eligiendo una serie de fotogramas
principales con los que se formaban los siguientes con las diferencias y con zonas agrupadas
que compartían color o textura. Los cálculos necesarios tanto para convertir los vídeos como
para reproduciros eran complejos, se necesitaba que el ordenador tuviese cierta capacidad de
cálculo. Los formatos de video anteriores guardaban cada fotograma del video sin más, algo
menos complejo y que requería menos procesado a costa de un tamaño mayor. Al principio,
los únicos equipos capaces de reproducir los archivos convertidos eran ordenadores, pero los
fabricantes de productos de electrónica de consumo vieron un nuevo negocio con la
fabricación de equipos más sencillos y baratos que los ordenadores capaces de reproducir
estos ficheros en los televisores. Los reproductores de DVD poco a poco fueron añadiendo
compatibilidad para reproducir ficheros comprimidos tanto en DivX y otros formatos que
surgieron, los usuarios obtenían los vídeos desde Internet y solo tenían que reproducirlos en
los equipos. No se necesitaban conocimientos específicos, solo saber utilizar un mando a
distancia.
El intercambio de ficheros de mayor tamaño en redes P2P fue aumentando gracias al
cada vez mayor número de conexiones de banda ancha (ADSL o cable) en hogares y cada vez
había más páginas web que compartían enlaces a todo tipo de contenido. Los propietarios de
los derechos siguieron buscando métodos para acabar con estas prácticas y centraron su
atención en la red “eDonkey”, la más popular. Desde Estados Unidos, la MPAA (Motion Picture
Association of America) solicitó y consiguió el cierre de uno de los servidores más importantes
de la red, el “Razorback2”, y asustar a los administradores del resto para que hicieran lo mismo
por su cuenta. Este cierre fue más una operación mediática que efectiva, la red que daba
servicio a programas como “eDonkey2000” o “eMule” podía seguir funcionando sin este
servidor y cualquiera podía configurar uno propio, la red no estaba centralizada como Napster.
169
El cierre no fue la única medida que tomaron estas asociaciones: conectaron sus propios
servidores a la red, tomaban el nombre de otros conocidos proporcionando resultados de
búsqueda erróneos o que corrompían los ficheros que se compartían. A las páginas que
publicaban los enlaces les comenzaron a llegar denuncias que les llevaron ante la justicia y
muchas otras que no recibieron la denuncia decidieron cerrar temporal o totalmente hasta
que se resolvieran los juicios pendientes. Pero las sentencias de las denuncias que se han ido
resolviendo no han dado la razón a los denunciantes como se verá en el siguiente capítulo.
Ante estos problemas legales, los ficheros falsos o con errores y la lentitud en el
intercambio de ficheros cada vez más grandes los usuarios buscaron alternativas: BitTorrent.
La red BitTorrent fue creada en el año 2001 y tiene una estructura similar a la red eDonkey,
pero aquí se buscaba mayor rapidez para permitir que los usuarios con menor ancho de banda
pudieran finalizar la descarga en un tiempo menor y una mayor protección contra errores con
códigos que permitían saber si lo descargado contenía errores o no. Se prescindía de
servidores para buscar archivos, era necesario acudir a ciertas páginas web para conseguir los
ficheros “.torrent”, en ellos está la información para comenzar a descargar. De nuevo las
denuncias fueron para las páginas que publicaban los ficheros torrent, sin ellas no había forma
de comenzar a descargar, eran la parte más fácil de perseguir judicialmente. El caso legal más
famoso es el de la página “The Pirate Bay”, creada en el año 2004 y que se convirtió en poco
tiempo en el principal directorio de ficheros torrent de la red BitTorrent. Esta web y otras
similares no contienen los archivos que infringían los derechos de autor solo donde comenzar
la descarga, en 2006 la policía de Suecia entro en las instalaciones confiscando todos los
servidores alegando que en ellos se encontraban los contenidos ilegales, como acabo se verá
en el siguiente capítulo.
Los problemas legales de estas páginas hicieron que muchos sitios similares a “The
Pirate Bay” cerrarán para evitar problemas con la justicia. Esto unido a las características de las
líneas de conexión ADSL (línea de abonado digital asimétrica) con mayor velocidad de acceso
de Internet hacia el cliente que del cliente hacia Internet hacía que la transmisión de los
ficheros no fuera lo suficientemente rápida. En estas líneas de conexión asimétricas la
velocidad de subida era mucho menor que la de descarga, por lo que se tardaba mucho más
en poner a disposición del resto de los usuarios la misma cantidad de información que se
recibía. Esta diferencia entre la velocidad de descarga desde Internet, de hasta 20
Megabit/segundo, y la del usuario hacia Internet, de apenas un 1 Megabit/segundo,
complicaba compartir ficheros de mayor tamaño. Un número importante de usuarios una vez
tenían lo que buscaban dejaban de compartir dejando al resto con el fichero a medias. Las
170
redes P2P necesitaban de cierta paciencia para descargar y, una vez se acabara, esperar a
compartir el suficiente tiempo con el resto de usuarios, esta lentitud no era válido para un
gran número de usuarios que no les gustaba esperar ese tiempo. Para aquellos que buscaban
inmediatez surgieron los servicios de almacenamiento de archivos a los que se les ha dado el
nombre de descarga directa.
Esta forma de compartir ficheros está presente desde los comienzos de Internet con el
protocolo FTP, pero el ancho de banda y los equipos necesarios para poder atender a miles de
usuarios de forma simultánea no resulto posible hasta bien entrada la primera década del
2000. Los servicios de almacenamiento de ficheros son completamente distintos a las redes
P2P, un usuario sube uno o varios ficheros y el resto de usuarios se conectan a los servidores
del servicio para descargar el fichero. Ni el que subió el fichero ni el resto que lo descargan
tienen que hacer nada más una vez han terminado, no es necesario poner a disposición de
otros usuarios lo que se acaban de descargar. El origen de estos servicios era que cualquier
usuario pudiera tener su información disponible en cualquier lugar y ordenador o para poder
enviar ficheros de un tamaño mayor que el máximo que se puede enviar por correo
electrónico. Además de esa información personal se comenzaron a subir ficheros de todo tipo,
incluidos los que tenían derechos de autor. Con este método todo es mucho más rápido que
con las redes P2P o BitTorrent, es más acorde al funcionamiento de Internet donde la
inmediatez es fundamental pero que perdía la esencia de compartir de estas redes. Para
compartir los ficheros no hay un conjunto de usuarios que comparte y suman sus recursos,
ahora es necesario tener una infraestructura que tiene un coste económico elevado si el
número de usuarios es alto. Es necesaria una conexión a Internet muy rápida y unos servidores
lo suficientemente potentes y con espacio de almacenamiento suficiente para atender a todos
los usuarios simultáneamente proporcionándolos una buena velocidad de descarga. Además,
los servidores deben almacenar una capacidad de almacenamiento enorme donde los usuarios
dejan los ficheros que quieren compartir, de muchos de ellos hay múltiples copias iguales o
similares. Los dueños y administradores de estos servicios tienen que pagar toda la
infraestructura necesaria, para ello pueden cobrar a los usuarios para darles unos privilegios
que el resto que no pagan no tienen, privilegios como no esperar, poder descargar varios
ficheros a la vez y descargar a mayor velocidad siempre, otros de estos servicios incluyen
publicidad que es visitada por miles de personas al día y que hay que ver si se quiere descargar
y otros unen el cobro a usuarios con privilegios con la publicidad. Los servicios más conocidos
son aquellos que hay tenido o tienen problemas con la justicia: Rapidshare y Megaupload.com.
Pero no son los únicos, en el último lustro el número de estos servicios para almacenar
171
información en Internet ha crecido rápidamente y, a pesar de lo que pudiera parecer con las
noticias que aparecen en los medios, no están dedicados en exclusiva a almacenar archivos
con derechos de autor.
En estos servicios de almacenamiento y las redes de BitTorrent no solo hay contenido
audiovisual protegido. Los usuarios ponen allí sus ficheros personales, sobre todo en los
servicios de almacenamiento, para compartirlos consigo mismos para acceder desde cualquier
lugar fuera de su casa o de su trabajo, con los demás si se trata de ficheros muy grandes que
no se pueden enviar por correo electrónico o hacen copias de seguridad de sus datos por si sus
equipos fallan sus ordenadores. Algo similar ocurre con el uso que dan empresas u
organizaciones, a los servicios de almacenamiento y la red de BitTorrent. Al usar estas
tecnologías han podido distribuir sus programas y ficheros entre sus empleados o con todo el
mundo de una forma rápida con unos costes menores de los que suponen disponer de una
conexión a Internet de alta capacidad o de unos servidores propios dedicados. Las empresas u
organizaciones con pocos recursos pueden poner a disposición de multitud de usuarios una
gran cantidad de información en muy poco tiempo.
Desde hace poco más de unos años, la reducción de costes de los servidores y de las
líneas de abonados cada vez más rápidas están provocando otro fenómeno: el “cloud
computing” o computación en la nube. Los programas y archivos abandonan los ordenadores
personales y se almacenan en Internet quedando accesibles en cualquier momento y lugar. No
es necesario llevar consigo los archivos estar en casa o en el trabajo, solo hay que acceder a
ellos usando Internet. Es posible acceder desde cualquier dispositivo con conexión en
cualquier momento y no solo el propietario sino todo aquel que este quiera que acceda. Estos
nuevos servicios son muy variados y están en plena expansión, por un lado están los sitios
privados donde el dueño decide la información que es accesible y la que no y por otro los sitios
públicos donde toda la información está a disposición de todos los usuarios, solo los que están
registrados o solo los que pagan un dinero por tener acceso.
Dentro de los servicios de almacenamiento privados personales han surgido multitud
de servicios orientados a distintas necesidades. Para compartir una cantidad de información
pequeña personal entre conocidos y hacer copias de seguridad una de las más conocidas es
Dropbox. Permite tener en distintos ordenadores la misma información usando la red como
medio de transmisión, sincronización y copia de seguridad. Dentro de este grupo podemos
englobar a los servidores de descarga directa como Rapidshare, Megaupload o cualquier otra
alternativa, la diferencia es que la información que se puede compartir es mayor que en los
otros servicios. Se pueden englobar es esta categoría ya que son los usuarios los que ponen los
172
enlaces a sus ficheros para que el resto pueda descargarlos. La mayoría de esos servicios
carecen de buscador por lo que no es posible encontrar los ficheros de otros si no hay un
usuario que comparta el enlace. Las ventajas de estos servicios son múltiples por la rapidez y
la capacidad para compartir de la que disponen, pero los riesgos también. Los ficheros con
derechos de autor se comparten masivamente sin que los autores reciban ninguna
compensación económica, solo es posible detener ese intercambio si los proveedores del
servicio reciben un aviso que informa que ese enlace contiene archivos con derechos de autor,
cuando son avisados lo borra, pero las posibilidades de que otro usuario vuelva a poner otro
enlace distinto con lo mismo son altas. Con los ficheros personales la seguridad y la privacidad
se suponen, no hay un control específico que permita saber si los administradores de estos
servicios acceden sin el permiso del propietario. Los ficheros privados están protegidos con
una contraseña pero no siempre la seguridad es perfecta, podría darse el caso de accesos no
autorizados a información comprometida.
Los servicios con acceso público o para suscriptores también están en plena expansión
y ofreciendo funciones innovadoras. La tendencia actual es que los usuarios prescindan de
tener un conjunto de archivos personales propios en el ordenador para tener un conjunto de
ficheros bien catalogados, comunes y compartidos a los que se puedan acceder mediante
Internet desde cualquier equipo. Es similar a una biblioteca, un videoclub o mediateca pero en
donde el número de copias de los ejemplares no se agota. La digitalización permite que todos
los usuarios puedan acceder al mismo fichero simultáneamente, algo impensable con soportes
físicos debido al coste económico de cada una de las copias y al espacio necesario para
almacenar todas. Actualmente estos servicios ofrecen tanto libros como audio y vídeos sin
pagar a los propietarios de los derechos como pagándolos.
Como ocurrió antes, los primeros servicios de este tipo que se han ofrecido han sido
con archivos musicales. Ante los problemas con los derechos de autor, varias empresas han
montado su negocio intentando compensar a los autores y facilitar el trabajo a los usuarios.
Estas empresas firmaron contratos con las discográficas para que les cedieran su catálogo de
artistas a cambio de un pago por el número de reproducciones que tuvieran las canciones, es
decir, a más reproducciones más dinero para los propietarios. Los usuarios no tenían que
descargar la música, ordenarla y etiquetarla, solo tenían que descargar el programa que
permitía acceder al catálogo y elegir de entre todas las que querían escuchar siendo todos los
ficheros legales. Para que la empresa dueña del servicio y las discográficas obtuvieran ingresos
los usuarios tenían dos opciones: si había opción, escuchar publicidad entre cada canción con
acceso limitado o pagar una cuota mensual que le permitiera acceder y reproducir sin
173
restricciones. El servicio más popular donde los usuarios pueden hacer su lista de reproducción
es Spotify pero no es el único, hay otros muchos similares. Otros funcionan como las radios,
donde la música comienza a sonar con una lista de reproducción predeterminada en la que
solo se puede pasar a la siguiente canción si no entra dentro de gusto musical y se va
perfeccionando según se usa. Alguno de los problemas de estos servicios son que su catálogo
está incompleto, no hay uno que contenga toda la música disponible debido a que las algunas
discográficas no ceden todo su catálogo o una parte de este, haciendo que los usuarios tengan
que informarse para saber si están sus artistas preferidos o no. Otros servicios que permiten la
descarga y la reproducción de ficheros lejos de Internet no dan libertad al usuario para elegir
que reproductores puede usar, los ficheros incluyen medidas de protección para evitar que sus
clientes las compartan con otros limitándoles el uso a los reproductores compatibles o
limitando el número de equipos en los que pueden usarlos. Es algo importante ya que la
música que suele estar en el teléfono móvil, en el reproductor con el que se sale a correr, el
coche o los coches, el equipo Hi-Fi del salón o cualquier otro equipo que el cliente posea no
pueden pasarse fácilmente de uno a otro. Por estos y otros motivos los usuarios no
encuentran un servicio óptimo al que suscribirse. Además, el uso de muchos de los servicios o
programas es complicado si se quiere llevar la música a otros reproductores, es demasiado
complejo para un gran número de usuarios que apenas tienen conocimientos informáticos
superar las protecciones que llevan los ficheros. Por costumbre, les resulta más fácil llevar la
música del ordenador a otros dispositivos si buscan y descarga de alguna de las redes P2P.
Tras la música, lo siguiente que pasó de los discos duros de los ordenadores personales
a una biblioteca global y común para los usuarios fue el video. Aunque el portal YouTube y
otros sitios similares permitían visualizar vídeos sin tener que descargarlos completamente, las
restricciones de tamaño, tiempo y derechos de autor no permitían que grabaciones como las
películas, series o documentales protegidos se pudieran subir allí. Estos sitios no disponen de
canales privados por lo que los vídeos que no cumple las condiciones de servicio desaparecen.
Para los contenidos protegidos han surgido multitud de páginas que permiten verlos de una
forma similar a páginas como YouTube, como con la música están las páginas que usan el
contenido sin pagar y otras que si compensan a los propietarios. La forma de funcionar es que
en lugar de descargar de las redes P2P o de los servidores de descarga directa a los discos
duros de los equipos informáticos y luego ver los vídeos se reproduce a la vez que se descarga
sin tener que esperar más que unos segundos. El menor coste de los servidores de alta
capacidad para almacenar y transmitir vídeos ha permitido que los administradores de sitios
web ofrecer a los usuarios la reproducción inmediata de los ficheros con calidad de imagen
174
aceptable con un coste asumible, algo impensable hace una década. Las web que no pagan a
los propietarios de los derechos de los vídeos cubren los gastos del pago de la infraestructura
mediante publicidad o donaciones de los usuarios compitiendo con los sitios de pago que
cobran a sus usuarios por el visionado para pagar los derechos a los propietarios, los equipos y
los servicios para transmitir de forma legal. Los usuarios que ven los vídeos de esta manera
eligen entre ver sin pagar con una calidad menor, con publicidad, muchas veces peligrosa por
la descarga de software no deseado, o pagar cada por visionado o una cuota mensual, similar a
las tarifas planas de conexión a Internet, para tener una mayor calidad, sin cortes y libre de
programas maliciosos. Las ventajas de estos servicios los hacen atractivos a los usuarios por la
inmediatez y la seguridad de ver los vídeos que se buscan con una calidad adecuada, pero
tampoco han alcanzado un nivel aceptable de madurez. La ventaja de estos sistemas, como
veremos en el siguiente capítulo, es que poco a poco las televisiones van incorporando
dispositivos electrónicos o integrando funciones dentro de la propia televisión para acceder a
estos servicios. El manejo con el mando a distancia facilitará mucho el acceso a los usuarios
menos avanzados a los que les resultará más sencillo acceder a los contenidos que teniendo
que usar un ordenador. Como con la música el canal de transmisión hasta los usuarios está,
quedan por solucionar asuntos como el acceso a los catálogos de todas las productoras de cine
y televisión en un mismo servicio y una política de precios adecuada a la carencia de un
soporte físico que depende de la existencia del servicio contratado para seguir accediendo a
los vídeos alquilados o comprados.
En la distribución de libros en formato electrónico y la aparición de servicios web para
su manejo, venta y préstamo ha ocurrido lo mismo que con las descargas por redes P2P o
descargas directas, han sido los últimos debido a de un soporte que permitiera el visionado
fuera de la pantalla de los ordenadores personales. Debido a su menor tamaño son fáciles de
transmitir y requieren servidores mucho menos potentes que los de música o video, pero la
carencia de dispositivos electrónicos autónomos ha retrasado la expansión del libro
electrónico. Existen servicios que se han propuesto convertir todos los libros en papel, desde
los incunables hasta los más actuales, a ficheros digitales mediante fotografías a cada una de
las páginas y reconocimiento óptico de caracteres para ponerlos a disposición de los usuarios
de Internet como Google Books, creado en 2004, o como el Proyecto Gutenberg, centrado en
los libros sin derechos de autor. Pero el proyecto de Google se ha encontrado con la oposición
de las editoriales, el miedo de estas es que al pasar los libros a un formato digital pierdan el
control de la distribución y estos comiencen a circular por Internet sin control y sin recibir el
pago por los derechos. El fin de estos proyectos es que no se pierde ningún texto si el libro
175
desaparece o se degrada por el tiempo o por algún desastre. El conservar una copia es
importante ya que todos aquellos libros impresos con tipos móviles o cuyos originales no están
digitalizados estarían a disposición de los lectores con tantas copias como fueran necesarias. El
problema de este tipo de servicios está en los libros más recientes que todavía tienen
derechos de autor, para estos libros la solución es restringir la lectura a solo unas hojas u
ofrece comprar una copia en las tiendas de las editoriales que poseen sus derechos.
Con los libros publicados más recientemente nos encontramos en la misma situación
que con la música o los vídeos. Por un lado hay usuarios que comparte copias de esos libros
gratuitamente en blogs, foros, páginas especializadas, redes P2P o en servidores de descarga
directa que hasta la llegada de los libros electrónicos eran minoritarias y con ellos han
supuesto un serio problema. Y por otro lado, las tiendas especializadas que venden sus libros
en vía web en sus propias páginas. Con los libros también se venden libros electrónicos que
permiten conectarse a estas tiendas virtuales, comprar y leer los libros, se ha procura
simplificar el proceso de compra y lectura al lector. Las editoriales se han aprendido de los
errores de la industria de la música y el video al ofrecer junto con los libros un soporte para
que los clientes compren de una forma sencilla. Pero de nuevo hay problemas con la
protección los libros y los precios. Los archivos vienen con medidas de protección que impiden
al comprador leer el libro fuera de los lectores soportados o que limitan el número de copias o
lecturas. En cuanto a los precios, la copia impresa y el archivo digital que se vende en las
páginas web tienen a precios similares o incluso algo más caros. El comprador puede
preguntarse el motivo por el que los precios son iguales si no hay que usar papel, no hay que
imprimir ni encuadernar, no hay transportes, no hay intermediarios y no hay opción de vender
de segunda mano el ejemplar una vez se acabe de leer.
Internet ha provocado grandes cambios en las principales industrias audiovisuales y
editoriales. Estas empresas no han visto los cambios que se iban produciendo y han tardado en
reaccionar a los nuevos hábitos de los consumidores. El modelo de negocio que se basaba en
la venta de copias físicas se iba haciendo obsoleto según iban apareciendo las nuevas
tecnologías. Los compradores han preferido prescindir de la copia física, la copia digital
obtenida usando Internet era suficiente, contaba con la ventaja de que era posible conseguirla
inmediatamente, sin salir de casa, sin tener que ir a una tienda o esperar a recibirla por un
mensajero y sin ocupar un espacio físico. Los propietarios de los derechos de autor han usado
sus recursos en procesos judiciales, pero no en intentar ofrecer una alternativa sencilla y
segura de hacer llegar el dinero de los compradores que preferían esta nueva forma de
consumir contenidos a los autores de las obras para compensarles por su trabajo.
176
177
Capítulo 8: Los derechos de autor
178
179
Historia del duplicado
Según lo visto en los anteriores capítulos, los orígenes de la industria de la cultura y el
entretenimiento pueden situarse en la edición de los primeros libros, las representaciones
teatrales y en los conciertos musicales del imperio griego, romano y en Asia. Sobre el siglo XV
la invención de la imprenta de tipos móviles fue un punto de inflexión. La posibilidad de hacer
libros a un coste menor hacia que los conocimientos llegaran a más gente y no solo a los más
poderosos. Los conocimientos podían transportarse a grandes distancias y no dependía de la
trasmisión oral de un maestro a los aprendices, estos libros generaban nuevos avances
técnicos y tecnológicos. Entre ellos mejoraron los procesos de impresión y la maquinaria para
reducir aún más el acceso a los conocimientos, los conocimientos y la imprenta se
retroalimentaban. A finales del siglo XIX y principios del siglo XX, la música y el teatro se
transformaron con la llegada de dos inventos: el fonógrafo y el cinematógrafo. Estos
conocimientos facilitaron la invención de aparatos y de sus posteriores evoluciones que
trajeron cambios tan importantes en otros campos como fue la imprenta a las obras escritas:
las actuaciones de músicos y actores podían grabarse, no era necesario acudir a un auditorio o
teatro. Los soportes físicos donde se grababan podían copiarse y ser vendidos como los libros,
con la música cualquier persona podía escucharla en su casa y del teatro surgió el cine en el
que una actuación podía mostrarse tantas veces y en tantos sitios como fuera necesario.
Poner a la venta un libro, una grabación musical, una obra de teatro o una película
tiene un coste elevado debido a las personas, materiales y maquinas que se necesitan. Desde
que se comenzaron a publicar libros el autor o tenía el suficiente dinero o tenía que buscar un
apoyo de gente poderosa con recursos económicos. Como suceder ahora, los autores noveles
necesitaban de un mecenas para poder publicar su primera obra salvo que disponga del
dinero. Los mecenas ponen su dinero en obras que son interesantes para sus gustos o con la
que va a recuperar su inversión, por lo que los autores muchas veces deben modificar su idea
original para obtener la financiación. Como se ha visto en los anteriores capítulos, la tecnología
ha permitido abaratar estos costes con la digitalización de los textos, el sonido o la imagen.
Actualmente, los dispositivos electrónicos permiten no depender un mecenas o una empresa
del sector, cualquier persona pueda escribir un texto, grabar música o realizar películas
compartiéndolas con cualquier persona de cualquier país sin necesitar el apoyo económico de
una editorial, sello musical o estudio cinematográfico. No todo ha sido positivo, la misma
tecnología que facilita la auto-publicación de obras permite la copia no autorizada del
180
contenido y su difusión inmediata a lo largo del mundo. Las copias no empezaron con la era
informática, existían desde mucho antes.
En la antigua Grecia y en Imperio Romano, se comenzaron a realizar duplicados de los
libros, generando un comercio de libros debido a la demanda de estos para incluirlos en las
bibliotecas personales de los más ricos y poderos. Pero no solo eran textos, también se
copiaban las partituras de las composiciones musicales, letras de canciones o los guiones de las
obras de teatro. El número de obras no era comparable al actual, los libros los hacían los
libreros que tenían a un grupo de escribas que las copiaban a mano de forma individual o
colectiva cuando uno leía y varios copiaban. Pese a que los orígenes de las leyes para la
defensa de los autores proceden de esta época, los libreros rara vez pagaban a los autores por
hacer copias de sus libros. Solo aquellos autores más conocidos recibían dinero por tener
acceso al original para hacer la primera copia del libro. La ventaja es que la venta no le daba la
exclusividad a un único librero, podían publicarlo otros libreros y por tanto recibir más dinero.
Antes de la invención de la imprenta, los libreros fueron el primer colectivo que
controló la producción y publicación de libros, ni los autores ni los escribas podían decidir
cuales se copiaban y cuáles no. Los escribas eran un colectivo reducido, normalmente esclavos,
que trabajaban para un librero y los autores dependían de una buena difusión de las copias
para ser conocidos. Hasta la Edad Media, los libreros fueron perdieron influencia en la
publicación de libros frente a la Iglesia gracias al poder que fue acumulando a lo largo de los
años y a que sus miembros eran de los pocos que sabían leer. En los monasterios, los escribas
era religiosos que copiaban y estudiaban los textos. Posteriormente el auge de las
Universidades hizo que los libros de contenido religioso fueran los más solicitados y que se
necesitara el número de copias que permitió que los libreros volvieran a recuperar parte del
protagonismo perdido. Pero desde la aparición del primer texto ni los libreros ni la Iglesia
fueron los que decidían que hacer con los libros, los dirigentes y gobernantes supieron del
poder que daban los conocimientos. Por ello restringían el acceso a los libros a los más pobres
y censuraban todo aquel texto que pudiera poner su poder en peligro. La iglesia cristiana, cada
vez más influyente desde el ocaso del Imperio Romano, decidía que libros se publicaban y
copiaban por lo que la mayoría eran textos de carácter religioso, todo aquello que contradijera
las creencias se censuraba y si llegaba a publicarse se quemaba.
Pero realmente eran las personas más poderosas, los gobiernos o la Iglesia fueron los
que dieron a los libreros los medios controlar la distribución de libros y el número de copias sin
tener en cuenta al autor de los textos y sus derechos. La difusión de ciertos conocimientos
ponía su poder en riesgo, para poder intervenir otorgó la exclusividad del duplicado de los
181
libros a ciertos colectivos, como los libreros, o tomando el control directamente, como con los
escribas en los monasterios. De esta manera podían decidir que libros que se copiaban y cuales
se censuraban impidiendo su difusión. Esa exclusividad se consiguió haciendo que los escribas
trabajaban solo para los libreros o la propia Iglesia, impidiendo así cualquier duplicado en
masa de obras no autorizadas debido a los costes de mantener a los escribas y a la dificulta de
formarlos. La aparición de la imprenta unida a la cada vez mayor alfabetización de la
población, sobre todo en la clase media, complico este control. El aumento del número de
ejemplares de cada edición y las nuevas necesidades de trabajadores, más especializados pero
más fáciles de formar, hacía que la imprenta fuera mucho menos controlable que la copia a
mano de libros donde el número de ejemplares copiados en un periodo de tiempo era menor y
había escasez de escribas. Con el paso del tiempo el número de imprentas aumento debido a
la creciente demanda de ejemplares. El nuevo invento hizo que el control gubernamental para
censurar obras perdiera eficacia y, al no estar reguladas, los derechos de autor se respetaba
aún menos.
Los orígenes de los derechos de autor
Para poner orden en el caos que imperaba en los años posteriores a la invención de la
imprenta se comenzó a legislar. No había ningún control en lo que cada imprenta publicaba,
las obras se vendía sin el permiso de los autores, editores o libreros propietarios ni de los
gobiernos. En Europa, las imprentas rivalizaban con las librerías y escribanos en la venta de
libros pero sin pagar por realizar copias sus obras. En Inglaterra, ante esta situación los libreros
se asociaron fundando la Compañía de Libreros que era la única que podía incluir en el registro
los libros que podían publicarse allí. Fue una manera de que los autores se aseguraran cobrar
por la publicación obras y, sobre todo, de que los libreros pudieran protegerse de las
imprentas clandestinas. Pero las prohibiciones impidieron el libre comercio perjudicando a los
lectores con precios más altos y permitió que la monarquía pudiera censurar libros. La
Compañía de Libreros no iba a permitir la publicación y venta de obras que la monarquía
considerara ofensivas y que pudieran poner en peligro su dominio.
El poder de la compañía aumentaba con el paso de los años convirtiéndose en un
monopolio. En el año 1694 el Parlamento Inglés lo revoco y en el año 1709 se redactó el
Estatuto de la Reina Ana o "Ley para el Fomento del Aprendizaje, al otorgar la propiedad de los
libros impresos en los autores o de las copias a los compradores de estas, durante los tiempos
182
mencionados en la misma ley". Fue la primera ley en la que se establecía un derecho finito
para imprimir y reimprimir las obras durante un periodo de tiempo. Durante un periodo de
entre 14 y 21 años, los libreros con los derechos que había adquirido al autor eran los únicos
que legalmente podían realizar copias de ese libro, impidiéndoselo a los que tuvieran los
derechos. Tras ese periodo de tiempo, el material con derechos de autor, que antes era
perpetuamente de los editores, pasaba al dominio público permitiendo que cualquiera pudiera
usarlo. Esta ley también acabo con censura, las obras no tenían que ser aprobadas por la
Compañía, solo hacía falta encontrar un librero que estuviera dispuesto a publicarlo.
Cuando en 1731, pasados 24 años desde 1707, el plazo de Derecho de Autor o
“copyright” expiraron y los libreros escoceses iban publicar los textos que pasaban al dominio
público a precios menores, los libreros de Londres presionaron al Parlamento para que
prorrogaran los plazos. La conocida como “batalla de los libreros” se prolongó durante más de
30 años, hasta que fue rechazada en los tribunales. Los argumentos de los partidarios de
ampliar el plazo de tiempo opinaban que los autores dejarían de escribir al no poder dejar los
derechos como herencia, buscaban que los derechos de autor tuvieran un mayor plazo para
poder ganar dinero más tiempo. Los que se oponían a estos derechos perpetuos,
principalmente aquellos libreros sin ningún derecho de autor, argumentaban que estos
derechos creaban un monopolio que hacía más caros los libros y menos accesibles para las
clases más bajas, retrasando así su llegada al dominio público mayoritario. El Parlamento Inglés
voto contra la prórroga de los derechos de autor confirmando el Estatuto de la Reina Ana
prevalecía frente a las nuevas demandas propuestas. Un gran número de obras pasaron a ser
clásicos que se vendieron con reimpresiones notablemente más baratas que las que había
hasta ese momento, la competencia hizo que el número de libreros y editores se triplicara
entre 1772 y 1802. Los autores vieron como sus derechos pasaron a estar protegidos desde la
aprobación del Estatuto de 1707 aunque estuvieran escritos tiempo atrás, pero esa protección
estaba limitada durante un periodo de tiempo por el interés social de difundir el conocimiento.
Como en Inglaterra, en otros países comenzaron a surgir problemas con la renovación
perpetua de derechos de autor o con la falta de estos. En Francia los libros eran aprobados por
censores oficiales y los autores y editores necesitaban un privilegio real para publicar las obras
de su propiedad. Estos privilegios podían renovarse indefinidamente, incluso por los
herederos. Esto suscito un debate similar al de Inglaterra que terminó limitando las
renovaciones y para aquellas que había caducado pasaban formar parte del dominio público.
Cuando esto ocurría, cualquiera con un permiso podía realizar vender copias de ese texto. Tras
la Revolución Francesa, la Asamblea Nacional dijo que los autores eran los únicos que podían
183
autorizar la publicación de sus obras durante su vida y cuando murieran sus herederos podrían
administrar esos derechos durante 5 o 10 años. La Asamblea Nacional indico que una obra
publicada era por su propia naturaleza propiedad pública y que los derechos de autor se
reconocían para compensar al autor por su trabajo. En Estados Unidos, pese a ser una colonia
de Inglaterra, el Estatuto de la Reina Ana no tenía validez. Tras años de pelea por parte de los
autores, en 1790 se reguló la propiedad intelectual con la “Ley de Derecho de Autor”, era una
copia del texto del Estatuto que incluía además una regulación para mapas y gráficos. Esta ley
otorgaba los derechos de autor por un periodo de 14 años prorrogables a otros 14, tras este
periodo pasaban a ser de dominio público.
Pero todas estas leyes y estatutos no valían de nada fuera de las fronteras, los autores
veían como en otros países las obras se podían copiar: no existía una legislación internacional
que regulara los derechos de autor. Un ejemplo de esto fueron los libros de autores ingleses
que llegaban a Estados Unidos, cuando llegaban en barco al poco tiempo se podía comprar
ediciones de imprentas que no respetaban los derechos de autor. Para solucionar este
problema en el Convenio de Berna (1886) establecieron una serie de normativas básicas donde
se exigía a todos los Estados miembros proporcionar la misma protección que tenían los
autores nacionales a los foráneos en las producciones literarias, científicas o artísticas,
incluyendo películas. Otra de las normativas era el tiempo de duración de los derechos de
autor, como mínimo debía ser el tiempo que el autor viviera y 50 años para sus herederos
pudiendo ampliarse este tiempo si un país así lo quería. Se suprimió el requisito que existía en
países como Reino Unido de tener que registrar los textos para que estos estuvieran
amparados por los derechos de autor, ahora el autor era el que recibía la protección y no el
editor o cualquier otro agente que interviniera en la difusión. Los derechos morales dieron a
los autores el derecho a ser identificados como tales y negarse a que sus obras fueran usadas
de una manera que pudiera considerar como perjudicial. También se incluyó una serie de
excepciones y límites a los derechos de autor, el uso gratuito de estos trabajos estaba
permitido en los casos de: citas de obras mientras estuvieran correctamente referenciadas,
tuvieran fines educativos y en las notas de prensa.
Pero este Convenio fue suficiente para la defensa internacional de los derechos de
autor. Una vez en vigor, no todos los países firmaron el Convenio por lo que había territorios
que seguían copiando sin permiso textos de autores de otros países. Un ejemplo fueron los
países comunistas no reconocían estos derechos de autor, además hacían una interpretación
para usarlos como método de censura para controlar lo que se publicaba en su territorio. Tras
184
la caída del muro de Berlín, esos países fueron adhiriéndose al Convenio, pero aparecieron las
nuevas tecnologías e Internet que dificultaron aún más la defensa de los derechos de autor.
Derechos de autor y tecnología
Mucho antes del descubrimiento de los semiconductores y los ordenadores los
problemas con los derechos de autor ya existían. Como se vio en el primer capítulo de este
apartado, a los libreros e impresores, que más tarde darían lugar a las empresas editoriales, no
les convenció la idea de que hubiera las bibliotecas públicas o cualquier otro tipo de
intercambio de libros. Alegaban que en su negocio disminuirían sus ventas arruinándolos, pero
no fue así. Los gobiernos compraban una cantidad de libros periódicamente para abastecer a
las bibliotecas y, gracias a que permitían a los ciudadanos de toda condición social poder leer,
las ventas de libros aumentaron al potenciar la lectura. La imprenta permitió que los libros
fueran el primer formato físico con un precio asequible que podía intercambiarse, es decir, una
persona compraba el libro, podía prestarlo a familiares y conocidos si lo consideraba oportuno.
Ante esa posibilidad de prestar el libro las quejas de los dueños de los derechos de autor no
tardaron en llegar, pero de nuevo al prestarlos las ventas de libros no se resintieron, cada vez
había más lectores que compraban más ejemplares. Gracias a la evolución de la imprenta el
coste de fabricación de las publicaciones disminuyó, la cultura y la educación podían llegar a
las clases más desfavorecidas económicamente.
A finales del s. XIX y comienzos del s. XX, aparecieron otros inventos que permitieron
hacer con la música y el teatro lo mismo que con los libros: darles un soporte físico portátil. Los
fonógrafos y cinematógrafos permitían disponer de la música y de las representaciones
teatrales en un formato físico que podía transportarse y venderse. El éxito de ambos dio lugar
a dos de las industrias más importantes que hay en la actualidad: la discográfica y la
cinematográfica. Como ocurrió con los libros, los cambios que se produjeron según pasaban
los años no fueron bien vistos por estas compañías. La radio y la televisión comenzaron siendo
vistos como una amenaza por estas industrias, pero gracias a su crecimiento y las ventajas que
aportaban pasaron a ser aliados que permitía promocionar mejor a los artistas, llegar a más
lugares y abrir nuevos mercados. Según avanzaba el s. XX los avances de los semiconductores y
la electrónica permitieron digitalizar audio, video y texto. Esta digitalización trajo cambios en
los soportes físicos existentes hasta el momento, eran más baratos de que los equivalentes
analógicos. Como se ha visto las cintas de casete y video eran complejos, tenía muchas partes
185
móviles y la calidad de sonido no era perfecta. Con los lectores ópticos de rayos láser, los
nuevos soportes eran una sola pieza de plástico con un orificio en el centro. Los discos solo
había que estamparlos, eran menos complejos mecánicamente y, por tanto, más baratos de
producir a gran escala.
Todos los avances tecnológicos en los campos del procesado de imagen, sonido, video
o relacionados con los soportes físicos acababan siendo integrados en los ordenadores
personales como periféricos. La potencia de los equipos informáticos permitía realizar tareas
que antes solo podían hacerse en empresas con recursos económicos así como aumentar la
complejidad en el procesado de datos digitales, los archivos digitales que contenían los
ficheros multimedia disminuyeran su tamaño menor a la vez que aumentaba su calidad y los
cálculos para decodificarlos. La compresión de los ficheros y el crecimiento en el número de
líneas con acceso a Internet a finales del siglo XX hicieron que el intercambio de música, video
y libros digitalizados creciera enormemente en Internet y con él los problemas en los derechos
de autor.
Pero antes de que las líneas de acceso a Internet y los ordenadores se popularizaran,
los libros, vinilos, casete de música, vídeos VHS y CD se compartían prestándolos a amigos y
conocidos. Los reproductores, sobre todo desde los casetes, solían incluir la función de
grabación que permitía el duplicado de los originales. Gracias a esto, el número de equipos
capaces de grabar creció enormemente lo que provoco que la venta de soportes físicos
vírgenes en los que almacenar la copia realizada se disparara. A su vez el aumento en las
ventas hacia que el precio unitario de estos soportes vírgenes para la grabación disminuyera
gracias a la economía de escala, haciéndolos cada vez más baratos. La copia de los casetes de
música o de cintas VHS realizada en casa resultaba mucho más barata que comprar el original
debido a que no había que pagar a los propietarios de los derechos por hacer cada copia con la
ventaja de una calidad de imagen o sonido era muy similar a la de los originales. Pero no fue
solo el cine y la música, en 1959 la empresa Xerox presento la fotocopiadora que permitía
copiar hojas impresas de una forma rápida y sencilla por lo que los libros podían duplicarse sin
pasar por la imprenta. Al igual que los grabadores, según se iba perfeccionando, el coste de
cada duplicado se reducía haciendo viable copiar libros completos por un precio menor que el
que tenían en las tiendas.
Las normas aprobadas en el Convenio de Berna dejaban claro que había que pagar a
los autores o a los propietarios de los derechos y que estos tenían el poder para decidir qué se
podía hacer con ellas. Pero las excepciones incluidas en el Convenio para fines educativos y los
nuevos dispositivos electrónicos con funciones de grabación o duplicado se usaron para
186
saltarse pagar a los autores y quitarles la exclusividad en la elección de la fabricación de
duplicados, algo que dificultaba el control y cobro de los Derechos de Autor. Ante este nuevo
fenómeno las empresas afectadas por las copias se aliaron para defender mejor sus intereses.
En países como Estados Unidos se creó en 1984 la Alianza Internacional de la Propiedad
Intelectual (IIPA o International Intellectual Property Alliance) en ella se agrupaban los
productores estadounidenses de todo aquello que estuviera protegido por las leyes de
propiedad intelectual: libros, revistas, televisión, cine, música y programas de ordenador. Su
tarea principal era la de conseguir que las leyes se endurecieran para ser más eficaces en la
defensa de la propiedad intelectual tanto en Estados Unidos como en el resto de países y que
se persiguiera a aquellos que infringían los Derechos de Autor.
Las compañías discográficas, imprentas y los estudios de cine dejaron de ser los únicos
capaces de hacer las copias, los poseedores de equipos con función de grabación o de
fotocopiadoras podían hacer sus propios duplicados. Pese a que las empresas afectadas
estaban inscritas en asociaciones como la IIPA, muchas tenían como accionistas a los propios
fabricantes de equipos electrónicos que ponían en el mercado los grabadores, los soportes
vírgenes y fueron los promotores del paso a digital. Tenían intereses económicos en la
industria musical y cinematográfica, eran dueños de una parte de las acciones de estas
empresas, o gracias al éxito de la venta de electrónica, adquirieron poco tiempo después una
parte de las acciones de estas empresas. Algunos ejemplos de esto se han visto en estos
últimos capítulos en empresas como Philips o Sony. Estos fabricantes de electrónica de
consumo, para facilitar las ventas de los grabadores y aumentar sus ventas propusieron a los
dueños de los derechos de autor y a los propios autores gravar con un canon los equipos
capaces de hacer copias y a los soportes vírgenes para compensarles económicamente por
perder la exclusividad de decidir quién les fabricaba las copias de sus obras.
La inclusión de un canon o una compensación económica fue contraproducente para
los intereses de los autores. Los compradores veían como se encarecían los reproductores y los
soportes hicieran o no uso de la función de copiado. No se distinguía si el uso era personal
para grabaciones domésticas, profesional, para copia de seguridad, duplicados para tenerlo en
varios lugares (casa, coche, etc.) o para duplicar obras con derechos de autor, se daba por
hecho que todos los compradores iban a hacer copias de obras protegidas. Los compradores
ante esta situación y el alto precio de los formatos originales, como habían pagado el canon en
los equipos, consideraban duplicar los originales como algo legítimo: ya estaba incluido en el
precio.
187
El auge de Internet, la informática y la electrónica de consumo fueron cambiando la
forma de consumir contenidos audiovisuales y el modelo de negocio basado en la venta de
soportes físicos en tiendas. Los usuarios cambiaron el ir a las tiendas a por los discos o libros
por la inmediatez de disfrutar de los contenidos a través de Internet. Los ordenadores y las
redes de telecomunicación hacen posible conseguir cualquier canción, video o libro desde casa
en ese momento. Esta forma de consumir contenidos ha ido aumentando año a año debido al
menor tiempo de ocio disponible y al ahorro económico que supone esta forma de conseguir
los archivos. La digitalización ha facilitado enormemente la transmisión de este tipo de
contenidos, se ha conseguido una calidad superior a la de los formatos físicos de hace unos
años y, gracias a los reproductores, una calidad que solo podía conseguirse años atrás en cines
o auditorios. El problema hasta hace unos años es que la mayor parte de los contenidos
disponibles en la red no contaba con los autores ni con propietarios de los derechos de autor,
debido a la negativa de estos a comercializarlos en Internet, no había páginas de discográficas,
estudios de cine o editoriales que los vendieran “on-line”. La tecnología para vender
contenidos legalmente estaba ahí, pero las compañías dueñas de los derechos reaccionaron
tarde, no supieron ver los cambios que se estaban produciendo. Para forzar los cambios
tuvieron que aparecer agentes ajenos a esos negocios, primero Napster que no contaban con
el permiso de los autores y, por tanto, no pagaban y más tarde empresas Apple que si pagaba.
Al principio las canciones, vídeos o libros eran intercambiados entre usuarios en las
redes P2P sin ánimo de lucro, como cuando se prestaba a un amigo. Napster eran un programa
para usar Internet como medio para compartir canciones entre amigos sin ánimo de lucro. El
problema de esta forma de intercambio por Internet es que la difusión es mucho mayor que
dejar un disco o un libro a un conocido: los archivos digitales se transmiten a más gente, a más
distancia y en menor tiempo. Un archivo compartido por un individuo viajaba tan rápido como
la velocidad de transmisión de la línea de acceso a Internet. Al cerrar las primeras redes de
intercambio, como Napster, aparecieron nuevas redes que hacían más difícil el cierre o
directamente lo imposibilitaban y buscaban el beneficio económico. Usar el buscador que
ofrecían no era sencillo ya que contenía archivos falsos o con un contenido distinto al que
indicaba el nombre, para solucionarlo aparecieron páginas web con enlaces verificados a los
nuevos archivos que se publicaban, funcionaban como catálogos de novedades que se
actualizaban cada poco tiempo. El número de visitas a estas páginas aumento y los
administradores vieron que si incluían publicidad podían cubrir los gastos ocasionados por el
alquiler de los servidores donde se alojaban su web. Este dinero, si la página era importante y
contaba con muchas visitas, no solo cubría los costes operativos de la página sino que también
188
dejaba beneficios a los administradores, dinero que iba a parar a su bolsillo ya que no tenían
que pagar a los autores por utilizar sus obras. De un intercambio sin ánimo de lucro entre
usuarios que querían compartir sus discos se pasó a un negocio ilegal en el que una parte, el
dueño de la página, ganaba dinero y competía con los dueños de los derechos ofreciendo su
producto a precio mucho menor: gratis. La ausencia de lugares donde poder comprar los
contenidos en el formato digital y el cierre de las primeras redes de intercambio incremento
enormemente las alternativas para conseguir el contenido audiovisual sin pagar, dificultando
enormemente que los propietarios de los derechos pudieran recuperar el control de la
distribución.
Debido a la digitalización de las obras y a la pasividad de las empresas que tenían los
derechos frente al uso de las nuevas tecnologías, los autores se vieron atrapados: no podían
hacer nada para incorporarse al nuevo canal de distribución que había surgido sin contar con
ellos. Las compañías seguían insistiendo en las ventas tradicionales en soportes que se
compraban en tiendas ignorando los cambios de los consumidores, reaccionaron tarde ante la
bajada de ventas del formato físico que se estaba produciendo y los motivos que había llevado
a esta situación. Las mismas compañías que habían apoyado con la digitalización de contenidos
vieron como los usuarios prescindían de los discos y libros al verlos como algo innecesario.
Cuando se dieron cuenta de que no iba a ser una moda pasajera y comenzaron a vender en
Internet, otras compañías ya tenían su negocio montado y tendrían que competir contra ellas.
No hubo un frente común: cada una de las grandes empresas del sector comercializaba por su
cuenta su catálogo. Además, añadieron medidas de protección anti-copia que complicaban a
los clientes el uso, incluyeron en los archivos la gestión de derechos digitales o DRM (Digital
Rights Management) que impedía la reproducción en todo aparato que no estuviera
preparado.
Estas medidas de protección se incluían en los ficheros propios ficheros de audio,
video, texto o programas de ordenador codificándolos. Solo podían ser usados en ciertos
equipos electrónicos compatibles y aprobados que fueran capaces de comprobar que ese
archivo podía estaba autorizado para usarse en ese equipo. Los usuarios que descargaban
estos archivos con DRM compraban un archivo con menos funciones, más complicado de
reproducir que los archivos que se podían encontrar en la Red y, además debían verificar que
los reproductores que tuvieran ya comprados fueran compatibles. Las ventas de estos archivos
no fueron bien debido a que incumplía la premisa básica de la sencillez de uso para el usuario
final, no todos son expertos y cualquier mínimo problema se hace insalvable si no se tienen los
conocimientos necesarios. Todo cambia cuando una empresa ajena al sector audiovisual,
189
Apple, consigue ofrecer a los usuarios un dispositivo intuitivo de manejar, el iPod, y un
programa que permite comprar música de la mayor parte de los sellos discográficos, iTunes,
sin recurrir a los archivos de las redes P2P. El objetivo era que el proceso para poder escuchar
una canción en el iPod fuera lo más transparente posible para el cliente, desde la compra hasta
su reproducción en el equipo portátil con una intervención mínima del usuario. La tienda de
música estaba integrada en el programa de ordenador y una vez comprada se descargaba
directamente, pasaba de Internet al reproductor portátil en pocos pasos. El usuario disfrutaba
una forma más rápida, segura y sencilla de conseguir contenido pagándolo, las compañías
discográficas y los autores recibían dinero por la venta de los archivos gracias a la inclusión de
una protección anti-copia (DRM) para limitar la distribución de los archivos vendidos.
Tras el despegue en las ventas conseguido por iTunes en la música hizo que otros
sectores perdieran el miedo a la venta electrónica, el siguiente paso fue la comercialización de
vídeos, películas y libros. Gracias a los avances en la electrónica se podían fabricar dispositivos
independientes de los ordenadores, menos complejos de manejar, para visualizar fácilmente el
contenido comprado por Internet. Como ocurrió con las discográficas, las dudas iniciales de los
propietarios de los derechos de autor de los vídeos y los libros dificultaron tener todos los
catálogos en el mismo lugar. Pero el descenso en las ventas de los soportes físicos y el
aumento de ventas por Internet ayudaron. Pero cualquier empresa que quisiera ofrecer un
servicio similar a iTunes para vender su contenido de pago se encontraba con las condiciones
muy escritas con respecto a las protecciones anti-copia, dispositivos compatibles y con precio
final con el que vender el contenido ya fijado de antemano que imponían los propietarios de
los derechos: si no cumplían no podían venderlo.
Estas imposiciones de las discográficas, estudios de cine y editoriales en la venta de sus
productos chocan con los cambios que ellos mismos habían promovido al digitalizar las obras.
Los precios de los archivos digitales se mantuvieron similares a los que tenían los CD, DVD o
libros a pesar de la reducción de los costes de que suponía prescindir de ese soporte físico: no
había nada físico que fabricar, montar, empaquetar, almacenar, enviar y poner a la vista hasta
llegar al comprador. Solo había que almacenar una copia digital del archivo en un servidor de
Internet para que este pudiera enviarlo tantas veces como fuera necesario: los duplicados
digitales no suponían un coste añadido. La operación de compra podía realizarse sin apenas
intermediarios, directamente del vendedor al comprador. Los únicos costes que se mantenía
eran para pagar a los autores, al personal que había colaborado para hacer la obra (libro,
álbum, película o programa) y a los mismos propietarios de los derechos que ponían a la venta
los archivos. Estos costes también se habían reducido, sobre todo en la parte de producción y
190
fabricación, gracias a la electrónica y la informática. También se podían vender más archivos
en más lugares gracias a la distribución mundial inmediata que proporcionaba Internet
repartiendo los costes fijos para disminuir precio final.
Pero la política de estas empresas ha sido mantener todo como antes del paso a
digital. El precio habitual de las copias digitales que se compran en Internet es prácticamente
el mismo de las vendidas físicamente en tiendas, pero los clientes que estaban dispuestos a
comprar en tiendas online y prescindir del soporte físico se encontraban con que por el mismo
dinero obtenían menos al no tener el soporte físico. Los propietarios de los derechos de autor
gastaron millones en sistemas de protección que acabaron inutilizados al poco tiempo de
presentarse, pero los costes de desarrollo de los programas de protección debían incluirse el
en producto final encareciéndolos aún más. Las restricciones para poder vender los
contenidos, la obligación de incluir los sistemas de protección y la imposición de usar ciertos
reproductores compatibles limitaban la competencia perjudicando al consumidor. Sin varias
empresas luchando por hacerse con mayor cuota de mercado no habría competencia y los
precios de las canciones, álbumes y reproductores se mantendrían altos.
Pese a las protecciones DRM incluidas en los archivos digitales, las ventas (18) se
consolidaron con el conjunto iPod-iTunes. En 2003, el primer año de la tienda, vendió 25
millones de canciones, en 2004 alcanzó los 200 millones con solo las ventas en Estados Unidos,
en febrero de 2006 los 1.000 millones y un año después los 3.000 millones. En 2008, iTunes
Store vendía más música que el primer distribuidor de Estados Unidos, Wal-Mart, con 5.000
millones de canciones. En 2008, gracias a su posición en el mercado, comenzó a vender los
archivos sin DRM para que los compradores los usaran sin restricciones. En lugar de acabar con
las ventas las aumentó, ese año iTunes vendía el 80% de total de la música online. Ante esta
nueva estrategia de Apple, las discográficas y muchos de sus competidores hicieron lo mismo:
el DRM había fracasado y perjudicaba a los compradores legales frente a los que usaban otros
medios para conseguir los archivos. En 2010 y con todo el catálogo sin DRM, el número de
canciones vendidas alcanzo la cifra de 10 mil millones. Las ventas lejos de disminuir al quitar la
protección a los archivos, como auguraron las compañías discográficas, aumentaron. El
crecimiento de iTunes era exponencial, los primeros cuatro años de funcionamiento se
vendieron 5.000 millones de canciones, en dos años siguientes, de 2008 a 2010, las ventas
igualaron a la de los cuatro anteriores llegando a un total de 10.000 millones, y solo en 2011 se
vendieron las mismas que en los dos años anteriores hasta llegar a los 15.000 millones.
El cambio en los gustos del consumidor había quedado patente y demostraba que
cuando se podía pagar por la música se hacía, sobre todo si el precio era atractivo y el proceso
191
de poner la música en el ordenador o el reproductor portátil no entrañaba dificultad. Muchos
preferían pagar a tener que rebuscar en las redes Internet hasta encontrar lo que querían,
preferían no perder su tiempo en todo el proceso. Para los autores este cambio en el modelo
de negocio también les beneficio, los que ya tenían disco recibían dinero y los que no, gracias a
los avances en la informática, podían editar sus discos para venderlos directamente. Los
nuevos músicos no necesitaban de una discográfica que les diera una oportunidad, les
fabricara el disco, lo llevara hasta las tiendas y lo promocionara; las canciones podían grabarlas
en estudios caseros, subirlas directamente a estas tiendas y para promocionarse podían usar
páginas web, redes sociales o sitios como YouTube en el que poner sus videoclips.
El éxito de la música permitió comenzar a vender los vídeos de esta manera por
Internet. Se ha dicho que esta forma de distribución sería el fin de las salas cine y de la
industria cinematográfica, pero como ocurrió cuando comenzó a emitir la televisión o se
presentó el VHS con función de grabación o aparecieron los videoclubs no está siendo así. La
digitalización del formato permitió que los archivos de video viajaran por Internet
prescindiendo del soporte físico. Esta conversión fue promovida por las mismas empresas
propietarias de los derechos, les permitía abaratar el duplicado y revender películas. Si la
película se convertía en un clásico los usuarios compraban de nuevo el DVD o el BluRay para
obtener una copia con una calidad superior. Los ficheros de video almacenaban copias de alta
definición pero con DRM, lo mismo que los discos DVD, HD-DVD o BluRay. Esto dificultaba la
reproducción de los archivos a los compradores frente a los que lo descargaban de Internet,
que sin pagar podían reproducir en cualquier equipo.
Como ocurrió en los comienzos de la tienda de iTunes, los vídeos venían protegidos
para evitar su copia y restringir los equipos que podían reproducirlos. Esta política de
protección en las ventas hacia necesario comprar equipos compatibles para poder reproducir
el contenido ofertado. En el mercado había alternativas más económicas, con más funciones,
pero no eran compatibles con el DRM. Este requisito de tener que comprar un equipo
concreto impedía la competencia y, por tanto, la reducción de precios que permitiría a los
usuarios acceder a la tienda y no tener que recurrir a las descargas por redes P2P. Estas
medidas de protección, como otras veces, no han sido efectivas pero si costosas. Al poco
tiempo de presentarse aparecieron programas que las deshabilitaban permitiendo ver esos
vídeos en cualquier dispositivo compatible pero intercambiarlos. Los propietarios de los
derechos y otras empresas relacionadas con el sector se centraron en la protección sin atender
a los cambios y las nuevas tecnologías que iban surgiendo, de nuevo fueron necesarias
192
empresas ajenas al sector cinematográfico para encontrar modelos de negocio que
recuperaran las ventas pérdidas.
No solo los estudios cinematográficos vieron como sus clientes cambiaban sus hábitos
gracias a las nuevas tecnologías, también les ocurrió a las cadenas de televisión y a los
videoclubs. Gracias a equipos electrónicos e Internet se podía acceder al contenido en el
momento desde casa, sin esperar o sin tener que preocuparse por ir a la tienda o programar
grabador de video. La mejora de las conexiones de Internet y el aumento de líneas de banda
ancha desde mediados de la década del ’00 permitió la transmisión de video y la aparición de
sitios web como YouTube. Hasta ese momento los videoclubs, surgidos con el boom del VHS,
habían llevado bien el cambio del VHS al DVD. Las copias contaban con protección anti-copia,
poco efectiva aunque suficiente para que los clientes acudieran habitualmente a por más
títulos. Pero poco a poco las tiendas de alquiler de películas, como la estadounidense
Blockbuster creada en 1985 gracias al éxito del VHS, veían como los clientes dejaban de acudir
a las tiendas, preferían usar Internet para ver películas ya que se ahorraban el viaje de ida y
vuelta a las tiendas. Al ver este cambio en los hábitos y la importancia que estaba tomando
Internet, la empresa Netflix de Estados Unidos fundada en 1997 dio un cambio al mercado de
alquiler. Para evitar acudir a la tienda, la empresa ofrecía pagar por que la copia se enviara a
casa por correo ordinario, los DVD elegidos por el cliente en la página web se recibían en el
buzón y se devolvían, una vez vistos, en el mismo buzón sin límite de tiempo. Poco después, en
1999, se creó un servicio de suscripción con pago mensual, el que el cliente podía elegir o
dejarse que le recomendaran una lista de títulos. Se le enviaba el primer título de la lista, pero
para recibir el siguiente tenía que devolver el que ya tenía cuando quisiera, no había límite de
tiempo como en los videoclubs.
Los videoclubs tradicionales no aprovecharon las nuevas posibilidades que ofrecía
Internet: había que acudir al local. Empresas como Netflix se dieron cuenta de los cambios y
utilizaron las mejoras de Internet para ofrecer nuevos servicios similares a las redes P2P.
Hasta la mitad de la primera década del 2000 los costes de enviar un archivo de video
instantáneamente a casa de los clientes eran elevados, hacía inviable los servicios de video
bajo demanda con un precio competitivo. En 2008, cuando se mejoraron las líneas y se
abarataron los costes, el servicio de envío postal se mantuvo pero se comenzó a ofrecer a los
clientes un servicio de visionado de películas por Internet: no había que esperar a recibir el
DVD, se podía comenzar a ver al momento y no había discos que se estropearan por el uso. Al
igual que las redes P2P, las empresas de video bajo demanda como Netflix aprovecharon los
nuevos medios para llegar a los usuarios para distribuir los vídeos y cobrar por el servicio a sus
193
clientes. Las películas se almacenaban en unos servidores a los que los clientes podían acceder
pagando una cuota mensual, se conectaban desde casa con las líneas de banda ancha con un
ordenador o un reproductor compatible y podía ver tantas películas como quisieran de forma
inmediata. Los clientes recibían en su casa un archivo de video con una calidad equivalente al
DVD que podían comenzar a ver casi instantáneamente, sin tener que acudir a la tienda o sin
los problemas que surgían en las redes P2P. Anticiparse a los cambios ha sido fundamental
para empresas como Netflix les ha permitido llegar al cliente de una forma fácil y económica.
Otros, como los videoclubs tipo Blockbuster, rechazaron incorporar Internet a su modelo de
negocio y acabaron declarándose en bancarrota, desapareciendo o siendo absorbidos por
otras compañías que si incorporaron la distribución por Internet, pero con un atraso
importante que perjudicaba su competitividad.
Estos archivos de video, al igual que los que se compraban en tiendas como iTunes,
contaban con protecciones para evitar copias y reproducciones no autorizadas. Como pasaba
con la música estas protecciones perjudicaban a los clientes que los compraban, les limitaba
los dispositivos compatibles frente a la libertad de los archivos que se encontraban en Internet
y las redes P2P. Antes de contratar cualquier servicio de video bajo demanda o de compra
había que asegurarse que los equipos eran compatibles: ordenadores personales, sistemas
operativos y reproductores para el salón. Al carecer de un estándar en los servicios ofrecidos y
las protecciones no todos pueden usarse para acceder. Un reproductor compatible con un
servicio normalmente no lo era con otros, es decir, no hay una competencia real de la que el
cliente se pueda beneficiar con bajada de precios. Desde hace unos años, este problema se
está intentando solucionar con los televisores. Gracias a Internet y al abaratamiento de los
componentes electrónicos e informáticos se han podido incluir funciones similares a las de los
ordenadores. Esto ha posibilitado que la televisión pueda sustituir al ordenador como punto
de entrada de contenidos audiovisuales de pago, haciendo más fácil el proceso de compra y
visionado de todos los servicios disponibles. Poco a poco las nuevas televisiones van
incorporándolo a sus funciones, se le ha dado el nombre de SmartTV. Se trata de un sistema
operativo incorporado al propio televisor que trata de estandarizar los menús y funciones de
los televisores independientemente del fabricante. De esta manera es posible acceder a
servicios de video bajo demanda de pago sin tener que comprar un reproductor concreto, solo
hay que descargar la aplicación de software específica para ese servicio e instalarla en el
televisor para ver el contenido que ofrece. Si surge un nuevo servicio solo tiene que escribir su
aplicación programa y ponerla a disposición de sus clientes, no necesitan comprar ningún
equipo y pueden empezar a competir con el resto. Actualmente se está intentando crear un
194
estándar para todos los televisores, pero no todos los fabricantes se han unido. Algunos siguen
por su cuenta con su propio sistema para diferenciarse del resto de fabricantes, pero esto a la
larga perjudicara al cliente que se quedará sin soporte si no tiene éxito o el fabricante lo
abandona para unirse al estándar.
Como ya se ha visto anteriormente, las dificultades para encontrar un soporte
electrónico adecuado a las necesidades de lectura retrasaron la digitalización y
comercialización. A pesar de las anteriores experiencias comerciales de las compañías
discográficas, estudios de cine y televisión, los errores se volvieron a repetir con las empresas
editoriales. Los archivos que contienen los libros digitales se venden con DRM incorporado
para intentar controlar la copia y la distribución no autorizada. Pero como ocurrió antes con las
canciones y los vídeos, no ha sido eficaz ni bueno para los compradores. No pasó mucho
tiempo hasta que se publicó un método para anularlo y actualmente es sencillo anularlo
consultando en cualquier buscador de Internet. Los compradores consiguen unos ficheros con
funciones limitadas que dificultan enormemente la compra y lectura en cualquier lector de
libros electrónicos u ordenador. De forma resumida, el DRM limita el uso a un grupo de
dispositivos del comprado, requiere una configuración algo compleja tanto en ordenadores
como en e-books al tener que referenciar el archivo con el libro a un identificador único y
complica la elección de lector de libros y la utilización a los usuarios más inexpertos. Mientras,
los usuarios que descargar los archivos sin pagar, obtienen los libros de una forma más rápida
y sin limitaciones, pueden usarlos en cualquier equipo que compren y de cualquier precio.
Hasta hace poco tiempo era más sencillo usar un buscador de Internet para encontrar,
descargar y añadir un libro al lector electrónico que seguir el proceso de compra en una de las
tiendas de Internet con DRM debido a sus limitaciones, pero esto ha cambiado. Las empresas
editoriales han optado por ofrecer su catálogo en formato digital pero proporcionando al
lector un dispositivo donde que simplifica el proceso de compra y no necesita de un ordenador
personal.
Esta política de dispositivo de lectura que permite acceder a la tienda de fabricante
para comprar los libros es la que están siguiendo compañías como Amazon con el Kindle,
Apple con el iPad o Barnes & Noble con el lector Nook. Dentro de los equipos que permiten la
lectura hay dos grupos diferenciados: los lectores de tinta electrónica y las tabletas o tablet.
Los primeros están pensados para la lectura de libros debido a las características de su pantalla
y a la duración de la batería. Los segundos son preferibles para la visualización de
publicaciones periódicas como los diarios o las revistas gracias a la pantalla a color, tamaño y
rapidez para moverse por la publicación digital. Ambos dispositivos usan ficheros con DRM,
195
pero es transparente para el usuario. Se compra directamente desde el propio equipo
simplificando el proceso de compra y los problemas que generaba. Además, es posible tener el
archivo comprado en otro equipo de nuestra propiedad (ordenador, teléfono, tableta o lector
de libro electrónico) si se tienen equipos compatibles o de la misma plataforma para continuar
leyéndolo gracias a que el proceso de autorización que realiza el DRM se hace
automáticamente, sin intervención del usuario. Pero no todo son ventajas, la elección de un
dispositivo limita las tiendas donde adquirir libros y, por tanto, la competencia entre
vendedores que rebajaría los precios. Este problema se ha solucionado en parte gracias a que
ha habido una estandarización del software que se ha usado en las tabletas que facilita que los
vendedores de libros electrónicos puedan realizar aplicaciones con la que los usuarios pueden
acceder a otras tiendas. Por ejemplo, en el iPad de Apple se puede acceder a la tienda propia y
a otras como las de Amazon. Esta compatibilidad beneficia al usuario, puede comparar precios
y elegir el más barato a pesar de la protección DRM pero no es completa, desde los
dispositivos Kindle o Nook no es posible comprar en iTunes Store.
El uso del DRM es comprensible por parte de los propietarios como medida de
protección de las obras, pero las limitaciones que imponen o imponían al usuario perjudicaron
tanto los vendedores como a los compradores. Si los usuarios deciden comprar obtienen algo
con funciones limitadas, donde debe elegir entre las opciones compatibles que sean capaces
de reproducir los archivos lo que limita las opciones de compra del dispositivo electrónico y las
tiendas donde comprar contenido. Esa falta de alternativas para realizar las compras hace que
los precios del contenido tiendan a ser poco completivos. Un ejemplo es el caso de los libros, la
falta de ofertas o descuentos ha llamado la atención de las autoridades (19) y tras investigar se
ha comprobado como empresas como Apple había llegado a acuerdos con las empresas
editoriales “Simon & Schuster”, “News Corp HarperCollins”, “Hachette Livre” del grupo francés
“Lagardere SCA” y “Verlagsgruppe Georg von Holtzbrinck” en las que por contrato estas fijaban
a Apple los precios de venta de sus obras. Además impedía que otros minoristas, como
Amazon, pudieran vender por debajo de ese precio mediante descuentos. Los compradores,
buscaran donde buscaran, se encontraban problemas y un precio fijo muy similar al de las
tiendas. Si un libro, un disco o una película tienen unos costes adicionales de materiales o
transporte pero el precio es muy similar al formato virtual y encima este incorpora DRM, las
ventajas del formato y de la compra por Internet se pierden.
196
Presente y futuro de los derechos de autor
Tras la desconfianza y rechazo iniciales, las empresas del mundo audiovisual han ido
cambiado su postura respecto a Internet y las tecnologías de la información. Tal y como
ocurrió en el pasado, las innovaciones tecnológicas están pasando de ser un problema a la
solución tanto actual como de futuro para su negocio. El consumidor de contenidos está
prescindiendo mayoritariamente de los formatos físicos, gracias al uso de los ordenadores,
teléfonos inteligentes, tabletas o cualquier otro dispositivo electrónico con acceso a Internet.
Los contenidos digitales han dejado de ser algo minoritario de un grupo de usuarios con
conocimientos avanzados para convertirse en una alternativa sencilla para cualquiera que
crece año a año. Por ejemplo, en el año 2011 Amazon ya vendía más ejemplares de libros
digitales del género de novelas de ficción para su dispositivo Kindle que de papel (20).
Actualmente una buena parte de las canciones, vídeos o textos que llegan al consumidor a
través de Internet, el problema es la cultura del todo gratis que ha imperado desde la llegada
de Internet a los hogares. Los usuarios están acostumbrados a buscar, descargar y consumir,
pero no a pagar.
La mayor parte de la culpa de no pagar se reparte entre los usuarios y las empresas
propietarias de los derechos de autor. Los primeros se encontraron con los archivos
digitalizados de música en las primeras redes P2P, sin una tienda donde adquirirlos legalmente
provocando que con el paso del tiempo fuera costumbre no pagar por nada que fuese digital,
salvo los dispositivos electrónicos donde reproducir los archivos. Los segundos por su falta de
flexibilidad ante los cambios que iban produciéndose, no supieron aprovechar las nuevas
tecnologías que surgían, centraron su lucha en mantener un modelo de negocio que se iba
quedando obsoleto con cada nuevo formato o innovación que aparecía. Al no ofrecer
rápidamente a los usuarios una alternativa viable, fiable y sencilla para que pagaran estos
optaban por seguir descargando por otros medios. También aparecieron otros agentes
externos que vieron un negocio en los archivos digitales, podían obtener dinero si
proporcionaban un medio para que los usuarios pudieran acceder a las descargas de
contenido. Uno de estos agentes eran las operadoras telefónicas, usaron la música y los vídeos
como reclamo para que atraer nuevos clientes para sus recién estrenados servicios de la banda
ancha (ADSL y cable). Ofertaban que pagando una cuota mensual podían acceder a todo lo que
quisieran, más rápido que con los accesos que disponibles hasta el momento. Otros eran
aquellos que ofrecieran servicios en Internet para almacenar o localizar esos archivos
digitalizados. Las operadoras telefónicas alquilaban el canal de acceso cobrándolo
197
mensualmente, el resto proporcionaban el espacio en Internet donde almacenar páginas web
o archivos ganando dinero por publicidad o suscripciones de los usuarios. Mientras los dueños
del contenido con derechos de autor, condicionados por la pasividad las empresas que
gestionaban sus obras, no obtenían ningún tipo de compensación económica o beneficio de
todo este nuevo canal de distribución surgido de la nada.
Desde la aparición las primeras redes de intercambio de ficheros, las grandes empresas
de la música, cine, editoriales y los autores optaron mayoritariamente por no utilizar Internet
como una vía para llegar a sus clientes. Gracias al poder conseguido durante el último siglo con
sus actividades comerciales, comenzaron a presionar a los gobiernos para que aprobaran o
cambiaran leyes y para que se protegieran sus intereses económicos de forma global frente a
Internet. En la mayor parte de los países y con las leyes ya existentes, las denuncias que se
ponían a los usuarios que descargaban material con derechos de autor o los administradores
de los servicios de Internet donde se alojaban no prosperaron. Al no prosperar no se conseguía
el efecto intimidatorio que buscaban las denuncias con el resto de usuarios, que en lugar de
disminuir iban aumentando tanto en número como en descargas. En España estaba
contemplada la copia privada por lo que era posible duplicar este tipo material sin el permiso
del propietario siempre que se tenga la copia original, que no exista ánimo de lucro y sea para
uso personal, es decir, comprar un disco y hacer un duplicado para poder usarlo en casa, el
coche o prestarlo a otro miembro de la familia. Hasta el momento los jueces no han
encontrado delitos en que los usuarios y administradores de páginas en el intercambio de
ficheros o enlaces cuando no existe ánimo de lucro. Estas sentencias y la falta de alternativas
para comprar han hecho que arraigara aún más la idea del todo gratis en Internet. En otros
países, como Estados Unidos, sí que se han producido algunas sentencias en las que los
usuarios han sido condenados a pagar cuantiosas multas que han puesto sobre aviso al resto.
Pero también ha ayudado la puesta en marcha de nuevos servicios en los que comprar
material de forma legal de forma sencilla, la gente lo prefiere si el proceso es fácil y tiene un
precio adecuado para evitar problemas legales. En Francia, se ha optado por vigilar a los
usuarios y darles hasta tres oportunidades, Ley Hadopi, para que dejen de descargar contenido
con derechos de autor antes de desconectarles de Internet o imponer multas por las descargas
realizadas.
Pese a los acuerdos firmados por la mayor partes de los países para la defensa de los
derechos de autor, no hay un frente común en Internet. El problema de Internet es que
cuando se solicita una página web esta puede estar almacenada en otro país y puede ser
necesario atravesar varios equipos ubicados en otros países. Pese a haber una defensa común,
198
en cada territorio hay distintas interpretaciones sobre una misma ley y al no existir fronteras
se hace muy difícil que un país pueda actuar contra los usuarios o servicios de Internet de otro.
Actualmente están en fase de estudio o aprobación varias leyes para combatir tanto la copia
de ideas como de objetos físicos, según sus promotores tienen como objetivo una protección
más eficaz de la propiedad intelectual de cualquier tipo en todo el mundo. Pero, tras estudiar
el contenido de estas nuevas leyes, los mecanismos que se van a emplear y los organismos a
los que se les va a otorgar el poder para decidir que bloquear y que no se ha descubierto que
esconden otros intereses que nada tienen que ver la protección de la propiedad intelectual.
En Estados Unidos los proyectos de ley SOPA, Stop Online Piracy Act (Acta de cese a la
piratería en línea), o PIPA, Protect IP Act (Preventing Real Online Threats to Economic
Creativity and Theft of Intellectual Property Act) tienen como finalidad la protección legal y
económica de los dueños o autores de cualquier tipo de obra, contenido u objeto. Se busca
acabar con todo tipo de actividades ilícitas que perjudiquen la economía de Estados Unidos
mediante copias o falsificaciones en el propio país o en otro cualquiera. Para conseguirlo se
planea tener un mayor control de la infraestructura de Internet, tanto dentro del país como
fuera. Para ello controlaran equipos básicos de Internet como los servidores de nombre de
dominio (DNS), los encargados de encontrar a los servidores de las páginas web que son como
una especie de páginas amarillas de Internet. Estos mecanismos van a permitir controlar el
acceso a ciertos servidores de Internet que albergue contenido considerado como ilegal y
bloquear esas páginas web para uno o varios países. El problema es que también puede usarse
para censurar o bloquear otras páginas con otro tipo de información en cualquier lugar del
mundo. Al no estar prevista la supervisión de jueces o cualquier otro miembro del sistema
judicial para decidir si es procedente el cierre de una web quedaría en manos los responsables
de estos sistemas de control y bloqueo. Si estos consideraran que una página web es
perjudicial para unos intereses particulares podrían bloquearla tenga o no que ver con las
infracciones estipuladas por la ley, no tendrían que justificar nada. Para que estos sistemas de
control sean lo más eficaces está prevista la prohibición por ley cualquier tipo de aplicación
que los usuarios pudieran utilizar para saltarse o inutilizarlos. Aplicaciones como los servicios
de proxy, que permiten simular una conexión desde un lugar físico distinto en el que uno se
encuentra, han permitido a los habitantes de los países tener información distinta a la versión
oficial que ofrecían los dirigentes por las vías oficiales en acontecimientos recientes como la
primavera Árabe.
Este control sin supervisión judicial estos mecanismos son potencialmente peligrosos,
con la excusa de la lucha por la propiedad intelectual se acabaría con la neutralidad y la
199
libertad de expresión con la que Internet cuenta desde su creación, sería posible que un
pequeño grupo pudiera controlar y modificar la información que llega a los internautas
ofreciéndoles solo una versión oficial y censurando el resto como ocurre actualmente en
China. Este sistema de intervención global en Internet estaría dirigido por empresas u
organismos privados bajo el control del gobierno de Estados Unidos, provocando que el resto
de países dejaran de tener el control de la red y equipos de Internet ubicados en su país.
Además, dada la poca precisión de algunas de esas leyes aparecería una inseguridad jurídica
muy perjudicial para los inversores en nuevas tecnologías y administradores de sitios web. Si
un usuario publica contenido con derechos de autor, por ejemplo un video casero con música
de la que no tiene los derechos o escribe un comentario que contiene un enlace a un archivo
protegido, el responsable sería el administrador del servicio por permitirlo y si se considera
oportuno se procedería al cierre o bloqueo de la web al completo. En páginas con muchos
usuarios, la dificultad para revisar todo que se publica y realizar un control total obligaría a
muchos los propietarios y administradores de estos sitios a cerrar para evitar denuncias,
multas o penas de cárcel. Esta inseguridad jurídica retrasaría los avances y la entrada de capital
de riesgo necesario para la creación de servicios innovadores, perjudicando a los usuarios.
En España, la Ley de Propiedad Intelectual en vigor desde 1987 que ha sido modificada
en 1996, 1998 y 2006 no ha resultado todo lo eficaz que los autores y las empresas que los
representan hubiesen querido. La mayor parte de las denuncias presentadas en los juzgados
por violación de los derechos de autor han acabado desestimadas o con sentencias no
favorables. Los usuarios o administradores de sitios web en la mayoría de sitios web, al no
buscar el beneficio económico según la interpretación judicial, no han sido encarcelados o
multados. Desde mucho antes de la implantación generalizada de Internet el Gobierno, para
compensar por el derecho a copia privada, creó un canon que gravaba los equipos y soportes
multimedia con una cantidad de dinero que se destinaba a pagar a los dueños de las obras
como compensación por las obras no vendidas por los duplicados. Con el fin de tener un
mayor control, todos los participantes del proceso creativo se agruparon para defender con
más eficacia sus derechos e intereses económicos en sociedades de gestión de los derechos de
autor:
AIE (Artistas intérpretes o ejecutantes)
AISGE (Artistas Intérpretes Sociedad de Gestión)
AGEDI (Asociación de gestión de derechos intelectuales)
CEDRO (Centro español de derechos reprográficos)
DAMA (Derechos de autor de medios audiovisuales)
200
EGEDA (Entidad de Gestión de Derechos de los productores audiovisuales)
SGAE (Sociedad General de Autores y Editores)
VEGAP (Visual entidad de gestión de artistas plásticos)
Cada una de estas sociedades defiende los intereses de los miembros de los distintos
gremios, pero la más mediática y la de mayor importancia en los últimos años es la SGAE. Los
miembros deben pagar una cuota para ser formar parte y ceder los derechos de sus obras a la
sociedad que los gestionará de forma conjunta con los de todos los autores. Periódicamente
reparte la parte correspondiente de la recaudación de los derechos de autor y el canon que
han generado sus obras según el porcentaje de cada autor en las ventas totales, es decir, a
mayores ventas legales más parte proporcional de ese dinero.
Las cintas de casete y VHS vírgenes ya incluían un canon, pero en el año 2002 se
comenzó a cobrar canon digital en los CD y DVD grabables y en los equipos electrónicos
capaces almacenar contenido audiovisual aumentando la recaudación total debido al volumen
de ventas que tenían. El dinero recaudado gracias al canon, el incremento del duplicado de
obras no autorizado y la bajada de ventas de los formatos originales hizo la SGAE fuera noticia
más a menudo ya que representaba al conjunto de artistas con mayor volumen de ventas de
España. Fue la que mayor protagonismo tomó por la repercusión de sus controvertidas
peticiones, como cobrar en todo lugar público o privado en el que se escuchara música, y por
la persecución a la que sometía a todo aquel que fuera sospecho de poner música sin pagar
por ello. Para los artistas, pertenecer a estas sociedades era una forma de asegurarse recibir
una parte del canon recaudado y compensar las ventas perdidas por las copias de sus obras,
pero no fue positivo para todos. El reparto, al estar asociado con las ventas globales, solo
beneficiaba a los que más vendían ya que se suponía que eran los más perjudicados por las
copias y, además, las acciones llevadas a cabo por la SGAE para cobrar no hicieron más que
poner a la opinión publica en contra de algunos artistas que aceptaban ese tipo de gestiones.
Tras unos años de actividad la justicia detectó una serie de actividades sospechosas y comenzó
a investigar a los directivos de la SGAE directivos descubriendo que habían estado
malversando fondos durante varios años (21).
La justicia española y su interpretación de las leyes no han proporcionado las
sentencias favorables que esperaban los autores, las empresas audiovisuales o las sociedades
de gestión de derechos. No ha habido castigos ejemplarizantes para los usuarios y
administradores de páginas web que frenaran el duplicado no autorizado de material
protegido, ni tampoco se han puesto en marcha plataformas para que los usuarios pudiera
alquilar o comprar en lugar de usar las redes P2P. Las practicas llevadas a cabo por los
201
interesados lejos de mejorar su imagen pública y concienciar de que es necesario seguir
comprando cultura, ha empeorado con acciones como la de cobrar en conciertos benéficos
(22) o la de espiar en comercios que tenían hilo musical para reclamarles un canon. En el
último lustro la presión de las empresas audiovisuales y autores españoles y de países como
Estados Unidos se ha incrementado, esto ha llevado a los políticos a promulgar la ley conocida
como Disposición Final Cuadragésima Tercera de la Ley de Economía Sostenible o Ley Sinde-
Wert. Esta ley toma el nombre de los apellidos de los dos Ministros de Cultura que estaban en
el cargo durante su desarrollo y aprobación. Pero lo que parecía una evolución lógica en la
defensa de los autores para continuar avanzando en su protección ha quedado en una serie de
mecanismos que permiten evitar pasar por un juzgado a los acusados para obtener una
condena sin pasar que tenga que intervenir un juez.
La Ley Sinde-Wert busca una eficacia en las denuncias que las sociedades gestoras de
los derechos de autor interponen. Esta ley, como las estadounidenses SOPA o PIPA, ha dado el
poder de decisión a un grupo de personas ajenas a la justicia. Pueden decidir si un usuario o
administrador de páginas web es culpable del delito que se le acusa sin un juicio previo. Un
ejemplo de aplicación de esta ley lo ponía el abogado David Bravo, especializado en derecho
informático y en propiedad intelectual, con el caso de la página web “bajui.com” (23). El
administrador de esta página, que albergaba enlaces a contenido protegido, había sido llevado
a juicio por lo civil y por lo penal y en ambos casos se aceptó la petición de sobreseimiento y el
archivo de las actuaciones judiciales mediante una resolución firme: los hechos denunciados
no eran delictivos según lo dictaminado por dos jueces. El único condenado en este proceso
fue la SGAE que además fue multada por mala fe procesal al pedir el cierre cautelar de la web.
Pese a tener dos sentencias en firme, gracias a la Ley Sinde-Wert se ha pasado el caso a la
“Comisión Sinde” que actúa por la vía administrativa contra esta web si no retira los enlaces en
un periodo de tiempo determinado. A diferencia de los otros procesos, este procedimiento
primero se ha dirigido formalmente contra una empresa suiza, “uploaded.to” para solicitarle
que elimine el contenido protegido que alberga sin permiso, en este caso concreto el
contenido era el disco “Un ramo de rosas” de la artista Luz Casal. Se obliga a esta compañía
debe eliminar ese contenido y cualquier idéntico que guarde. Y la página “bajui.com” tendrá
72 horas, una vez se le notifique, para eliminar los enlaces a esa obra ya que se le considera un
intermediario en una infracción cometida por un tercero, la compañía “uploaded.to”. No hay
una fase de alegaciones en las que el dueño exponga sus argumentos frente a la notificación,
no puede defenderse. Si hace caso omiso, según el artículo 38.2.b. de la “Ley Sinde”, se
considerará una infracción muy grave incumplir esa orden dada por el órgano administrativo
202
por lo que el administrador de la página web podría ser sancionado a pagar una multa de entre
150.001€ y 600.000€, sea consciente o no de vulnerar los derechos de autor. Pese a no haber
un juez de por medio para decidir si la web puede ser sancionada o no, parece una forma algo
más eficaz de luchar contra las descargas ilegales. El problema es que al administrador se le
hace responsable de los enlaces a presentes y futuros de esa obra que aparezcan en su página,
normalmente este tipo de páginas añaden automáticamente los enlaces de otras o bien son
los usuarios los que colaboran añadiendo los propios a la página. El administrador debería
instaurar un sistema de filtrado perfecto y completamente eficaz para no incumplir la
obligación que se le impone. En teoría es posible, pero en la práctica la automatización del
filtrado del contenido es casi imposible si el tamaño de la web debido a la complejidad de la
tarea, la obra podría aparecer con otro nombre indetectable para un sistema informático pero
si para un ser humano: sería necesario que el administrador o el grupo de responsables de la
web controlara cada uno de los enlaces que se añaden.
Por lo general, estas páginas web con enlaces no tienen un tamaño grande en
comparación a las principales páginas de Internet ni una comunidad de usuarios mayor de
unas decenas de miles por lo que la tarea de la vigilancia podría encomendarse a un sistema de
filtrado automatizado más o menos perfecto y a una revisión realizada por un conjunto de
personas. Pero la complejidad de la revisión minuciosa para detectar enlace a obras con
protegida con derechos de autor también tendrían que hacerlo otras páginas como los
buscadores (Google, Bing, Yahoo, Facebook, Twitter, etc.) o páginas como la Wikipedia o
buscadores o indexadores de noticias. Estas páginas tiene tamaño enorme que aumenta
segundo a segundo por la indexación automatizada, un número de usuarios que se cuenta por
millones y un volumen de datos que hace inviable un sistema de filtrado perfecto e imposible
una revisión minuciosa de todo el contenido. Al considerar que esas páginas son
intermediarios que facilitan a los usuarios los archivos protegidos, la Ley Sinde puede solicitar
que los retire con los mismos términos y sanciones económicas. Si en las páginas de enlaces el
esfuerzo era importante pese al tamaño y número de usuarios, en estas páginas se hace
prácticamente inabordable, sobre todo si los usuarios se proponen ocultar los enlaces. Los
enlaces seguirían apareciendo, por lo que tendrían que pagar multas a diario o cerrar. Estos
problemas pueden impedir la creación de nuevas web innovadoras debido al miedo a ser
multadas y a que los inversores de capital riesgo serán mucho más precavidos al invertir lo que
hará que la innovación sea menor.
En España, la Audiencia Nacional dictó sentencia en marzo de 2011 con relación al
canon digital, mediante una sentencia se anulaba la orden ministerial PRE/1743/2008 que
203
regulaba el canon digital desde el 1 de julio de 2008. Como se ha visto, este canon gravaba el
precio de los soportes haciendo pagar a los compradores de los mismos una cantidad de
dinero que iba destinada a las sociedades de derechos de autor, se usaran como se usaran,
daba lo mismo si era para copias de archivos personales o con derechos de autor. Esta
aplicación indiscriminada hizo que el canon se considerara ilegal. El gobierno, tras el revés que
suponía para las empresas de la industria, ha tenido que incluir en los Presupuestos Generales
del Estado una cantidad de dinero para compensar el derecho a copia privada, evitando que
sean los consumidores de soportes los que lo paguen. Si la aplicación del canon era injusta
para los usuarios que compraban los soportes, ahora, al incluirlo en los presupuestos, lo van a
pagar con sus impuestos todos los contribuyentes. Lo pagarán tenga o no un ordenador, un
disco duro o un MP3. Ese dinero destinado a compensar el derecho a copia privada no servir
ya que muchos discos de música o los vídeos en DVD y BluRay llevan sistemas anti-copia que
no lo permiten, es decir, se está pagando por un derecho que no se puede ejercer. La solución
dada es, cuanto menos, bastante mala ya que no resuelve el problema principal de estas
empresas que es amoldarse a las nuevas tecnologías. El modelo de negocio tradicional no está
funcionando tienen que cambiar. Se tiene que ofrecer a los usuarios lo que piden algo sencillo,
inmediato, seguro para evitar que tengan que acudir a las redes P2P o servidores de descarga
directa, que no son sencillos para todos los usuarios. A todo lo anterior hay que tener en
cuenta que los usuarios piden un precio competitivo, mucho menor que el del formato físico
que se compra en tiendas, para ello tendrán que estudiar en cuales son los procesos e
intermediarios en los que pueden ahorrar para ofrecer un mejor precio. Pero no son los
únicos, los autores ahora tienen la posibilidad de llegar al público directamente usando la
tecnología, con menos intermediarios y con mayor libertad para hacer lo que realmente
desean, no lo que le impongan en un contrato.
204
Conclusión
Resulta llamativo ver cómo las mismas empresas que ahora controlan los derechos de
autor comenzaron bordeando lo ilegal o directamente saltándose el pago a los autores, como
ahora ocurre con Internet. Las imprentas y editoriales no pagaban a los autores ni a otras
editoriales por el uso de los textos, los sellos discográficos vendían música de artistas de los
que no tenían los derechos y los estudios de cine se ubicaban cerca de la frontera para escapar
de la justicia por las patentes de los equipos de grabación y pagaban poco o nada a los
guionistas o actores. Tras una lucha de muchos años, los autores recuperaron sus derechos y
recibían una parte de los beneficios que generaban sus obras pese a las trabas de esas
empresas.
En el caso de la música y los vídeos, los promotores del paso del formato analógico al
digital fueron mismas industrias. Buscaban ofrecer a los clientes una mejor experiencia
audiovisual y una reducción en los costes de fabricación de los duplicados, pero también volver
a vender los discos que ya tenían al ofrecer una calidad mejor. También hubo quejas cuando
aparecieron otros competidores como la radio, la televisión, el videograbador doméstico o la
imprenta, auguraron que era el fin del negocio, que si tenía éxito acabaría con los libros, la
música o el cine. Pero no sucedió, tras adaptarse a los cambios esas industrias han llegado
hasta nuestros días. En el libre mercado, la empresa que no sabe adaptarse a la nueva
situación debe cambiar o desaparecer para dejar paso a otras que si han sabido hacerlo. No es
razonable, las demás que si han sabido adaptarse no van a recibir una subvención pública
mientras que estas sí y continuaran como hasta ahora, sin hacer nada. La excusa de que ese
dinero es para compensar a los autores, los más perjudicados, está teniendo una repercusión
negativa para ellos. Las empresas de la industria son útiles pero también prescindibles gracias,
los autores pueden seguir creando sin empresas. Si no cambian, los autores pueden buscar
fuentes de ingresos alternativas gracias a las nuevas tecnologías que le permitan seguir
realizando sus obras.
Hasta ahora las ideas y esfuerzos para proteger a los autores y continuar con la venta
en formato físico se puede resumir en la expresión “intentar poner puertas al campo”. Se está
ignorando el poder de difusión de Internet como antes ocurrió con la televisión, la radio o la
aplicación de la electrónica a muchas de las fases del proceso creativo y de fabricación. Estos
adelantos fueron rechazados en sus orígenes, pero con el paso del tiempo se convirtieron en la
base sobre la que construir de los grandes grupos y empresas audiovisuales y editoriales
actuales. Internet permite a los autores llegar a cualquier parte del mundo en poco tiempo con
205
muchos menos intermediarios pero con menos protección contra duplicados no autorizados.
Queda claro que es necesario encontrar una forma de compensarlos por su trabajo ya que
conseguir todo su trabajo gratis no es viable: sin recibir dinero los autores tendrían que buscar
otro trabajo y dejar sus carreras artísticas. Pero la digitalización del contenido no fue idea de
los autores si no de las empresas que poseen sus derechos. Estas empresas, con la excusa de
un aumento de calidad se ofrecía a los consumidores cada pocos años nuevos soportes
digitales que eran mejores que los anteriores para que siguiera comprando o recomprar lo que
ya tenían. Es una evolución lógica debido a los avances de la industria electrónica permite y el
abaratamiento de costes que estas empresas buscaban para producir y duplicar. Pero esto
mismo provoco que los libros, la música y los vídeos pudieran llegar a los ordenadores y, más
tarde, a Internet con los resultados que se conocen.
Tras los sucesivos intentos de tomar el control de los soportes digitales, de Internet y
de la información que se intercambia se puede intuir que la defensa de los derechos de autor
es una excusa para algo más. Tras estas leyes, que se están aprobando con mucha polémica,
parece que hay unos intereses ocultos por parte de los gobiernos y de las grandes
corporaciones. Buscan tener un mecanismo para poder tener el control de la información,
similar al que tienen en los medios tradicionales como la prensa, radio y televisión.
Actualmente, gracias a su arquitectura y funcionamiento, no es posible elegir que se publica y
que no, no es posible limitar el acceso a cierto contenido sensible. Pero con los cambios
tecnológicos previstos en las leyes y la concesión del poder de decisión a grupos ajenos a la
justicia, a priori, no se garantizarían decisiones objetivas para los usuarios y los dueños de las
páginas web. No podrán recurrir ante la justicia como ocurre con la Ley Sinde o las leyes que se
aprueben en un futuro. Por suerte, no todos están de acuerdo con este control y, gracias a la
complejidad de Internet, conseguirlo va a resultar muy difícil.
Con las primeras redes P2P los esfuerzos de las principales compañías del sector se han
dedicado a vigilar, controlar y sancionar el intercambio de archivos de los usuarios en lugar de
ver que la parte positiva para su negocio que podían aprovechar. Los autores y las grandes
empresas cinematográficas, discográficas y editoriales lo pasaron por alto, o no quisieron
verlo. Internet estaba convirtiéndose en canal de comunicación para llegar a sus clientes
habituales y a otros nuevos, de una forma rápida y sin importar la ubicación. Este vacío unido a
la demanda de los consumidores de contenidos digitales a través de Internet ha invitado a que
otras empresas, ajenas al negocio, vieran el potencial que ofrece. La demora en adaptarse al
cambio está restando poder y capacidad de decisión a las grandes empresas del sector. Pero
no es sorprendente ya que se ha visto que a lo largo de la historia ha ocurrido lo mismo
206
cuando aparecía una nueva tecnología: el que no se adaptaba a los cambios acaba
desapareciendo o pasando a un segundo plano. Empresas como Apple Inc., de informática, o
Amazon, venta de libros y otros bienes, se han convertido en una parte importante, su opinión
y sus sugerencias son tomas en cuenta por las grandes empresas del sector para dar nuevos
pasos. Su influencia les ha permitido solicitar que se retirara la protección DRM para hacer la
vida más fácil al cliente, tanto en el proceso de compra y como en el uso diario. Han sabido dar
soluciones, tanto de dispositivos para reproducir el contenido como de tiendas virtuales, para
que los consumidores pudieran pagar por el contenido que las empresas discográficas,
cinematográficas o editoriales no les proporcionaban. Estos nuevos actores han proporcionado
a los clientes un sitio donde comprar sin acudir a una tienda, a los autores poder recibir una
compensación económica por su trabajo gracias a esos dispositivos y tiendas virtuales y a las
grandes empresas que se podían obtener beneficio económico de Internet, solo había que
proporcionar a los usuarios cierto orden y sencillez para compensar la pérdida de ventas del
canal tradicional ya que había clientes que estaban dispuestos pagar pero que no podían.
En un futuro próximo, el camino a seguir para evitar que los archivos sean copiados
sin el permiso de los autores o de las gestoras de sus derechos es proporcionar a los
compradores formas sencillas de conseguir servicios y archivos de calidad, con acceso al
catálogo completo y un precio acorde a lo que se vende. Lo primero es que las tiendas
virtuales tiene que ser sencillas, completas y seguras para que no merezca la pena acudir a las
redes P2P o a los servidores de descarga directa. La continua evolución de Internet también
tiene que permitir encontrar formas de comercialización alternativas a la venta, como un
alquiler o un pago periódico por tener acceso al contenido. Pero para que esto tenga éxito las
empresas dueñas de los derechos deben ponerse de acuerdo para conseguir tener la mayor
parte del contenido en un mismo lugar para no tener que pagar acudir a más de un sitio virtual
para tener lo que se busca, sin esto compensará más seguir acudiendo a Internet: allí se
encuentra todo tipo de contenido. También hay que tener en cuenta que en los archivos
digitales hay menos intermediarios y procesos: el autor, el proceso de producción de la obra, la
promoción, la sociedad que le gestiona los derechos y la tienda virtual que lo vende. Y con las
herramientas que la informática y la electrónica les proporcionan, los autores de libros, música
y algunas películas pueden prescindir intermediarios, realizar su promoción y vender sus obras
a los compradores sin gran esfuerzo. Por estos motivos los precios deben estudiarse, ya que si
los consumidores serán reticentes a realizar la compra si ven que el precio es el mismo que
cuando compraban un objeto físico (disco o libro). Con el formato virtual, parece poco
razonable que el precio sea el mismo si no hay que hacer duplicados, no se necesita materiales
207
como el papel o plástico, no hay que enviar cajas de un lugar a otro, no hay que estimar cuales
son las ventas para producir tantas copias como se van a vender ni hay que exponerlos tiendas
donde ocupan espacio, solo hay que tener equipos informáticos lo suficientemente potentes
para que capaces de enviar al cliente los ficheros y seguros para dar confianza durante el
proceso de compra. Pero también hay otros factores que el comprador no ve, el principal
problema se encuentra en que no es lo mismo repartir el coste de la producción de un disco o
una película entre pocas copias que entre varios millones de copias, esto perjudica a los que
menos venden ya que sus obras deberían ser más caras que las de los que más venden.
Los perjudicados de todo este cambio en el canal de distribución son los
intermediarios, pasan a ser prescindibles, y los autores noveles, carecen de apoyo económico
al empezar su carrera. Las tiendas que venden o alquilan libros, música o películas ven como
sus ventas han disminuido por Internet, pero también por la comodidad e inmediatez que
proporciona comprar o alquilar desde casa, sin desplazarse ahorrando tiempo del que muchas
veces no se dispone. Para contrarrestar tendrán que buscar formas de volver a traer a los
clientes que sigan prefiriendo el formato físico y a los coleccionistas. Las empresas que se
dedican a editar libros, discos o películas también les afectan los duplicados no autorizados e
Internet, pero también la evolución de la electrónica. Gracias a la disminución de precios es
posible prescindir de estudios de grabación, los autores pueden auto-editar sus propias obras
sin tener que firmar contratos leoninos, con cláusulas que impiden su desarrollo creativo, a
costa de un mayor volumen de ventas gracias a la maquinaria publicitaria. Por un precio
asequible se puede conseguir el equipo informático y los dispositivos electrónicos adecuados
para escribir y publicar un libro, grabar un disco o incluso una película con una calidad que
antes solo estaba al alcance de las grandes compañías y ponerla al alcance de cualquiera
persona del mundo gracias a Internet. Estas compañías tienen a su favor la promoción de
obras ya que los canales tradicionales como la radio, televisión o prensa son caros y no están al
alcance de cualquiera que empieza, pero esto también está cambiado gracias a Internet.
La importancia publicitaria de Internet crece día a día situándose a la altura, e incluso
superando, a los medios tradicionales antes mencionados. Si gusta a los usuarios les gusta
algo, gracias intercambio de enlaces al contenido se puede hacer una campaña publicitaria
impagable, que llega a todos los rincones del planeta de forma gratuita en tiempos muy
reducidos. Antes de plantearse la problemática de la publicidad, los autores se encuentra con
que debido a la bajada de ventas de los soportes tradicionales las empresas son mucho más
reticentes a dar apoyo económico a los que empiezan, prefieren poner el dinero donde se sabe
con seguridad que se va a recuperar, como en las secuelas de éxitos de taquilla o en autores y
208
compositores consagrados. Los autores que están empezando se encuentran una barrera
económica para publicar su primer trabajo, pese a resultar más sencilla de superar que hace
unos años gracias al bajo coste de la electrónica, todavía es difícil de superar si no cuentan con
el apoyo de las grandes empresas que se han mencionado. Pero esto está cambiando gracias a
páginas web en las que los autores independientes que comienzan exponen la idea que
quieren llevar a cabo y otros usuarios aportan pequeñas cantidades de dinero para llevar a
cabo esa idea. Se trata de proyectos de financiación colectiva o “crowdfunding”, básicamente
hacen lo mismo que hacen las grandes corporaciones apostar por ideas que gustan y que
pueden venderse. Al financiarse de esta manera, reciben el dinero y la publicidad de otros
internautas que, al haber invertido en el proyecto, lo comentara con sus conocidos y creará
interés.
También se está prescindiendo de los canales tradicionales de distribución publicando
trabajo en páginas de Internet que no están bajo la supervisión y los plazos de las grandes
compañías. Con los libros en la web de Amazon cualquier autor puede venderlo, los músicos
que empiezan eligen páginas como YouTube para darse a conocer o vender sus canciones en
sitios como iTunes. Los directores de cortos también usan páginas similares a YouTube para
darse a conocer y conseguir el dinero. Es decir, los propios autores preparan y venden sus
trabajos en Internet. Con las películas comerciales es más complejo debido al dinero necesario,
pero se están dando los primeros pasos con los estrenos simultáneos en las salas de cine e
Internet. En Estados Unidos, la primera película con cierta repercusión mediática y éxito ha
sido “Margin Call” del director J.C. Chandor, (24) se estrenó simultáneamente consiguiendo 9
millones de dólares, de los cuales 6 millones son de las salas de cine con entradas a 12 $ y 5
millones de su venta en Internet con el visionado a 5$. En España las películas que se exhiben
en cines tienen que cumplir un plazo de tiempo antes de pasar al estar disponibles para
alquilar o comprar. Esto juega en contra de los autores y productores de la película, nada más
estrenarse suele estar disponible para descargar sin pagar en Internet y cuando se comercializa
ha pasado demasiado tiempo y muchos de los interesados ya la han visto. Como se ha visto
muchos espectadores no quieren o no pueden acudir al cine, demandan verla desde el sofá de
casa o tener un precio menor que el de acudir al cine, pero como no está disponible recurren a
Internet sin pagar. Algunos autores se han dado cuenta y están empezado a cambiar: el
modelo tradicional de estreno en cines y meses después en DVD está obsoleto, los
espectadores demandan verla desde casa. El primero que se ha atrevido a hacerlo en España y
que ha contado con cierta repercusión mediática ha sido en director y actor Paco León con la
película “Carmina o Revienta”. Tras preguntar a sus seguidores en las redes sociales estrenó la
209
película en cines a la vez que la vez que se ponía a la venta en tiendas e Internet consiguiendo
ser la película más vista en Internet en España gracias a su precio, 1,95€ (25) y recuperar la
inversión inicial. Pese al éxito aparente, hay que tener en cuenta que el presupuesto de la
película era bajo y que para películas con mayor presupuesto hubieran sido necesarias unas
cifras mayores de recaudación y espectadores para no perder dinero.
Pese a los problemas que están teniendo la industria editorial, musical y
cinematográfica con Internet, este es al futuro o al menos el futuro que demandan los usuarios
ahora mismo. Cualquiera de los proyectos que se están llevando a cabo en la red es el
comienzo de un nuevo modelo de negocio para los libros, la música o el cine en el Internet. En
él, Internet tiene que pasar de ser un problema a una parte importante de la solución en la que
ambas partes quede satisfechas: los autores y dueños de las obras recibe su dinero y los
espectadores deciden cómo, dónde y cuándo quiere consumir el contenido. Los consumidores
de contenidos tienen que encontrarse con un proceso sencillo, seguro y un precio adecuado
por el que no compense acudir a las redes P2P o cualquier otro nuevo sistema que surja.
También son necesarias unas leyes ecuánimes en las que se proteja tanto a los autores como a
los usuarios, que los procesos estén supervisados por jueces imparciales que impongan
sentencias justa e intimidatorias a aquellos que se lucren con obras protegidas para conseguir
que el porcentaje de usuarios que decide copiar disminuya hasta ser algo residual. Pero en
todo este proceso de cambio de modelo de negocio, Internet no debe cambiar. Debe seguir
siendo libre, independiente y sin fronteras. No se debe utilizar la excusa de los derechos de
autor para poder incluir mecanismos de censura o bloqueo que esconden otros objetivos, casi
siempre políticos, y que perjudicaran a todos los usuarios de Internet al intentar
criminalizarlos. Ni se deben cambiar las leyes ni a los que las aplican hasta conseguir la
sentencia deseada, es necesario un cambio profundo en el modelo de negocio donde no se
invierta en proteger la copia y si se haga en buscar formas óptimas de llegar al consumidor. En
este cambio tienen que desaparecer aquellos que se han adaptado y ser relevados por
aquellos que han encontrado una solución que respeta a los autores. Los gobiernos tienen que
centrarse en ayudar a los autores con leyes justas para que reciban su dinero, no a las
empresas que los representan ni a ellos mismos con mecanismos de control y censura en
Internet.
210
211
Conclusión
Las nuevas tecnologías parecen ser el origen y la solución de los principales problemas
que la sociedad tiene actualmente. El uso de tecnología se presenta como la salida a la crisis
económica pero también se asocia al desempleo o las desigualdades sociales. Como se ha
visto, la tecnología es solo un instrumento para generar cambios, eso sí es una parte
fundamental para que sucedan. La tecnología por sí misma no puede decidir cuál será su
siguiente paso. Como todo instrumento necesita que alguien determine cómo será su
desarrollo y por donde se ha de continuar con los descubrimientos que van surgiendo. Por
tanto, el problema está en quien ejerce el control sobre la tecnología y en los fines que se
persigue al emplearla, no la tecnología en sí misma.
Estas personas, debido al coste económico que necesita la tecnología para
desarrollarse, son los mismos que estaban al mando de gobiernos y corporaciones, los que
contaban con los medios y el dinero necesario. Debido a la naturaleza acumulativa de los
conocimientos tecnológicos, el control que ejercen sobre el resto va incrementándose según
pasa el tiempo. Se amplía la brecha entre los que tienen acceso a los conocimientos y los que
no. También cuentan con la ventaja de que la tecnología proporciona una difusión mundial de
la información que se ajuste a sus intereses y un control global ejercido desde lugares
concretos sin tener que exponerse. Les permite estar conectados entre sí, por un canal de
comunicación exclusivo por el que pueden tomar decisiones que afectan a todo el mundo en
un instante sin tener que mostrarse públicamente para dar explicaciones.
Mediante aplicaciones diversas de los avances tecnológicos, como los ordenadores y
las redes de telecomunicaciones, un reducido grupo de la elite gubernamental y empresarial
de unos pocos países puede tomar decisiones que influyen a todos los habitantes del planeta.
En la primera parte, se ha visto como desde una ciudad como Nueva York, emblema de la
ciudad dual, mediante un conjunto de decisiones tomadas allí se ha conseguido cambiar la
estructura social y organizativa del resto de ciudades, estados o países. Las principales
decisiones buscaban sustituir la industria tradicional por una nueva y más rentable: la industria
informacional. Además, se buscaba acabar con los privilegios adquiridos durante años por los
trabajadores para reducir la conflictividad social.
En esta nueva industria, el producto principal es la información y los procesos para
obtener más que retroalimentan para seguir innovando. Debido a sus particularidades las
necesidades de mano de obra se polarizan. Una parte de la mano de obra ha de tener una
212
formación muy especializada, normalmente universitaria, para que el proceso de innovación
prospere, y la otra parte de la mano de obra debido al empleo de maquinaria es mano sin
especializar, sin educación superior, ya que solo realiza tareas repetitivas como el montaje o
empaquetado. Por este motivo desaparecen muchos de los puestos de trabajo intermedios de
la industria tradicional que se encuentran con dos problemas: carecen de la formación
necesaria para formar parte de la mano de obra especializada y tienen un salario demasiado
alto para trabajar en la no especializada. La desaparición de estos puestos de trabajo trae
consigo la disminución de una parte importante de la clase media en los países donde la
economía informacional triunfa.
Debido a la rapidez a la que la tecnología permite que se produzcan globalmente los
cambios económicos la demanda comercial varia al mismo ritmo. La industria informacional
opta en la parte de producción por los contratos temporales, esto ayuda maximizar los
beneficios al flexibilizar la producción que se puede ajustar a la demanda. Cualquier persona
con una preparación básica se puede incorporar al proceso de producción. De esta manera se
evita fabricar más de lo que se va a vender, algo que provocaría un coste adicional por tener
que almacenarlo. A su vez se minimiza la conflictividad laboral, al no haber contratos de larga
duración no hay mejoras por antigüedad en los contratos y la amenaza del despido está
siempre presente.
Ante la disminución de las actividades industriales tradicionales en favor de las
actividades informacionales surgieron graves problemas de desempleo, se optó por apoyar y
desarrollar una industria de servicios que absorbiera una gran parte de la mano desocupada.
Los gobiernos, mediante un importante desarrollo del estado del bienestar, crearon puestos
de trabajo en sectores como la sanidad o la educación que mejoraban la calidad de vida de sus
ciudadanos. Las grandes empresas también lo hicieron, pero una manera indirecta. Los sueldos
de sus empleados y el escaso tiempo del que disponían fomentaron la creación de empleos
dedicados a los servicios y al ocio. Estos empleos se crearon en sectores como el de la
restauración, ocio o servicios al hogar como la limpieza o el cuidado de los hijos. Pese a no
tener nada que ver con la industria informacional tenían gran parte de sus rasgos, eran
empleos polarizados en los que muchos de esos trabajadores tenían un suelo escaso pero que
tenían que estar disponibles para trabajar durante muchas horas. Todo el conjunto contribuye
aún más a la formación de la ciudad dual que se caracteriza por una estructura ocupacional
polarizada, con más desigualdad salarial y segmentación.
La tecnología es un instrumento que se ha usado para llevar a cabo los cambios que se
han visto pero no es el factor fundamental que los ha provocado. La tecnología puede
213
potenciar la productividad, el crecimiento económico y el empleo, sobre todo fuera del sector
de la alta tecnología. Pero también contribuye a la dualización en los puestos trabajos, de las
clases sociales o en el aumento del desempleo que generan una nueva estructura social. La
tecnología no toma decisiones por sí misma para llegar a un fin, pero es indispensable para
estos cambios. Son otros los que toman las decisiones que se aplicaran en todo el mundo
desde los centros económicos de las ciudades duales. Es necesario que las personas que no
forman parte de esta elite vuelvan a tener el control y a tomar el control de sus propias vidas,
para ello necesitan de la tecnología. Necesitan de una comunicación mediante redes globales
de comunicación alternativas a las de los centros económicos que permitan equilibrar y tomar
decisiones provechosas para cualquiera y no solo para unas pocas empresas o países.
En este proceso las redes de telecomunicaciones han sido indispensables, pero
también se ha visto que han generado polémicas que polarizan a la sociedad. En el caso de las
antenas de telefonía móvil, se ha visto cómo pese a ser un elemento indispensable para que
funcionen las redes, existe un rechazo a que se coloquen cerca de los hogares, lugares de
trabajo o los colegios. Por un lado está el desconocimiento por la mayor parte de los
ciudadanos del electromagnetismo y sus efectos en la salud. Desde el origen de los tiempos,
los seres vivos han estado y están expuestos al electromagnetismo que procede del sol. Para
contrarrestar sus efectos la evolución ha proporcionado mecanismos de defensa naturales a
los seres vivos. Pero los medios de comunicación, sin pruebas ni estudios, relacionan
rápidamente el aumento de los casos de cáncer en una zona concreta con la cercanía de las
antenas sin tener en cuenta otros factores ambientales creando una alarma social no
justificada. Tampoco ayuda la actitud de las compañías de telecomunicaciones que no tienen
una política común en todos los países respecto a la cantidad de emisiones electromagnéticas
seguras ni al tratar de ocultar estudios que les perjudican en lugar de rebatirlos con pruebas.
En las zonas con baja densidad de población el problema con las antenas es menor, al
poderse alejarlas sin afectar al servicio. En las grandes ciudades densamente pobladas es más
complicado, en el caso de la telefonía móvil afecta el número de clientes a los que dar
cobertura y la ubicación de estos, por lo que para dar servicio a más usuarios son necesarias
más antenas y deben estar colocadas a menor distancia y no siempre es posible alejarlas si se
quiere una cobertura óptima. Para minimizar los problemas con las antenas, las operadoras de
telefonía móvil han empezado a compartir los emplazamientos donde ya están instaladas. De
esta manera hay menos quejas por parte de los vecinos, ya que están acostumbrados a su
presencia, y se ahorran costes al compartir el alquiler de lugar donde instalarlas, que es caro
debido las noticias hay que desembolsar más dinero para compensar los supuestos riesgos.
214
Pese a lo que pueda parecer, en las grandes ciudades no solo emiten las antenas
móviles también hay otros servicios que emiten electromagnetismo. Estas emisiones de radio,
televisión u otros servicios pueden ser más perjudiciales por las características de las ondas,
frecuencia y energía. Las de menor frecuencia que las de telefonía móvil contienen más
energía a igual distancia y son capaces de penetrar más en los tejidos vivos para calentarlos,
pero estas no causan tanta alarma. Este aumento de temperatura es el que tiene efectos
adversos sobre la salud, el motivo es que en el interior de los seres vivos no hay mecanismos
que regulen la temperatura como en la piel con las glándulas sudoríparas. Además de prestar
atención a las torres de antenas habría que tener en cuenta las emisiones de los propios
teléfonos móviles, la antena se encuentra a escasos centímetros de la cabeza y hay usuarios
que pasan varias horas al día llamando.
Pero estas no son las únicas redes que se están desplegando en las ciudades y
edificios. Actualmente se busca tener cobertura Wi-Fi para acceder a Internet desde
ordenadores y teléfonos sin cables en casa, el trabajo y en toda la ciudad para tener Internet
de alta velocidad siempre disponible y con un precio menor que el de las tarifas de datos de las
compañías telefónicas. Estas redes, al contrario que las de telefonía móvil, no cuentan de
momento con un rechazo tan amplio por lo que la colocación de repetidores no causan
alarma. Esto supone otra emisión electromagnética más que añadir a las ya existentes en las
ciudades, son más antenas transmitiendo a poca potencia pero más cerca. Estas redes también
se están instalando en los colegios y centros educativos para facilitar el acceso Internet. Para
ello se están colocando equipos en las aulas donde hay niños sin impedimentos por parte de
los padres. Pero ya existen grupos de padres que piden su retirada basándose en los estudios
que van apareciendo que dicen que los niños, al estar en fase de desarrollo no tienen
completamente protegido su cerebro y estas emisiones al no disiparse en espacios cerrados
pueden afectarles, sobre todo en aulas con varios equipos.
Los estudios realizados hasta el momento no son unánimes en relacionar directamente
las antenas, el electromagnetismo y el aumento del número de casos de cáncer en zonas
cercanas a estas. Pero las autoridades recomiendan, con el fin de evitar futuras enfermedades,
seguir el principio ALARA, es decir, recibir la menor cantidad de electromagnetismo posible.
Por ello, en el caso de la telefonía móvil y debida la forma que tiene de dar servicio parece
aconsejable tener más antenas a menor distancia transmitiendo con una potencia menor. Los
usuarios también pueden contribuir reduciendo su exposición haciendo un uso responsable
con un menor tiempo de exposición, ya que los terminales durante la fase de comunicación
son cuando más electromagnetismo se emite y recibe.
215
Los terminales móviles y los teléfonos inteligentes permiten tener acceso a Internet de
alta velocidad en cualquier momento y lugar gracias a los avances en las redes de telefonía
móvil. No es necesario conectarse desde el ordenador de casa o el trabajo, como hace unos
años, ahora es posible desde la calle o un lugar remoto en mitad del campo. Esto no hubiera
sido posible sin los avances en el campo de los semiconductores y la electrónica de las últimas
décadas. Se ha podido miniaturizar la radio, televisión, los equipos informáticos o de
electrónica de consumo para poder llevarlo en un bolsillo. Con un teléfono móvil se puede
hacer llamadas, conectarse a Internet, hacer fotos, grabar o reproducir video y música o jugar
algo que solo era posible en un ordenador personal.
En los ordenadores personales las mejoras no se han quedado atrás, gracias al
aumento de la capacidad de cálculos es posible realizar tareas que antes solo podían hacerse
en costosos equipos y lo mismo en la electrónica de consumo con las videocámaras, cámaras
de fotos o equipos de sonido. Con unas cantidades de dinero al alcance de muchos
compradores es posible comprar equipos y programas capaces de grabar, editar y duplicar una
película o un disco de música con una calidad muy próxima a la conseguida por las empresas
que se dedican a ello.
Estos avances no solo fueron para los consumidores finales, gracias a ellos la industria
audiovisual y editorial han podido cambiar la forma de la gente de ver películas, oír música,
jugar o leer un libro así como el proceso de creación y duplicado. El problema es que con la
digitalización de los contenidos también se ha simplificado el proceso de duplicado y ahora
puede hacerlo cualquiera con el equipo necesario. Los datos digitales son más fáciles de copiar
y no pierden calidad con cada copia como pasaba con las cintas de VHS o casete. Al perder la
exclusividad del duplicado estas empresas han visto como sus productos se distribuían sin su
autorización y sin que ni ellos ni los autores cobraran nada. La popularización de Internet
también ha perjudicado a dueños de los derechos y a los autores, la información digitalizada
puede enviarse de un lugar sin usar un soporte físico en poco tiempo sin enviar nada más que
un conjunto de unos y ceros.
En Internet se han ideado formas sencillas de enviar y compartir ficheros de audio,
imagen, video o texto. Pese a su complejidad, los usuarios pueden compartir ficheros con todo
el mundo como lo harían con sus amigos. Las redes P2P y otros servicios permiten el
intercambio de ficheros de forma casi anónima, es lo mismo que se hacía con las cintas de
casete o VHS años atrás pero sin moverse de casa y sin necesidad de conocer a la otra persona.
Las empresas dueñas de los derechos y los autores han intentado acabar con estos
mecanismos de intercambio, pero se han encontrado con muchas dificultades debidas a
216
estructura de Internet. Cuando se han conseguido cerrar servicios de este tipo, los usuarios de
Internet encontraban alternativas que solucionaban los puntos débiles por los que había caído.
Esto ocurrió con Napster, era un servicio centralizado en un equipo central, tras su cierre los
nuevos estaban distribuidos y si caía un servidor el resto podían sustituirle sin que nadie lo
notara.
Junto con estos sistemas de intercambio de archivos aparecieron páginas web que
proporcionaban una especie de índice para encontrar lo que se publicaba. Los usuarios no
tenían que buscar palabras clave ni preocuparse de si realmente contenía lo que indicaba su
descripción. Estas páginas recibían muchas visitas y sus dueños podían incluir publicidad que
les reportaba dinero, carecían del espíritu de compartir que tienen las redes P2P. Al tener
ánimo de lucro fueron las siguientes en ser denunciadas por los autores para tratar de parar el
intercambio de archivos, alguna de las más importantes cerraron. Pero cuando una cerraba
aparecían otras páginas similares. Ni los autores ni las empresas que se dedicaban gestionar
los derechos de estos y a vender los soportes físicos (discos o libros) se dieron cuenta de que
los consumidores habían cambiado la forma de consumir contenidos. Carecían de una
alternativa que pudiera competir en cuanto a rapidez y sencillez con el intercambio P2P para
que los usuarios pudieran elegir comprar en lugar de descargar sin pagar. Tuvieron que
aparecer empresas ajenas al sector, como Apple o Amazon, para dar a los consumidores una
alternativa viable.
Al comenzar a cambiar su modelo de negocio tarde, las empresas del sector buscaron
influir en los gobiernos para hacer cambios en la legislación gracias al poder acumulado y a su
volumen de negocio. Estos cambios chocaban con las leyes anteriores, según ellos, demasiado
permisivas que muy pocas veces les daban la razón en los juicios. Por ello, comenzaron a
ejercer presión sobre los gobernantes para que cambiaran las leyes por otras que les
permitieran cerrar páginas de intercambio de enlaces sin tener en cuenta las leyes vigentes y
las sentencias del sistema judicial. El problema de estos cambios es que sin jueces, nadie ejerce
un control para ver si un cierre es legal o no. Con estos nuevos mecanismos se pueden cerrar
páginas, pero también se pueden usar para censurar información de cualquier tipo ya que
permiten realizar cambios en Internet para bloquear el acceso desde ciertos lugares a los
equipos servidores de esas páginas.
No se busca un beneficio común para los ciudadanos, al dejar a un lado al sistema
judicial cualquiera que pueda acceder a estos mecanismos de control puede cerrar páginas,
interceptar comunicaciones o censurar la información a su antojo. Las entidades que van a
tener el control son los gobiernos o las grandes corporaciones globales, las mismas que
217
controlan los flujos de información y que están cambiando la sociedad tradicional por la
informacional. Tener la posibilidad de bloquear sitios en Internet no va a solucionar los
problemas con los derechos de autor. Los usuarios más avanzados buscarán maneras de
esquivarlos, pero el resto tendrán los conocimientos. Esto agravara los problemas de
dualización que se han ido viendo. Ya que si la red de intercambio de información que es
Internet, el elemento que tienen los ciudadanos para equilibrar las redes de intercambio de
información de las grandes empresas y los gobiernos, deja de ser completamente
transparente, neutra y puede ser censurada, nos encontramos con que el esfuerzo necesario
para conseguir revertir los cambios que se les imponen será mucho mayor que si esta es
completamente libre y carece de filtros.
218
219
Bibliografía
1. Observatorio nacional de las telecomunicaciones y de la SI. ONTSI. [En línea] 1 de 06 de
2011. http://www.ontsi.red.es/indicator/detail.action?id=553&request_locale=es.
2. Instituto Nacional de Estadística. Instituto Nacional de Estadística. [En línea] 7 de
Septiembre de 2011. http://www.ine.es/.
3. CMT. Comisión del mercado de las telecomunicaciones. [En línea] Septiembre de 2011.
http://www.cmt.es.
4. NASA. NASA. [En línea] http://mynasadata.larc.nasa.gov/images/EM_Spectrum3-new.jpg.
5. Benítez, Luis María. Wikipedia. [En línea] 2005.
http://es.wikipedia.org/wiki/Archivo:Contaminaci%C3%B3n_electromagn%C3%A9tica_%28esp
ectro_electromagn%C3%A9tico%29.png.
6. OMS. International EMF Project. Nota descriptiva Nº 205. [En línea] Noviembre de 1998.
http://www.who.int/docstore/peh-emf/publications/facts_press/fact_spanish.htm.
7. —. International EMF Project. Nota descriptiva Nº 183. [En línea] Mayo de 1998.
http://www.who.int/docstore/peh-emf/publications/facts_press/sfact/nd183.htm.
8. S.A., Telefónica. Telefónica: Responsabilidad Corporativa y Sostenibilidad. [En línea]
http://www.rcysostenibilidad.telefonica.com/es/medio_salud/faqs.php.
9. Asamblea Parlamentaria. Next-up. [En línea] 27 de Mayo de 2011. http://www.next-
up.org/pdf/Consejo_de_Europa_Resolucion_1815_Los_peligros_potenciales_de_los_campos_
electromagneticos_y_sus_efectos_en_el_medio_ambiente_08_06_2011.pdf.
10. autores, Varios. The Eighties Club. [En línea] http://eightiesclub.tripod.com/id408.htm.
11. http://www.lemuria.org. DeCSS Central. [En línea]
http://www.lemuria.org/DeCSS/main.html.
12. Imdb.com. Imdb.com. [En línea] http://www.imdb.com/boxoffice/alltimegross.
13. —. Imdb.com. [En línea] http://www.imdb.com/boxoffice/alltimegross?region=world-wide.
14. Britannica, Encyclopedia. [En línea]
http://www.britannica.com/EBchecked/topic/482597/history-of-publishing.
15. Intel. Intel. [En línea] http://www.intel.es/content/www/es/es/silicon-
innovations/moores-law-embedded-technology.html.
220
16. Elmer-DeWitt, Philip. CNN Money. [En línea] CNN, 15 de 6 de 2011.
http://tech.fortune.cnn.com/2011/07/15/analysts-ipods-sales-expected-to-decline-7-2-year-
over-year/.
17. Storm, David. Computer World, Pág. 76. [Online] Julio 19, 1999.
http://books.google.es/books?id=r6fVZ4hOrzcC&lpg=PA76&hl=es&pg=PA76#v=onepage&q&f
=false.
18. Apple Inc. Apple iPod History. [En línea] http://www.apple.com/pr/products/ipodhistory/.
19. Europapress. Europapress. [En línea] 3 de Septiembre de 2012.
http://www.europapress.es/portaltic/sector/noticia-apple-cuatro-editoriales-digitales-
ofrecen-descuentos-evitar-multas-monopolio-20120903082757.html.
20. Reuters. Reuters.com. [En línea] 19 de Mayo de 2011.
http://www.reuters.com/article/2011/05/19/amazon-idUSN1915000220110519.
21. Lázaro, Fernando. El Mundo. [En línea] 1 de 7 de 2011.
http://www.elmundo.es/elmundo/2011/07/01/espana/1309537638.html.
22. Simón, Pedro. El Mundo. [En línea] 5 de 5 de 2009.
http://www.elmundo.es/elmundo/2009/05/04/espana/1241465705.html.
23. EP. Europa Press. [En línea] 18 de Junio de 2012.
http://www.europapress.es/portaltic/internet/noticia-david-bravo-denuncia-ley-sinde-mas-
peligrosa-parecia-20120618134652.html.
24. Cassadó, Gerard Alonso. Fotogramas. [En línea] 21 de Diciembre de 2011.
http://cineonline.blogs.fotogramas.es/2011/12/21/el-curioso-caso-de-margin-call/.
25. Agencia EFE. Google.com. [En línea] 10 de Julio de 2012.
http://www.google.com/hostednews/epa/article/ALeqM5hnKU2xfYAdpeNHrIpk69et4cb3iw?d
ocId=1823394.
26. Abril, Ines. www.cincodias.es. [En línea] 5 de Junio de 2006.
http://www.cincodias.com/articulo/empresas/telefonia-movil-supera-espana-numero-
habitantes/20060605cdscdiemp_5/.
27. Blu-raystats.com. Blu-raystats.com. [En línea] http://www.blu-raystats.com/.
28. Michán, Miguel. Applesfera. [En línea] 2009 de Septiembre de 7.
http://www.applesfera.com/apple/la-historia-del-ipod-e-itunes-en-una-sola-pagina.
Recommended