164
1 Introducción a las Telecomunicaciones Introducción a las telecomunicaciones Fundamentos de las telecomunicaciones Introducción Conocimientos generales de electrónica Características de las ondas electromagnéticas Tipos de sistemas de telecomunicaciones Clasificación de los sistemas Sistemas analógicos Modulación en amplitud Modulación en banda lateral Modulaciones angulares Sistemas digitales Modulaciones digitales Digitalización de la voz Comunicaciones por radio Introducción e historia El espectro radioeléctrico Elementos de un sistema de radiocomunicaciones Transceptores Antenas Líneas de transmisión Sistemas de adaptación de antenas Conectores Suministro eléctrico Fundamentos de propagación La Ionosfera Ecuación de transmisión y factores de atenuación Propagación en las bandas de HF Propagación en las bandas de VHF y UHF Consejos para la utilización de transceptores Sistemas de comunicaciones por radio Redes privadas móviles (PMR) Redes troncales (trunking) Telefonía móvil Radiobúsqueda (pagers) GMDSS y Servicio Móvil Marítimo Servicio Móvil Aeronáutico Comunicaciones vía satélite Sistemas de radionavegación Transmisión de datos por radio Sistemas de corto alcance Sistemas de Telecomunicaciones públicos

Introducción a Las Telecomunicaciones

  • Upload
    mensses

  • View
    20

  • Download
    0

Embed Size (px)

DESCRIPTION

electronica

Citation preview

Page 1: Introducción a Las Telecomunicaciones

1

Introducción a las Telecomunicaciones

Introducción a las telecomunicaciones Fundamentos de las telecomunicaciones

Introducción Conocimientos generales de electrónica Características de las ondas electromagnéticas

Tipos de sistemas de telecomunicaciones Clasificación de los sistemas Sistemas analógicos Modulación en amplitud Modulación en banda lateral Modulaciones angulares Sistemas digitales Modulaciones digitales Digitalización de la voz

Comunicaciones por radio Introducción e historia El espectro radioeléctrico Elementos de un sistema de radiocomunicaciones Transceptores Antenas Líneas de transmisión Sistemas de adaptación de antenas Conectores Suministro eléctrico Fundamentos de propagación La Ionosfera Ecuación de transmisión y factores de atenuación Propagación en las bandas de HF Propagación en las bandas de VHF y UHF Consejos para la utilización de transceptores Sistemas de comunicaciones por radio Redes privadas móviles (PMR) Redes troncales (trunking) Telefonía móvil Radiobúsqueda (pagers) GMDSS y Servicio Móvil Marítimo Servicio Móvil Aeronáutico Comunicaciones vía satélite Sistemas de radionavegación Transmisión de datos por radio Sistemas de corto alcance

Sistemas de Telecomunicaciones públicos Red Telefónica Básica (RTB) Fax Internet

Abreviaturas

Introducción a las telecomunicaciones

Page 2: Introducción a Las Telecomunicaciones

2

Las telecomunicaciones constituyen un elemento esencial para asegurar la coordinación preventiva y operativa de los recursos movilizables en los casos de grave riesgo colectivo, catástrofe extraordinaria o calamidad pública. Resulta obvio que existe una necesidad de transmitir mensajes de diversa índole entre todos los servicios que intervienen en una situación de emergencia, con la incorporación de las últimas tecnologías, de cara a que los órganos coordinadores puedan desarrollar su función de la forma más eficaz posible y con información de primera mano acerca de la evolución de la situación de la emergencia.

El conocimiento y comprensión del funcionamiento los nuevos sistemas de telecomunicaciones resulta prácticamente imprescindible, no sólo en el ámbito de la Protección Civil, sino en toda la globalidad de nuestra actual sociedad de la información.

Todo miembro de Protección Civil necesita tener un conocimiento mínimo de la infraestructura de sistemas de telecomunicación que pueden emplearse, así como la forma de complementarlos entre sí para suplir los inconvenientes de sus puntos débiles. Por ejemplo, los sistemas tradicionales de telecomunicación por hilos pueden verse afectados por una catástrofe y Protección Civil debe ser capaz de restaurarlos o sustituirlos por otros que puedan ofrecer funcionalidades semejantes, como los sistemas radio.

Las telecomunicaciones no solamente tienen importancia en el desarrollo de una intervención en situación de emergencia. También son de gran utilidad para la realización de labores preventivas, de formación y de comunicación de masas.

El avance tecnológico en el campo de las telecomunicaciones ha sido espectacular en la segunda mitad del siglo XX, hasta el punto de que a día de hoy podemos hablar de nuestra sociedad como la "sociedad de la información".

Por otro lado, las tecnologías más punteras que ofrece actualmente este sector están fuera del alcance o el conocimiento de gran parte de la sociedad. Como ya se ha dicho, las telecomunicaciones son un elemento fundamental para asegurar la coordinación y la operatividad de Protección Civil, por lo que resulta vital que cualquiera de nosotros tenga al menos los conocimientos mínimos sobre los sistemas que actualmente están en servicio.

Fundamentos de las telecomunicaciones

Introducción

Telecomunicación significa comunicación a distancia: el envío de la información contenida en un mensaje desde un origen hasta un destino que se encuentra en un punto geográficamente alejado, a través de un canal de comunicación.

Nuestro primer objetivo será definir una base de clasificación de los diferentes sistemas de telecomunicación, de tal forma que podamos encuadrar facilmente cualquier sistema para tener una primera idea de sus características.

Cualquier sistema de telecomunicación sirve para transmitir un mensaje a través de un canal, utilizando los medios necesarios para adaptar la información al canal.

La información a transmitir puede ser de naturaleza diversa: nuestra propia voz, un texto, una imagen. En ocasiones podremos transmitir la información sin modificarla, por ejemplo, al hablar por

Page 3: Introducción a Las Telecomunicaciones

3

una radio convencional. Otras veces será necesario adaptarla para ser transmitida: nuestro fax trata el documento que queremos enviar para transmitirlo por una línea telefónica. El proceso de adaptación normalmente implica la digitalización de la información, de la que hablaremos mas adelante. En el momento en que la información entra al sistema de comunicación, nos referiremos a ella como señal.

El canal de comunicación se utiliza para transmitir la información a larga distancia. Puede tratarse de un medio alámbrico (un cable coaxial, una fibra óptica) o inalámbiro (la atmósfera). Normalmente, para que la información alcance su destino, deberá pasar por diversos canales de comunicación: las ondas de radio pasan por el cable coaxial que conecta un emisor con su antena, para pasar después a la atmósfera.

Los medios para adaptar la información son un conjunto de sistemas electrónicos sobre los que normalmente tenemos la capacidad de actuar para modificar parámetros de la comunicación: un micrófono, una equipo de radio, un teclado, un módem. En este capítulo solamente vamos a tratar medios de comunicación electrónicos, que utilizan ondas electromagnéticas para cumplir con su función.

En la siguiente figura se muestra un diagrama de bloques con los elementos básicos de un sistema de comunicación:

Diagrama de bloques básico de un sistema de telecomunicación.

El transductor es el elemento encargado de transformar la información en una señal eléctrica, y viceversa. Por ejemplo, un micrófono transforma nuestra voz en una onda eléctrica y un altavoz realiza el proceso contrario. La señal eléctrica a que nos referimos se conoce como señal en banda base.

El transmisor (Tx) adapta la señal en banda base para su transmisión óptima a través del canal de comunicación. Este proceso se denomina modulación. A través del canal viaja una señal modulada.

El receptor (Rx) realiza la función inversa al transmisor, demodulando la señal captada del canal para transformarla en una señal eléctrica en banda base, que después será convertida nuevamente al formato original del mensaje mediante otro transductor.

La práctica totalidad de los sistemas actuales incluye una parte de procesado tanto en transmisión como en recepción. La finalidad del procesado es adaptar la señal de forma que sufra la menor degradación posible cuando viaje a través del canal. Dentro de este bloque podemos incluir elementos como amplificadores, digitalizadores, codificadores y filtros. El procesado también incluye otras funcionalidades, como el cifrado de la información para garantizar la confidencialidad.

Como ya se ha indicado, los sistemas de telecomunicación electrónicos se basan en la utilización de ondas electromagnéticas. La señal en banda base que proporcionan los transductores ha de ser adaptada para ser transmitida por el canal, normalmente combinándola con otra señal electromagnética en un proceso denominado modulación.

En el proceso de modulación intervienen varias ondas, como se muestra en la figura 1.2. La información en forma de señal banda base actúa como señal moduladora, actuando sobre otra

Page 4: Introducción a Las Telecomunicaciones

4

onda de frecuencia fija generada por el propio sistema que se conoce como onda portadora, nombre que recibe por el hecho de portar la información mientras viaja por el canal. La combinación de señal moduladora y onda portadora da lugar a una onda modulada.

El mensaje que nuestro sistema convierte en una señal eléctrica en banda base, modula a una onda portadora para ser transmitida. La onda portadora nos sirve como soporte para transmitir la señal que lleva la información, que se conoce como señal moduladora.

Normalmente una onda portadora es una onda sinusoidal que solamente ocupa una frecuencia. Por el propio proceso de modulación, la señal modulada presentará la característica de ocupar un rango de frecuencias superior al original. A este rango se le denomina ancho de banda.

Proceso de modulación

El ancho de banda definirá la capacidad de nuestro sistema para transmitir información.A mayor ancho de banda, mayor capacidad. Por ejemplo, una emisión de radio de FM comercial tiene mayor calidad que una emisión de FM de un "walkie-talkie", porque la primera ocupa un ancho de banda mucho mayor. De la misma forma, un acceso a Internet con un módem estándar es mucho más lento que un acceso con ADSL, porque el primero utiliza un ancho de banda mucho menor.

Las señales utilizadas en los sistemas modernos de telecomunicación son ondas electromagnéticas. En el siguiente apartado veremos alguna de sus características.

Conocimientos generales de electrónica

La corriente elécrica

Básicamente la corriente eléctrica es el movimiento de electrones en un medio conductor, resistivo o semiconductor.

La corriente continua

Page 5: Introducción a Las Telecomunicaciones

5

La corriente continua (C.C.) o corriente directa (D.C.) como su nombre lo indica es un flujo continuo de electrones es decir se mantiene constante durante todo el tiempo que este aplicado, ejemplo de elementos que proporcionen corriente directa están las pilas o las baterías.

Las pilas y las baterías mantienen en sus bornes un diferencia de potencial (voltaje) continuo.

La corriente alterna

La corriente alterna (A.C.) como su nombre lo indica es un flujo de electrones "alterno", es decir varía a través del tiempo pasando de un mínimo a un máximo varias veces dentro de un tiempo determinado (frecuencia).

Este paso de la corriente de un mínimo a un máximo se denomina ciclo, y la cantidad de ciclos en un tiempo determinado se denomina frecuencia, la frecuencia se la mide en "Hertzios".

Por ejemplo la corriente alterna en el hogar de 220 o 125 voltios varía de un mínimo a un máximo 60 ó 50 veces en un segundo, es decir tiene una "frecuencia" de 60 ó 50 ciclos por segundo (hertzios).

El voltaje

Para que circule una corriente (flujo de electrones) por un circuito es necesario proporcionar al mismo una fuerza electromotriz, tensión o voltaje a sus bornes.

Esta fuerza electromotriz o voltaje es el que obliga a los electrones a moverse por el circuito y su unidad de medida es el voltio (V).

Hay voltajes directos (los que proporciona una pila), y voltajes alternos (como los que proporciona la toma de A.C. de la casa); un voltaje alterno producirá una corriente alterna, un voltaje directo producirá una corriente directa.

A más voltaje (mayor tensión) habrá un mayor flujo de electrones y por lo tanto una mayor corriente (A), esta relación viene definida en la ley del Ohm.

La corriente

Como ya mencionamos anteriormente la corriente no es mas que el movimiento de los electrones, a mayor cantidad de electrones moviéndose habrá una mayor corriente. La unidad básica de medida de la corriente es el Amperio (A).

La resistencia

La resistencia es la oposición que pone un medio al movimiento de los electrones (o corriente), a mayor resistencia en un circuito circulará una menor corriente en el mismo.

La unidad de medida del la resistencia es el Ohm.

La corriente fluye por un circuito eléctrico siguiendo varias leyes definidas. La ley básica del flujo de la corriente es la ley de Ohm, así llamada en honor a su descubridor, el físico alemán George Ohm. Según la ley de Ohm, la cantidad de corriente que fluye por un circuito formado por resistencias puras es directamente proporcional a la fuerza electromotriz aplicada al circuito, e inversamente proporcional a la resistencia total del circuito.

Page 6: Introducción a Las Telecomunicaciones

6

Esta ley suele expresarse mediante la fórmula:

I = V / R

Siendo:

I la intensidad de corriente en amperios,V la fuerza electromotriz en voltios yR la resistencia en ohmios.

La ley de Ohm se aplica a todos los circuitos eléctricos, tanto a los de corriente continua (CC) como a los de corriente alterna (CA), aunque para el análisis de circuitos complejos y circuitos de CA deben emplearse principios adicionales que incluyen inductancias y capacitancias.

Circuitos serie-paralelo

Un circuito en serie es aquél en que los dispositivos o elementos del circuito están dispuestos de tal manera que la totalidad de la corriente pasa a través de cada elemento sin división ni derivación en circuitos paralelos.

Cuando en un circuito hay dos o más resistencias en serie, la resistencia total se calcula sumando los valores de dichas resistencias. Si las resistencias están en paralelo, el valor total de la resistencia del circuito se obtiene mediante la fórmula.

En un circuito en paralelo los dispositivos eléctricos, por ejemplo las lámparas incandescentes o las celdas de una batería, están dispuestos de manera que todos los polos, electrodos y terminales positivos (+) se unen en un único conductor, y todos los negativos (-) en otro, de forma que cada unidad se encuentra, en realidad, en una derivación paralela. El valor de dos resistencias iguales en paralelo es igual a la mitad del valor de las resistencias componentes y, en cada caso, el valor de las resistencias en paralelo es menor que el valor de la más pequeña de cada una de las resistencias implicadas. En los circuitos de CA, o circuitos de corrientes variables, deben considerarse otros componentes del circuito además de la resistencia como son las reactancias capacitivas e inductivas.

Circuitos derivados

Hasta este momento se ha visto que la corriente procedente de uno de los polos de un generador circulaba por un conductor en el que estaban intercalados elementos de consumo: resistencias, lamparitas, motores, etc., para regresar al otro polo del generador cerrándose así lo que se conoce como circuito serie. Ocasionalmente se ha explicado la existencia de diferentes caminos para la corriente a partir de un mismo generador, tal es el caso de los shunts o resistencias puestas en paralelo con los amperímetros. Estos circuitos que admiten varios caminos para la corriente eléctrica son los circuitos derivados.

La aparición de los circuitos derivados ha supuesto introducir los conceptos de red, rama, nudo y malla, términos relacionados con las explicaciones y estudio de este tipo de circuitos.

El significado de estos conceptos, es el siguiente:

Red: Recibe esta denominación cualquier circuito eléctrico o electrónico puesto que es la combinación de generadores y de elementos eléctricos o electrónicos interconectados entre sí mediante conductores de hilo o de circuito impreso.Rama: También se la conoce como brazo de la red y está formada por un número determinado de

Page 7: Introducción a Las Telecomunicaciones

7

elementos en serie.Nudo: Constituye cualquiera de los puntos de unión en una red, aquellos en los que convergen dos o más ramas.Malla: Es la ramificación o ramificaciones que dan lugar a un paso continuo en la red.

Con respecto a este último concepto hay que prestar atención a la figura anterior, ya que en ella se observa claramente la existencia de tres mallas o posibles recorridos para la corriente procedente del generador E. Estos tres caminos son, partir del polo positivo, llegar al punto A atravesando R1 y, desde allí, pasar por R2 y R3 hasta llegar al punto B y cerrar el circuito llegando al polo negativo, o efectuar el recorrido entre A y B por R4, que es la segunda posibilidad y, finalmente, la tercera sería pasar por R5 y R6.

Es fácil observar que la diferencia entre las tres mallas estriba solamente en la triple posibilidad marcada por las tres ramas que conectan los dos nudos.

Leyes de Kirchhoff

En el cálculo de circuitos de corriente continua, junto a la ley de Ohm es imprescindible conocer las leyes de Kirchhoff, leyes que hacen referencia a los nudos y a las mallas puesto que nos permiten relacionar entre sí las dos magnitudes variables que intervienen en la práctica, la intensidad y la tensión, teniendo como magnitud constante la o las resistencias dispuestas en diferentes puntos del circuito.

Primera ley de Kirchhoff

De acuerdo con la convención adoptada universalmente, considerando que la corriente eléctrica arranca del polo positivo y después de distribuirse por todo el circuito regresa íntegra al polo negativo, basta seguir el recorrido de la misma para observar que toda la corriente que llega a un nudo debe salir del mismo.

Fijemos nuestra atención en el detalle de los dos nudos A y B de la red vista anteriormente. Si se asigna el signo positivo a las corrientes que "entran" y el signo negativo a las corrientes que "salen" de un nudo se dispondrá de una referencia al camino seguido por las diferentes corrientes.

La corriente que sale del polo positivo y que es referenciada como I, llega al nudo A y se reparte entre las tres ramas dando lugar a tres intensidades, I1, I2 e I3, de tal manera que éstas se agrupan seguidamente en el nudo B dando como resultado la intensidad I que retorna al generador.

Con arreglo a estas explicaciones, en el nudo A la corriente I será positiva, mientras que les correspondería signo negativo a las corrientes I1, I2 e I3. Sin embargo, en el nudo B sucedería todo lo contrario, I1, I2 e I3 son de signo positivo porque entran en él, mientras que la única corriente que sale es precisamente I a la que correspondería un valor negativo. Esto que podría parecer un contrasentido a simple vista no es así sino que mantiene las condiciones generales de que la corriente va de positivo a negativo.

A partir de todas estas premisas es fácil comprender el enunciado de la primera ley de Kirchhoff:

"La suma de las corrientes que llegan a un nudo es igual a la de las corrientes que parten del mismo".

Si además se tiene en cuenta la convención de los signos puede escribirse esta ley diciendo que:

Page 8: Introducción a Las Telecomunicaciones

8

En todo nudo la suma algebraica de las intensidades es nula. La expresión algebraica sería:

Σ I = 0

(El signo Σ "sigma mayúscula" se lee sumatorio o suma de ...)

La suma algebraica de las intensidades, es decir, el resultado de sumar todas ellas de acuerdo con el signo que les acompaña, es igual a cero, lo que se interpreta como que en un nudo no puede almacenarse corriente y toda la que entra sale del mismo.

Segunda ley de Kirchhoff

También se la conoce como la ley de las mallas que dice lo siguiente:

"La suma algebraica de las fuerzas electromotrices es igual a la suma algebraica de los productos de la resistencia de cada parte en que se puede descomponer el circuito por la corriente que circula por la malla".

Esta ley viene a contemplar el reparto de tensiones en un circuito, descomponiéndolo en las diferentes caídas parciales.

Al estudiar las caídas de tensión en un circuito serie se comprobó que la suma de las tensiones en bornes de cada elemento de consumo debía ser igual a la proporcionada por el generador.

V = Vl + V2 + V3

Cada una de las tensiones V1, V2 Y V3 es el resultado de multiplicar la intensidad general por cada una de las resistencias.

La segunda ley de Kirchhoff generaliza estas explicaciones para aquellos circuitos serie o en las mallas de un circuito paralelo o en derivación en el que pueden existir uno o más generadores y diferentes elementos de consumo.

Todo circuito puede reducirse a un circuito elemental con un solo generador y un elemento de consumo, de manera que el comportamiento de ambos sea igual al comportamiento de todo el circuito completo.

El trabajo, mecánico o eléctrico, se mide en julios. Si se considera el trabajo realizado en la unidad de tiempo aparece la magnitud potencia.

En electricidad y electrónica la potencia se mide en vatios (W)

Un vatio es la potencia que realiza un trabajo de un julio en el tiempo de un segundo.

P = W / t

Las tres expresiones de la potencia vendrían determinadas según que la midamos utilizando respectivamente las unidades tensión y corriente, resistencia y corriente o bien tensión y resistencia. El origen de las mismas sería el que sigue:

Page 9: Introducción a Las Telecomunicaciones

9

P = V x IP = R x I2P = V2 / R

De las tres fórmulas, las más utilizadas son las dos primeras puesto que en las operaciones es más fácil realizar un producto que un cociente, además puede pasarse de una fórmula a otra con sólo efectuar las transformaciones de acuerdo con la ley de Ohm.

En los circuitos electrónicos la potencia de los mismos se expresa en vatios. Así, la potencia eléctrica de los generadores de corriente continua emplean el vatio como unidad aunque en el caso de las pilas o pequeños acumuladores la potencia vendría dada en un submúltiplo de esta unidad, el milivatio, como unidad más adecuada a las potencias que se manejan. Sin embargo, los grandes generadores, como pueden ser las grandes dinamos o la corriente continua después de grandes rectificaciones a partir de la corriente alterna emplean una unidad mayor, el kilovatio (kW).

1 mW = 0,00l W1 kW = 1.000 W

La potencia eléctrica se la mide con un "Vatímetro" y los hay para diferentes aplicaciones, tanto para circuitos eléctricos de potencia como para medir la potencia de salida de un radiotransmisor, en este caso miden la potencia de salida de radiofrecuencia.

Potencia de disipación

Como uno de los datos específicos de las resistencias se había fijado la potencia de disipación, es decir, la facultad de que una determinada resistencia admita el paso de corriente a su través y sufría un calentamiento debido al roce entre electrones y átomos.

Ahora conocemos todas las magnitudes que intervienen para fijar la potencia de disipación, a saber, resistencia, intensidad y tensión, y además, se han visto las diferentes fórmulas que las relacionan entre sí.

Cuando se coloca una resistencia en un circuito no se la utiliza prácticamente como elemento calefactor sino que su misión es la de crear una diferencia de potencial en sus bornes, que contribuya al adecuado reparto de la tensión entre los diferentes componentes que integran los circuitos.

El resultado de multiplicar el valor óhmico de la resistencia (medido en ohmios) por el cuadrado de la intensidad (medida en amperios) o bien el producto de la tensión (en voltios), existente en bornes de la resistencia, por la intensidad (en amperios) que pasa por ella, da como resultado la potencia en vatios que se transforma en calor.

Por ejemplo, una resistencia de 10 kQ por la que circula una intensidad de 20 mA tendría que disipar los siguientes vatios:

P = R x I2

La resistencia debe venir dada en ohmios y la intensidad en amperios.

10 kQ = 10.000 ohmios20 mA = 0,02 A

Estamos en condiciones de obtener la potencia:

Page 10: Introducción a Las Telecomunicaciones

10

P = 10.000 x (0,02) 2P = 4 W

Teniendo en cuenta que 1 W proporciona 0,24 calorías por segundo en esta resistencia tendría lugar una producción de calor igual a:

0,24 x 4 W =0,96 calorías por segundo

El paso de la corriente por la resistencia origina un aumento progresivo de la temperatura y parte del calor es absorbido por la propia resistencia, mientras que el aumento de la temperatura es paulatino y provoca el paso del calor hacia las proximidades de la misma.

Es muy importante dotar a las resistencias del tamaño adecuado para el calor que disipan, por lo cual las encontramos de formas y dimensiones diferentes.

A partir de la potencia de disipación en vatios y del valor de la resistencia es posible averiguar la máxima intensidad que ésta admite.

Precisamente es frecuente encontrar resistencias quemadas cuando se trata de reparar algún equipo. En la mayoría de los casos esta avería se debe al mal estado de algún componente o al cruce entre diferentes secciones del circuito, lo que provoca un cortocircuito que da lugar a una excesiva corriente y con ella la destrucción de las resistencias.

Código de colores en resistencias

Page 11: Introducción a Las Telecomunicaciones

11

Cálculos con resistencias

Page 12: Introducción a Las Telecomunicaciones

12

Cálculos con resistencia interna del generador

Sea Rc = 3 Ω ; Ri = 1 Ω por ley de Ohm :

la potencia generada en calor por la resistencia Rc será:

Wc = I2 x Rc = 32 x 3 = 9 x 3 = 27 Watts

debe siempre tenerse presente que la resistencia interna de cualquier generador debe considerarse como una resistencia en serie con la carga aplicada a dicho generador.

Cálculo de resistencias en serie

valor de R1 = 320 Ω ; R2 = 300 Ω por ley de ohm

W = I2 x RT = 0,01932 x 620 = 0,232 WW = E x I = 12 x 0,0193 = 0,232 W

Como se aprecia la potencia se puede obtener conociendo la tensión y la intensidad o bien conociendo la intensidad y la resistencia.

Page 13: Introducción a Las Telecomunicaciones

13

Cálculo de resistencias en paralelo

Valor R1 = 10 Ω ; R2 = 20 Ω ; R3 = 10 Ω primero debemos calcular la red serie

R2 + R3 = 20 + 10 = 30 Ω y luego la red paralelo resultante RT

Como se ve la resistencia total resultante es menor que la menor de las resistencias individuales del circuito.

Relación de potencia o tensión

El oído humano recibe impulsos de aire que denominamos sonidos y cuya frecuencia va desde 20 ciclos (sonidos graves) a 15.000 ciclos (sonidos agudos) pero los percibe en forma logarítmica o sea que a menor ciclaje se necesita mayor potencia para ser escuchado. Es por esta razón que la potencia sonora no se mide en vatios sino en DECIBELES. De la misma manera las señales de radio se miden en decibeles y como es una relación logarítmica, aumentando diez (10) veces la potencia generamos un aumento de solo diez (10) decibeles. Su abreviatura es - dB - y debemos dejar claro que en radio como se trata de una relación debemos establecer un valor de referencia para 0 dB y este por convención es 100 microvolt.

A continuación se proporciona una tabla de ganancia en dB. para tensiones y potencias:

dB Ganancia de potencia Ganancia de tensión

0 1 1

3 2 1.4

6 4 2

12 16 4

20 100 10

30 1000 31.6

40 10000 100

50 100000 316

60 1000000 1000

El decibelio se define por las siguientes fórmulas:

Page 14: Introducción a Las Telecomunicaciones

14

N (dB) = 10 x log (Ps / Pe) (las potencias en watt).N (dB) = 20 x log (Es / Ee) (las tensiones en Volt).N (dB) = 20 x log (Is / Ie) (las intensidades en amperes), los subíndices (s) es salida y (e) entrada.

Medidas en decibeles

Se ha establecido una convención muy cómoda para la comparación de niveles de potencia eléctrica, o de niveles de señal en un circuito, o niveles de tensión, haciendo uso de los logaritmos vulgares o sea los de base 10. Este criterio de comparación es el decibelio (dB) y un circuito que tenga amplificación o que tenga atenuación se dice que tiene ganancia de q decibelios, siendo:

y así por ejemplo si un amplificador tiene una salida de potencia de 100 Watt como resultado de una entrada de 1 Watt se dice que este amplificador gana 20 dB, puesto que : q = 10 log100/1 = 10 x 2 = 20 dB. Debemos aclarar que el logaritmo es sencillamente el exponente al que hay que elevar la base para obtener el número y en el caso descrito anteriormente el logaritmo de l00 es 2 (existen tablas) de ahí que los logaritmos de 1, 10, 100, 1000, etc. sean respectivamente 0, 1, 2, 3, etc. El Decibelio (dB) es una unidad de medida que expresa una relación ya sea de potencia, voltaje, sensación sonora, etc., y a menos que se conozca el valor de las variables (voltios, vatios, etc.) no será posible convertir un determinado número de decibelios en los valores de la otra variable, porque los decibelios indican únicamente el factor de multiplicación o de división de la variable conocida. Cuando dos voltajes o dos potencias sean iguales, su relación será de 1:1 y por tanto se expresa como 0 dB. Cuando se habla de potencias y la misma se duplica, la relación será 2:1 y la ganancia es de + 3,01 dB y cuando la potencia se reduzca a la mitad, la relación será 1:2 o sea 0,5 y habrá una pérdida de -3,01 dB. Si la potencia se vuelve a duplicar, la relación será 4:1 y la ganancia de + 6,02 dB. Por lo expuesto debe tenerse siempre presente que los números en decibelios NO son directamente proporcionales a las relaciones ya que la correspondencia es logarítmica. Cuando se expresen relaciones de voltajes en lugar de potencia, el número de dB será doble del expresado para potencias y así por ejemplo la duplicación de voltaje (relación 2:1) significa una ganancia de + 6,02 dB. Debe tenerse presente que cuando se trata de comparar ganancias de voltajes los mismos deben medirse a impedancias iguales en cambio cuando se comparan potencias no se tiene en cuenta las diferencias de impedancia.

bBi: El dBi es el valor en decibeles de una antena con relación a un radiador isotrópico.

dBw: El dBw es el valor en decibeles de una potencia radiada aparente con relación a un (1) watt.

dBm: Convencionalmente se ha establecido el nivel dBm como relación entre dos magnitudes definidas para mediciones absolutas y es el valor en Decibelios referido a la potencia de un (1) milivatio. O sea que en éstas condiciones cero (0) decibelios equivale a un milivatio tomado sobre una carga de 600 Ω y en función de la tensión se tendría que 1 dB = 0,775 Volt.

Introducción a la electrónica

Los circuitos electrónicos constan de componentes electrónicos interconectados. Estos componentes se clasifican en dos categorías: activos o pasivos. Entre los pasivos se incluyen las resistencias, los reóstatos, los condensadores, los transformadores, y los inductores. Los considerados activos incluyen las baterías (o pilas), los generadores, los tubos de vacío y los transistores. Hay una cantidad y diversidad enorme de estos componentes, así que solo mencionaremos los más utilizados e importantes para nosotros.

Page 15: Introducción a Las Telecomunicaciones

15

Resistencias

Son elementos construidos de materiales que se oponen al paso de la corriente eléctrica. Los hay de diversos tamaños y formas que dependen en que circuito se los va ha utilizar. Existen dos tipos fundamentales de resistores los fijos y los variables. Los resistores fijos son comúnmente de una composición de carbón, hilo bobinado o de película. Una corriente puede circular por un conductor solamente si hay una causa que empuje los electrones a moverse y ésta causa es la fuerza electromotriz. Pero la intensidad de la corriente que circula por el conductor está limitada por varios factores. Podemos comparar la intensidad de la corriente que fluye de una fuente de energía con el agua que sale de un tanque. La cantidad de agua depende de la altura del tanque (comparable a la tensión de la fuente) y al diámetro del caño y esto lo podemos comparar con la electricidad ya que un conductor muy fino opondrá una gran resistencia al paso de la corriente en cambio un conductor grueso casi no ofrecerá resistencia. De esto se desprende que la resistencia es la oposición al paso de una corriente. La unidad de resistencia es el OHM (Ω) y sus múltiplos el Kilohms y el Megohms y puede definirse como si conectando un conductor a una fuente de energía de 1 Volt por él circula una corriente de 1 Amper la resistencia de dicho conductor será de 1 Ω. Toda resistencia genera calor y por tanto al dimensionar un circuito debemos tener en cuenta ese calor y determinar el tamaño físico de la resistencia que está en relación con los watt de disipación de calor.

Transformadores

Componente basado en la disposición de dos bobinados acoplados magnéticamente. El uno es el primario y el otro el secundario. Para mejorar el acoplamiento, el espacio vacío entre los dos bobinados es reemplazado por un núcleo ferromagnético de chapas o ferrita según la frecuencia de funcionamiento.

Estamos acostumbrados a citar los transformadores como integrantes de los circuitos de alimentación de equipos electrónicos y también al hablar de la producción de energía eléctrica.

En las centrales se emplean los transformadores para elevar la tensión y mejorar las condiciones de transporte de energía, para después reducir esta alta tensión a niveles adecuados para el consumo doméstico o comercial.

Otra de sus múltiples aplicaciones es como transformadores de antena, de frecuencia intermedia, de osciladores, etc.

Es una forma idónea para acoplar impedancias de los circuitos amplificadores de radiofrecuencia o audiofrecuencia.

Diodos

Son elementos semiconductores que permiten la conducción de corriente en un sentido, y lo impiden en el opuesto. Son utilizados para la rectificación de la corriente, para detectores, etc.

Diodo Zener

El diodo genéricamente denominado Zener puede trabajar en base a dos principios totalmente diferentes como lo son el efecto túnel y el efecto avalancha pero que para nuestro uso tanto las curvas de tensión e intensidad no difieren. El diodo Zener tiene diversas aplicaciones, pero fundamentalmente se lo utiliza para estabilizar tensiones. El circuito esquematizado en la figura estabiliza una tensión igual a VZ ya que la tensión V del generador puede variar dentro de ciertos límites, mientras que la tensión de salida VZ permanece constante. La corriente IR ha de variar provocando una caída de tensión sobre R que compensa las variaciones de V.

Page 16: Introducción a Las Telecomunicaciones

16

Fotodiodos

El fotodiodo es hoy utilizado en numerosos equipos de comunicaciones con el fin de variar la intensidad de luz del display de acuerdo a la luz ambiente. El sistema consiste en que en el fotodiodo se aprovecha el efecto por el cual una juntura N-P polarizada en sentido inverso permite una circulación de corriente cuya magnitud depende del flujo luminoso incidente y su construcción se realiza encapsulando el fotodiodo en un recipiente con una única cara transparente y sus dimensiones son de apenas algunos milímetros. Existen además fotodiodo conversores de energía solar comúnmente llamados "celdas solares" o "células fotovoltaicas" y con cada una de ellas pueden obtenerse potencias del orden de los 100 milivatios, cuando están iluminadas con luz solar plena ya que generan 0,6 voltios en circuito abierto.

Diodos Varactores o Varicap

Es en la práctica un condensador variable con la tensión y está constituido generalmente por una unión de silicio que tiene una concentración de impureza especial para aumentar la variación de capacidad y minimizar la resistencia serie. Se los utiliza para sintonizar eléctricamente los circuitos resonantes y proporcionan una capacidad de alto Q en función de la tensión de radiofrecuencia.

También se los utiliza como multiplicadores de frecuencia (llamados en éste caso multiplicador paramétrico) ya que no requieren potencia de C.C. de entrada.

Válvulas o Tubos de vacío

Una válvula o tubo de vacío consiste en una cápsula de vidrio de la que se ha extraído el aire, y que lleva en su interior varios electrodos metálicos. Un tubo sencillo de dos elementos (diodo) está formado por un cátodo y un ánodo, este último conectado al terminal positivo de una fuente de alimentación. El cátodo (un pequeño tubo metálico que se calienta mediante un filamento) libera electrones que migran hacia él (un cilindro metálico en torno al cátodo, también llamado placa). Si se aplica una tensión alterna al ánodo, los electrones sólo fluirán hacia el ánodo durante el semiciclo positivo; durante el ciclo negativo de la tensión alterna, el ánodo repele los electrones, impidiendo que cualquier corriente pase a través del tubo. Los diodos conectados de tal manera que sólo permiten los semiciclos positivos de una corriente alterna (c.a.) se denominan tubos rectificadores y se emplean en la conversión de corriente alterna a corriente continua (c.c.).

Al insertar una rejilla, formada por un hilo metálico en espiral, entre el cátodo y el ánodo, y aplicando una tensión negativa a dicha rejilla, es posible controlar el flujo de electrones. Si la rejilla es negativa, los repele y sólo una pequeña fracción de los electrones emitidos por el cátodo puede llegar al ánodo. Este tipo de tubo, denominado triodo, se puede utilizar como amplificador. Las pequeñas variaciones de la tensión que se producen en la rejilla, como las generadas por una señal de radio o de sonido, pueden provocar grandes variaciones en el flujo de electrones desde el cátodo hacia el ánodo y, en consecuencia, en el sistema de circuitos conectado al ánodo.

Transistores

Page 17: Introducción a Las Telecomunicaciones

17

Los transistores se componen de semiconductores. Se trata de materiales, como el silicio o el germanio, dopados (es decir, se les han incrustado pequeñas cantidades de materias extrañas), de manera que se produce un exceso o una carencia de electrones libres. En el primer caso, se dice que el semiconductor es del tipo n, y en el segundo, que es del tipo p. Combinando materiales del tipo n y del tipo p se puede producir un diodo. Cuando éste se conecta a una batería de manera tal que el material tipo p es positivo y el material tipo n es negativo, los electrones son repelidos desde el terminal negativo de la batería y pasan, sin ningún obstáculo, a la región p, que carece de electrones. Con la batería invertida, los electrones que llegan al material p pueden pasar sólo con muchas dificultades hacia el material n, que ya está lleno de electrones libres, en cuyo caso la corriente es prácticamente cero.

El transistor bipolar fue inventado en 1948 para sustituir al tubo de vacío triodo. Está formado por tres capas de material dopado, que forman dos uniones pn (bipolares) con configuraciones pnp o npn. Una unión está conectada a la batería para permitir el flujo de corriente (polarización negativa frontal, o polarización directa), y la otra está conectada a una batería en sentido contrario (polarización inversa). Si se varía la corriente en la unión de polarización directa mediante la adición de una señal, la corriente de la unión de polarización inversa del transistor variará en consecuencia. El principio se puede utilizar para construir amplificadores en los que una pequeña señal aplicada a la unión de polarización directa provocará un gran cambio en la corriente de la unión de polarización inversa.

El símbolo usual para representar cualquier tipo de transistor es que la base es una línea recta y el emisor y el colector por líneas que hacen ángulo con relación a aquella. La línea inclinada correspondiente al emisor tiene además una cabeza de flecha que mira hacia adentro si el transistor es tipo PNP y mira hacia afuera cuando es NPN.

A continuación se da un resumen de los tres montajes fundamentales en transistores.

Denominación Resistencia de entrada

Resistencia de salida

Amplificación de corriente

Amplificación de tensión

Ganancia de potencia

Inversión de fase

Base común Muy baja Elevada No Elevada Media No

Emisor común Media Media Elevada Elevada Media Si

Colector común Elevada Pequeña Elevada No Pequeña No

Desde el punto de vista teórico es conveniente agrupar los circuitos con transistores en una de las tres disposiciones básicas como: Emisor a tierra; Base a tierra; Colector a tierra. Desde el punto de vista práctico se utiliza el tipo de señales que manejan y así tenemos: amplificadores con acoplamiento directo de continua; amplificadores con acoplamiento directo de alterna; amplificadores de audio; estabilizadores de continua; de acoplamiento entre pasos; controladores de ganancia; controladores de frecuencia; amplificadores de radiofrecuencia; inversores de fase; etc.

De acuerdo a su construcción se los agrupa en familias cuyos nombres son: “de punto de contacto”, “de unión por crecimiento”, “de unión difusa”, “epitaxiales”, etc.

Medida de alfa (α): Para hacer la medición usando el método estático se debe primero ajustar todos los voltajes y corrientes de continua a los valores sugeridos por el fabricante del transistor. Tómese nota de los valores de corriente de emisor y de colector. A continuación varíese la corriente del emisor en pequeño grado (0,05 a 0,2 miliamperios) y anótese la variación que se produce en la corriente de colector. Alfa será entonces la razón entre la diferencia en los valores de corriente de colector y la diferencia entre los valores correspondientes en la corriente de emisor.

Page 18: Introducción a Las Telecomunicaciones

18

Medida de beta (β): Beta es el factor de amplificación de corriente de un transistor en la disposición con emisor a tierra y puede definirse como la razón entre la variación de corriente del colector y la variación incremental de la corriente de base, para un potencial constante de colector.

Transistores de Efecto de Campo

Además de los transistores citados existen otros tipos basados en otras técnicas que los diferencian ya que su conducción se basa en la movilidad de huecos y de electrones en el interior del monocristal. En este sentido se encuentran los denominados FET, los del tipo MOSFET y los uniunión.

Transistores MOSFET: La propia sigla define la configuración de este tipo de transistor ya que su nombre deriva de las palabras inglesas Metal Oxido Semiconductor Field (campo) Efect Transistor es decir transistor de efecto de campo formado con metal, óxido y semiconductor.

Transistor FET: La regulación de la conducción de estos dispositivos viene controlada por un campo eléctrico y de allí su nombre ya que las siglas tomadas del inglés significan Field (campo) Efect (efecto), Transistor. Pueden dividirse en tres grupos:

JFET: Junction (unión de juntura)IGFET: Insulated Gate (puerta aislada)MOSFET: Metal, Oxido, Semiconductor

Estos transistores pueden construirse con canal tipo P, en cuyo caso el cristal semiconductor base deberá estar dopado P y la puerta deberá ser de tipo N. En la figura se representa un transistor FET con puerta de unión y canal de tipo N y tipo P; G indica la puerta o el graduador (gate); D el drenador (drain) y S el surtidor (source).

Condensadores

Los condensadores están formados por dos placas metálicas separadas por un material aislante. Si se conecta una batería a ambas placas, durante un breve tiempo fluirá una corriente eléctrica que se acumulará en cada una de ellas. Si se desconecta la batería, el condensador conserva la carga y la tensión asociada a la misma.

Las tensiones rápidamente cambiantes, como las provocadas por una señal de sonido o de radio, generan mayores flujos de corriente hacia y desde las placas; entonces, el condensador actúa como conductor de la corriente alterna.

Cálculos con capacitores

Cálculo de capacitancias en serie

valor de C1 = 5 µF ; C2 = 8 µF ; C3 = 6 µF y como en una agrupación serie la capacidad resultante CT se obtiene dividiendo la unidad por la suma de los inversos de todas las capacidades tenemos:

Page 19: Introducción a Las Telecomunicaciones

19

Resultando CT menor que la menor de las capacidades del circuito.

Cálculo de capacitancias en paralelo

valor de C1 = 5 µF ; C2 = 8 µF como las capacidades en paralelo se suman tenemos:

CT = C1 + C2 = 5 + 8 = 13µ

Inductores

Los inductores o bobinas consisten en un hilo conductor enrollado en forma de bobina. Al pasar una corriente a través de la bobina, alrededor de la misma se crea un campo magnético que tiende a oponerse a los cambios bruscos de la intensidad de la corriente.

Al igual que un condensador, un inductor se puede usar para diferenciar entre señales rápida y lentamente cambiantes. Al utilizar un inductor conjuntamente con un condensador, la tensión del inductor alcanza un valor máximo a una frecuencia específica que depende de la capacitancia y de la inductancia. Este principio se emplea en los receptores de radio al seleccionar una frecuencia específica mediante un condensador variable (son circuitos sintonizados).

Cálculos con inductancias

Cálculo de inductancias en serie

Valor de L1 = 8 H ; L2 = 5 H ; L3 = 6 H como las inductancias en serie se suman tenemos:

LT = L1 + L2 + L3 = 8 + 5 + 6 = 19 Henrios

Cálculo de inductancias en paralelo

Page 20: Introducción a Las Telecomunicaciones

20

Valor de L1 = 8 H ; L2 = 5 H ; entonces tenemos:

Como se ve la inductancia resultante es menor que la menor de las inductancias ubicadas en el circuito.

Reactancia

Una corriente alterna está siempre aumentando o disminuyendo por lo que la fuerza electromotriz de autoinducción se opone continuamente a dichas variaciones y por tanto reducen el valor de la corriente alterna y se suman a la oposición de la resistencia óhmica pura.

A la oposición de las F.E.M. de autoinducción se le llama reactancia inductiva o inductancia.

La reactancia se mide en ohm al igual que la resistencia pura ya que produce el mismo efecto de limitar el paso de la corriente alterna y el número de ohm de reactancia es igual (para la limitación citada) al que produce una resistencia óhmica pura de igual valor. La reactancia inductiva aumenta directamente con la frecuencia y la fórmula para calcularla es:

XL = 2πFL

F: Frecuencia en HertzL: Inductancia en Henrios

En el caso de la reactancia capacitiva o capacitancia una corriente alterna fluye por un circuito que tenga capacitores ya que cada vez que la F.E.M. de la fuente se invierte hay un paso de electrones de una placa del condensador hacia la opuesta a través de la fuente y tenemos una corriente alterna aunque los electrones no atraviesen el dieléctrico del condensador ya que dicha corriente solo carga y descarga el condensador. Cuando mayor sea la capacidad del condensador mayor será la F.E.M. de autoinducción y por tanto a mayor capacidad menor reactancia capacitiva porque fluirá más corriente. La reactancia capacitiva se reduce cuando aumenta la frecuencia y la fórmula para calcularla es:

XC = 1 / (2πFC)

F: Frecuencia en HertzC: Capacitancia en Faradios

Calculo de resonancia en circuitos L-C

Page 21: Introducción a Las Telecomunicaciones

21

resonancia en serie

En un circuito resonante serie la impedancia entre los terminales (ver figura) es:

en la que Z = impedancia en Ω ; r = resistencia en Ω ; XC = reactancia capacitiva en Ω y XL = reactancia inductiva en Ω. De la fórmula anterior deducimos que si a la frecuencia de resonancia XL = XC la diferencia entre ellas es 0 (cero) y por tanto la impedancia es igual a la resistencia óhmica del circuito y siendo la resistencia en los circuitos de radiofrecuencia muy reducida, la impedancia también lo será.

resonancia en paralelo

En un circuito resonante paralelo la reactancia capacitiva (Xc) es igual a la reactancia inductiva (Xi), pero la impedancia es máxima y la corriente es mínima siempre que la resistencia óhmica de la bobina sea despreciable y la fórmula para el cálculo de la frecuencia de resonancia es:

donde F es frecuencia de resonancia, L la inductancia en henrio, C la capacitancia en Faradio y 2π una constante. En el caso de un circuito resonante serie en la frecuencia en que Xc es igual a Xi la impedancia del circuito es mínima y la corriente circulante máxima y la fórmula para el cálculo de la frecuencia de resonancia es la citada anteriormente.

Frecuencia de resonancia

Un circuito resonante en serie, sometido a frecuencias inferiores a la de resonancia, actúa como una reactancia capacitiva, o como una capacidad en serie con una resistencia. A frecuencias superiores a la de resonancia actuará como una reactancia inductiva, o como una inductividad en serie con la resistencia. Cuando la frecuencia sea la de resonancia, la diferencia de potencial alterno en la bobina o en el condensador, según el caso, puede ser muchas veces mayor que el aplicado a los elementos que forman el circuito serie. Un circuito resonante paralelo, sometido a frecuencias inferiores a la de resonancia, actúa como una reactancia inductiva mientras que a las frecuencias superiores a la de resonancia actúa como una reactancia capacitiva. Existe la misma diferencia de potencial entre la capacidad y la inductividad y no es mayor que el voltaje aplicado al circuito.

Page 22: Introducción a Las Telecomunicaciones

22

Las fórmulas que anteceden expresan las frecuencias de resonancia en Megahertz y en kilohertz, los valores de inductividades en microhenrios y de las capacidades en microfaradios que combinadas, producen resonancia.

Filtros de onda

Los filtros de onda están formados por combinaciones de inductancia y capacitancias y se utilizan para separar entre sí diferentes frecuencias y se emplean en general para conseguir uno de los cuatro tipos siguientes de separación de frecuencias.

1. - Para permitir, con baja atenuación, el paso de todas las frecuencias inferiores a una determinada llamada frecuencia de corte. Se denomina filtro de paso de bajo.2. - Para producir una atenuación grande a todas las frecuencias inferiores a la de corte y casi no atenuar las superiores. Se denomina filtro de paso alto.3. - Para proporcionar gran atenuación a todas las frecuencias por debajo y por encima de dos frecuencias llamadas de corte. Se denomina filtro paso de banda.4. - Para proporcionar gran atenuación a todas las frecuencias comprendidas dentro de dos frecuencias llamadas de corte. Se denomina filtro de corte de banda o filtro de exclusión.

Hay muchos casos en que es necesario dejar pasar ciertas frecuencias y otras no y para tal fin se utilizan distintos tipos de filtros. El principio básico de funcionamiento de un filtro es su propiedad de ofrecer muy alta impedancia a las frecuencias que no deben atravesarlo o cuando existen superpuestas corrientes alternas y continua ya que esta puede considerarse para el caso del filtro como una alterna de frecuencia cero. Los filtros básicos se dividen en cuatro clases según la banda o bandas de frecuencia que deben dejar pasar; así los hay de paso alto, de paso bajo, de paso de banda y de banda eliminada. Los filtros están constituidos por circuitos donde intervienen bobina, capacitores, resistencias y sus combinaciones formando reactancias e impedancias. Definimos la reactancia capacitiva como la oposición presentada por un capacitor al pasaje de una corriente alternada. Esta reactancia depende de la capacitancia y de la frecuencia de la corriente por lo que Xc = 1/ (2 x π x f x C) en donde Xc = reactancia en ohm, π = 3,14, constante f = frecuencia en hertz y C = capacidad en faradios. Definimos la reactancia inductiva como la oposición presenta da por una bobina o inductor al pasaje de una corriente alterna y ésta depende de la inductancia y la frecuencia de la corriente por lo que Xl=(2 x π x f x L) en donde XI= reactancia en ohm π = 3,14 constante f = frecuencia en hertz L= inductancia en henrio. En la frecuencia de resonancia la impedancia del circuito es mínima, la corriente circulante máxima y esta frecuencia se determina por 1 / f = 2 π √ L x C donde f = frecuencia resonancia en hertz L = inductancia en henrio 2π = 6,28 constante C = capacidad en Faradio.

Características de las ondas electromagnéticas

Page 23: Introducción a Las Telecomunicaciones

23

Una onda es una perturbación que se propaga en un medio material o en el vacío con una determinada dependencia espacio-temporal. Por ejemplo, si arrojamos una piedra a un estanque, en la superficie del mismo se genera una perturbación del agua que se propaga en forma de olas (dependencia temporal), formando círculos concéntricos cada vez más amplios (dependencia espacial).

Una onda electromagnética es la forma de propagarse a través del espacio los campos eléctricos y magnéticos producidos por cargas eléctricas en movimiento.

En telecomunicaciones, distinguiremos entre ondas confinadas en una línea de transmisión (cable coaxial, guía de ondas), que se describen mediante voltajes y corrientes, y ondas radiadas en el espacio libre, que se describen mediante un campo eléctrico y un campo magnético.

Los campos se describen matemáticamente mediante vectores, que nos dan información de su magnitud y de la dirección y sentido que toman en un momento dado.

Las ondas empleadas en radiocomunicaciones son del tipo transversal electromagnético (TEM), cuya característica principal es que los campos eléctrico y magnético son perpendiculares entre sí, y a su vez perpendiculares a la dirección de propagación de la onda. En la figura 1.3 se muestra una representación de una onda TEM que se propaga hacia la esquina superior derecha. Los vectores azules representan el campo magnético y los vectores amarillos el campo eléctrico.

Page 24: Introducción a Las Telecomunicaciones

24

Onda transversal electromagnética

Las ondas se propagarán confinadas en un medio o línea de transmisión (un cable telefónico, un cable coaxial) o bien en el espacio libre (la atmósfera).

Una onda TEM presenta varias magnitudes de interés. Para apoyarnos en las definiciones, usaremos la figura siguiente:

Page 25: Introducción a Las Telecomunicaciones

25

Caracterización de ondas

Velocidad de propagación (v). En el vacío, la velocidad de propagación es igual a la de la luz (c = 300000 km/s). Para la propagación en la atmósfera la velocidad es prácticamente igual a la del vacío. La propagación en otros materiales depende de su propia naturaleza y puede determinarse a través de un parámetro conocido como constante dieléctrica. Su unidad de medida es el metro por segundo (m/s).

Longitud de onda ( ). Si representamos la onda portadora tomando como eje la dirección de propagación, observaremos que su forma se repite periódicamente. La longitud de onda es la distancia que la onda emplea en describir un periodo completo. Su unidad de medida es el metro (m).

Frecuencia (f). Es la relación entre la velocidad de propagación y la longitud de la onda. Su unidad de medida es el Herzio (Hz).

Pongamos como ejemplo una onda de frecuencia 150 MHz que viaja por la atmósfera. Su longitud de onda será entonces de = (300000000 / 150000000) = 2 metros.

Intensidad / Amplitud. Normalmente la intensidad de la onda se refiere a su campo eléctrico, y se mide en voltios por metro (V/m). También puede referirse a su campo magnético, midiéndose en amperios por metro (A/m). Nos da una idea de la potencia de la señal en un punto dado. Tal y como veremos en el apartado de propagación, la intensidad de la onda irá disminuyendo en su propagación por el canal debido a múltiples factores.

Fase. Si representamos una onda periódica en un sistema de coordenadas polares, el ángulo formado por la posición de la onda en un momento dado con la referencia de partida se conoce como fase. En un periodo completo la onda habrá recorrido 360 grados.

Polarización. La polarización de una onda se define como la dirección que toma su vector de campo eléctrico. Si tomamos como referencia la superficie plana de la Tierra, hablaremos de polarización horizontal si es paralelo a la superficie (como es el caso de la onda de la figura 1.3), y de polarización vertical si es perpendicular. También podemos tener otros esquemas, como el de polarización circular en el que el vector de campo eléctrico va describiendo una circunferencia a medida que la onda avanza. Como veremos, esta particularidad es de suma importancia en el diseño y utilización de las antenas.

Page 26: Introducción a Las Telecomunicaciones

26

Tipos de sistemas de telecomunicaciones

En este apartado vamos a realizar una clasificación por grupos de los sistemas de telecomunicación, atendiendo a sus especiales características. Nuestro objetivo es diferenciar a grandes rasgos las funcionalidades globales que nos puede ofrecer cada sistema.

Clasificación de los sistemas

En primer lugar diferenciaremos los sistemas por el tipo de señal transmitida. Podemos diferenciar entre:

Sistemas analógicos. La información se convierte en una señal eléctrica en banda base, y ésta modula directamente a la portadora para ser transmitida. Son los sistemas más tradicionales, cuya gran ventaja es la robustez y el bajo coste: la radio comercial, las redes de radio privadas (PMR, Private Mobile Radio) como las empleadas por los distintos servicios de Protección Civil o la propia Red Telefónica Básica que tenemos en nuestra casa.

Sistemas digitales. La información se digitaliza, se transforma en señal banda base, y a continuación se realiza el proceso de modulación. El proceso de digitalización puede ofrecernos grandes ventajas, como el cifrado de las comunicaciones o la ecualización para mejorar la recepción. Los sistemas de radio más modernos son digitales, así como todos los de transmisión de datos (fax, Internet, etc).

Si nos centramos en el grupo de usuarios entre los que se establece la comunicación, podemos diferenciar:

Sistemas punto a punto (unicast). La comunicación se establece solamente entre dos usuarios. Por ejemplo, una conversación telefónica o un correo electrónico entre dos personas.

Sistemas punto a multipunto (multicast). La comunicación se origina en un punto y va dirigida a un conjunto cerrado de usuarios. Por ejemplo, una audioconferencia entre varias personas, una transmisión radio a través de un repetidor en una malla privada o un correo electrónico enviado con copia a varias personas.

Sistemas broadcast. La comunicación se origina en un punto y va dirigida a todo el mundo, sin restricciones. Es el caso de la radio y la televisión comercial.

También podemos distinguir los sistemas por el número de canales de comunicación que utilizan, es decir, por su modo de explotación:

Sistemas simplex. Se utiliza un único canal de comunicación, que sólo puede ser usado en transmisión por un usuario en un momento dado. Por ejemplo, cuando usamos una sola frecuencia de radio para hablar se dice que estamos usando un canal simplex.

Sistemas semiduplex. Utilizan dos canales, que solamente pueden ser usados en transmisión por un usuario en un momento dado. La ventaja sobre los anteriores es que permiten la utilización de reemisores.

Sistemas full-duplex. Utilizan igualmente dos canales, que pueden ser utilizados simultáneamente en ambos sentidos de la comunicación, de la misma forma que se produce una conversación entre dos personas. Es el caso de la telefonía móvil y fija, y de algunos sistemas trunking.

Page 27: Introducción a Las Telecomunicaciones

27

Finalmente, diferenciaremos los sistemas en función de la cantidad de información que pueden transportar en un momento dado, es decir, en función de su capacidad:

Sistemas de banda estrecha (narrowband). Utilizan esquemas de modulación simples, de forma que se garantice la comunicación aunque esta no tenga una calidad elevada. Por ejemplo, en el teléfono tradicional la voz es inteligible aunque "suena" distinta a como es en la realidad, porque se transmite solamente una parte del ancho de banda que ocupa la voz realmente.

Sistemas de banda ancha (broadband). Suelen utilizar esquemas de modulación más complejos, de forma que se pueda transmitir mayor cantidad de información en un momento dado.

Nuestro sistema de telecomunicación deberá usar un determinado tipo de ondas electromagnéticas en función de un doble requerimiento: por un lado necesitaremos un determinado ancho de banda para transmitir la cantidad de información deseada, y por otro una longitud de onda adecuada para transmitir esa información por un determinado tipo de canal.

En el caso de la transmisión por radio, el tamaño de las antenas ha de ser del orden de la longitud de onda de la portadora para que la radiación se produzca correctamente.

Sistemas analógicos

En un sistema analógico, la señal moduladora va modulando de forma continua a la onda portadora durante todo el proceso de transmisión. ¿De qué formas podemos realizar la modulación para transportar la información? La respuesta es variando alguna de sus tres características fundamentales: amplitud, frecuencia o fase.

Modulación en amplitud (AM).

Al modular en amplitud, la señal moduladora va variando la amplitud de la señal portadora. La utilización de la modulación AM hoy día se reduce prácticamente a parte de los sistemas de radiodifusión comercial, a radiocomunicaciones aeronaúticas avión-tierra y a radioaficionados.

La mayor desventaja de estos sistemas es su sensibilidad a las variaciones bruscas de amplitud de la señal en su transmisión por el canal, que pueden provocar desvanecimientos que hagan a la señal prácticamente ininteligible en recepción.

Modulación en banda lateral (SSB)

La modulación en banda lateral (SSB, Single Side Band) consiste en optimizar las prestaciones en potencia de la modulación AM, transmitiendo toda la potencia solamente en una parte del ancho de banda de la señal. La mejora de rendimiento en potencia de transmisión es sustancial, y por eso este modo se utiliza profusamente en las comunicaciones en la banda de HF, en las que la señal transmitida sufre una elevada atenuación cuando viaja por el canal.

En función de la parte del ancho de banda en la que se concentra la poterncia tomando como referencia una señal equivalente en AM, podemos distinguir las transmisiones en Banda Lateral Superior (USB, Upper Side Band) y en Banda Lateral Inferior (LSB, Lower Side Band).

Modulaciones angulares

En este grupo se encuadran las modulaciones que varían la frecuencia (FM, Frequency Modulation) y la fase (PM, Phase Modulation) de la señal portadora. A efectos prácticos solamente

Page 28: Introducción a Las Telecomunicaciones

28

se usa la FM, que presenta como característica fundamental su gran robustez frente al ruido y los desvanecimientos en el canal.

En la modulación de frecuencia o FM, la señal moduladora hace variar la frecuencia de la portadora.

En función del ancho de banda utilizado en la modulación, distinguimos entre FM de banda ancha (WBFM, Wide Band FM), utilizada en los sistemas de radiodifusión comercial, y FM de banda estrecha (NBFM, Narrow Band FM), utilizada muy profusamente en las redes privadas móviles que emplean multitud de servicios: policía, ambulancias, bomberos, radio-taxis, etc.

Sistemasdigitales

En los sistemas digitales, la señal que transporta la información se digitaliza previamente a ser transmitida.

Los sistemas digitales utilizan una lógica binaria, representando la información por medio de bits. El bit (Binary digiT) es la unidad básica en el sistema binario, y puede tomar dos valores discretos: ‘0’ y ‘1’. Utilizando un número determinado de bits podremos representar una cantidad de información.

El proceso de transformación de una señal analógica (por ejemplo, la voz) en una señal digital se denomina digitalización, y a su vez consiste en otros dos procesos, como puede observarse en la figura 2.1:

Muestreo. Conforme la señal analógica progresa en el tiempo, se toman muestras de la misma a intervalos repetitivos equiespaciados, es decir, a una frecuencia de muestreo fija. Obviamente, cuantas más muestras se tomen por unidad de tiempo, con mayor fidelidad la señal digital representará a la señal analógica original.

Cuantificación. Cada valor que se toma de la señal analógica original en el proceso de muestreo, ha de representarse en un conjunto discreto de valores que puedan ser identificados con bits. Del mismo modo, cuantos más niveles de cuantificación tengamos, mayor fidelidad tendrá la representación de la señal analógica en el plano digital y mayor número de bits serán necesarios.

Page 29: Introducción a Las Telecomunicaciones

29

Proceso de digitalización

Como resultado de la digitalización, nuestra señal analógica será transformada en una señal digital cuyos valores podemos representar con un conjunto de bits, que utilizaremos para realizar una modulación digital.

Modulaciones digitales

Una vez que disponemos de la señal digitalizada, la utilizaremos para modular una portadora y de esta forma ser transmitida a través del canal. Los esquemas de modulación digital pueden llegar a ser bastante complejos, aunque básicamente se agrupan en:

ASK (Amplitude Shift Keying). La portadora se modula en valores discretos de amplitud. Al igual que en el caso de la AM analógica, este tipo de modulación es muy sensible a los desvanecimientos originados en el canal.

FSK (Frequency Shift Keying). Existen varias portadoras con valores discretos de frecuencia. Esta modulación es más robusta frente al ruido que la ASK, y se usa por ejemplo en la transmisión de datos por radiopaquete. En el caso de que existan dos posibles frecuencias para transmitir la señal, hablamos de BFSK (Binary Frequency Shift Keying), como se muestra en la siguiente figura.

Page 30: Introducción a Las Telecomunicaciones

30

Modulación digital FSK de dos niveles

PSK (Phase Shift Keying). La portadora se modula en valores discretos de fase. Esta modulación y sus variantes consituyen el esquema de modulación digital más robusto frente a desvanecimientos y propagación multicamino. Se usan en diversos sistemas, entre ellos la telefonía móvil digital (GSM).

La capacidad de un sistema digital se cuantifica con la cantidad de bits que es capaz de transmitir por unidad de tiempo, midiéndose por tanto en bits por segundo (bps) o en sus múltiplos más comunes: kilobits por segundo (1 kbps 1000 bps) y megabits por segundo (1 Mbps 1000000 bps).

Digitalización de la voz.

Como caso práctico de transmisión digital, vamos a estudiar el proceso de digitalización de la voz.

Si analizamos el espectro de la voz, comprobaremos que la mayor parte de su energía se concentra en el rango de 0 a 4 kHz.

Para muestrear una señal de este tipo sin que se produzca pérdida de información, deberemos utilizar una frecuencia de muestreo de al menos el doble del límite superior del espectro de la señal. En este caso, usaremos una frecuencia fm = 2 x 4 kHz = 8 kHz, es decir, tomaremos 8000 muestras por segundo de la voz.

Ahora tenemos que representar digitalmente cada una de las 8000 muestras por segundo que estamos tomando. Para ello, se utiliza un cuantificador de 256 niveles: tendremos 256 niveles discretos de amplitud para representar cada muestra. Como tenemos 256 niveles, cada nivel podrá ser representado por 8 bits, ya que 28 = 256.

En resumen, si tomamos 8000 muestras cada segundo y representamos cada una de ellas con 8 bits, tendremos un total de 8000 x 8 = 64000 bits/s = 64 kbps. Necesitamos un canal digital capaz de transmitir 64 kbps para transportar una conversación de voz.

Este es el caso de la RDSI (Red Digital de Servicios Integrados), que proporciona uno o dos canales de 64 kbps para transmitir voz y datos.

Page 31: Introducción a Las Telecomunicaciones

31

Comunicaciones por radio

Introducción e historia

El desarrollo de los sistemas radio está íntimamente relacionado con los descubrimientos realizados a lo largo del siglo XIX que permitieron la utilización de la energía eléctrica para usos humanos.

En 1801, Alessandro Volta inventa la pila que lleva su nombre, que permite el almacenamiento de energía eléctrica para su uso posterior.

Ya en 1844, Samuel F. Morse inventa el código que también lleva su nombre, y que permite la transmisión de información por medio de un sistema digital alámbrico simple a larga distancia. Era el nacimiento del telégrafo de hilos.

En 1865, James C. Maxwell desarrolla su "Teoría dinámica del campo electromagnético, en la que logra relacionar matemáticamente los parámetros que caracterizan a los campos eléctricos y magnéticos creados por cargas eléctricas en movimiento.

Unos veinte años más tarde, en 1888, Hertz logra demostrar la existencia de las ondas electromagnéticas, hecho que sería aprovechado en 1895 por Guillermo Marconi para inventar el primer emisor de radio, con el que consiguió transmitir una señal morse a milla y media de distancia.

Desde aquel hito y hasta la actualidad, la técnica electrónica ha experimentado un espectacular avance que permite la integración un mayor número de componentes electrónicos en espacios cada vez más reducidos, gracias a lo cual se pueden desarrollar sistemas de elevadas prestaciones cada vez más miniaturizados.

El espectro radioeléctrico

Denominamos espectro radioeléctrico al conjunto de frecuencias de radio asignables por las entidades oficiales competentes para su utilización en sistemas de telecomunicaciones. El espectro radioeléctrico se divide en bandas de frecuencias, dentro de las cuales se realizan asignaciones para cada tipo de servicio.

El espectro radioeléctrico se sitúa en el rango de 3 kHz a 3000 GHz. En la tabla 3.1 se muestra una distribución más amplia del espectro en la que podemos comparar cuantitativamente el rango de frecuencias de las ondas de radio con las de otras ondas electromagnéticas como la propia luz.

Rango frecuencial (Hz) Tipo de onda

1021 Rayos gamma

1018 Rayos X

1016 Ultravioleta (UV)

1014 Visible

1013 Infrarrojo (IR)

1010 Microondas

Page 32: Introducción a Las Telecomunicaciones

32

106 Ondas de radio cortas

103 Ondas de radio largasEl espectro electromagnético

A nivel mundial, las atribuciones de cada banda a cada servicio las realiza la Unión Internacional de Telecomunicaciones, sección Radio (UIT-R), que es una parte del antiguo CCITT (Comité Consultivo Internacional de Teléfonos y Telégrafos).

En España, la gestión del espectro radioeléctrico corre a cargo de la Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información (SETSI), dependiente del Ministerio de Ciencia y Tecnología.

A título orientativo, en la tabla se muestra la división en bandas del espectro radioeléctrico. La asignación de segmentos de frecuencias a cada servicio en España se recoge en el Cuadro Nacional de Atribución de Frecuencias (CNAF).

Número de Banda Denominación Rango de frecuencias

Tipo de ondas

4 VLF 3 a 30 kHz Miriamétricas

5 LF 30 a 300 kHz Kilométricas

6 MF 300 a 3000 kHz Hectométricas

7 HF 3 a 30 MHz Decamétricas

8 VHF 30 a 300 MHz Métricas

9 UHF 300 a 3000 MHz Decimétricas

10 SHF 3 a 30 GHz Centimétricas

11 EHF 30 a 300 GHz Milimétricas

12 300 a 3000 GHz DecimilimétricasDivisión en bandas del espectro radioeléctrico

Elementos de un sistema de radiocomunicaciones

Los elementos de todo sistema de radiocomunicaciones han de cumplir tanto unas características de diseño como unas limitaciones impuestas por la Administración competente en materia de telecomunicaciones.

En este apartado nos centraremos en las características de los elementos usados en las redes móviles privadas (PMR, Private Mobile Radio), usadas profusamente por los Servicios de Protección Civil, ya que es en este campo donde resultará imprescindible aplicar los conocimientos adquiridos. El resto de sistemas (telefonía móvil, etc) normalmente vienen listos para ser puestos en producción y son pocas las modificaciones que pueden realizarse para optimizar su funcionamiento.

Transceptores

Con esta palabra definimos a un equipo que implementa tanto las funciones de transmisión como las de recepción, lo cual es posible gracias a las modernas tecnologías de integración y montaje de componentes electrónicos. No obstante, se siguen fabricando transmisores y receptores por separado. Un caso de los primeros lo forman los radioenlaces digitales punto a punto, y de los segundos los receptores multibanda o scanners.

Page 33: Introducción a Las Telecomunicaciones

33

Un transmisor tiene una estructura básica que se muestra en la figura.

Transmisor de FM

En la etapa de audio, el micrófono (transductor) se conecta a un amplificador como fase previa para llevar la señal moduladora banda base al modulador, donde ya se genera una señal modulada.

En la siguiente etapa, existe un oscilador local que genera la señal portadora sinusoidal, que se mezcla con la señal modulada en banda base para formar una señal de radiofrecuencia (RF) modulada a la frecuencia de transmisión.

Finalmente, esta señal se lleva a un multiplicador de frecuencia y a un amplificador de RF (etapa final), en la que la señal es filtrada y nuevamente amplificada antes de ser entregada a la antena.

Un transmisor presenta varias características de interés que tenemos que considerar a la hora de implementarlo en nuestro sistema de radiocomunicación:

Modos de transmisión. Los transmisores modernos pueden llegar a implementar varios tipos de modulaciones (AM, FM, LSB, USB).

Cobertura de frecuencias. En función del rango o rangos de frecuencias en que el transmisor es capaz de operar, distinguimos entre transmisores monobanda (capaces de operar en una única banda, como VHF), bibanda (en dos bandas, como VHF/UHF) y de banda contínua (varias bandas).

Potencia de transmisión. Se trata de la potencia que es capaz de proporcionar la etapa final de amplificación de RF del transmisor. Su unidad de medida es el watio (W), aunque también suele expresarse en forma logarítmica como decibelios por miliwatio (dBm). En los equipos de HF suele ser del orden de las centenas de watios, mientras que en los de VHF/UHF es del orden de decenas de watios. Obviamente, interesa que sea lo más elevada posible, sin sobrepasar los límites establecidos por la Administración competente. La tabla 3.3 es orientativa de las potencias de transmisión típicas que ofrecen los equipos usados en PMR en las bandas de VHF y UHF.

Tipo de equipo Potencia de Tx típica

Base 50 W

Móvil 5 W / 10 W / 35 W / 50 W

Portable 0.5 W / 1 W / 5 W

Repetidor 25 WPotencia de transmisión típica en equipos PMR de VHF y UHF

Page 34: Introducción a Las Telecomunicaciones

34

Distorsión de modulación. Todo transmisor, en el proceso de modulación introduce una distorsión en la señal moduladora. El grado de distorsión define en parte la calidad del transmisor.

Radiaciones espurias. El proceso de mezcla de la señal modulada con la onda portadora es no lineal, lo cual implica que aparte de la señal sintonizada a la frecuencia en la que se pretende transmitir, también se genera radiación en frecuencias no deseadas.

La estructura básica de un receptor se muestra en la figura siguiente.

Receptor de FM

En el receptor se realiza el proceso inverso que en el transmisor, de forma que a su salida, en el altavoz, dispongamos de la información que queríamos transportar.

La primera etapa del receptor consiste en un amplificador de RF conectado a la antena receptora, que amplifica la señal debido a que ésta ha sufrido procesos de atenuación en el canal.

A continuación, se lleva a un mezclador al que también se conecta un oscilador local, de forma que la señal se baja en frecuencia antes de ser demodulada, es decir, se convierte nuevamente en señal en banda base. Este proceso se puede realizar en varias etapas, bajando la señal a diversas frecuencias intermedias (FI) antes de pasarse al detector, proceso conocido con el nombre de heterodinización. Los receptores que disponen de varias estapas de frecuencia intermedia se denominan receptores superheterodinos, y presentan grandes ventajas respecto a los convencionales en lo referente a calidad de la señal demodulada.

Finalmente, la señal de frecuencia intermedia se entrega al demodulador, donde se realiza el proceso inverso a la modulación para obtener una señal demodulada que pasa al altavoz para ser escuchada por el usuario final.

Algunos parámetros que caracterizan a un receptor son similares a los de un transmisor, aunque existen otros específicos de la recepción:

Modos de transmisión. Al igual que los transmisores, los receptores modernos pueden llegar a implementar varios tipos de modulaciones (AM, FM, LSB, USB).

Cobertura de frecuencias. Igualmente distinguimos entre receptores monobanda (capaces de operar en una única banda, como VHF), bibanda (en dos bandas, como VHF/UHF) y de banda contínua (varias bandas).

Paso de frecuencia o canalización. Es la mínima separación frecuencial entre radiocanales a la que puede operar el receptor. En la tabla 3.4 se muestran las separaciones típicas usadas en cada banda para redes de radio privadas:

Page 35: Introducción a Las Telecomunicaciones

35

Banda de HF Bandas de VHF y UHF

Hasta 1 kHz

5 kHz

10 kHz

12,5 kHz

25 kHz

50 kHzSeparación de canal típica en equipos de HF, VHF y UHF

Selectividad. Es la capacidad de aislamiento del receptor en un canal dado con respecto a las señales espurias provenientes del canal adyacente.

Sensibilidad. Mínima potencia de RF aceptable a la entrada del receptor para que su demodulador pueda funcionar correctamente y se entregue a la salida una señal con calidad suficiente. Suele expresarse en decibelios por miliwatio (dBm).

Relación señal a ruido y distorsión (SINAD). Es un parámetro que mide la calidad de recepción en considerando por un lado la potencia de la señal recibida y por otro la cantidad de ruido a la entrada del receptor y la distorsión que el mismo introduce en el proceso de demodulación. Su unidad de medida es el decibelio (dB).

Como se ha indicado, un transceptor combina un transmisor y un receptor en un mismo equipo. Deberemos tener en cuenta además otras características del transceptor en conjunto, como son:

Posibilidad de memorizar canales para agilizar la operatividad. Posibilidad de transmitir/recibir tonos de llamada selectiva.

Por la forma en que se utiliza un transceptor, distinguimos entre cuatro tipos:

Transceptor base. Está diseñado para ser utilizado en un emplazamiento fijo. Normalmente el transceptor tiene una potencia de transmisión y una sensibilidad de recepción elevadas. No suelen disponer de alimentación autónoma.

Transceptor móvil. Similares a los transceptores base, suelen tener un diseño más compacto y robusto para ser instalados en un vehículo. Las características de potencia de transmisión y sensibilidad son algo peores que en el caso de los transceptores base, debido sobre todo a la dificultad de implementar sistemas electrónicos de elevada fiabilidad en una carcasa de reducido tamaño. Se diseñan para tomar la alimentación de la batería del vehículo, o bien de una fuente de alimentación externa, lo cual permite además su utilización como equipos de base.

Transceptor portable. Se trata de equipos de reducido tamaño y peso, diseñados para ser transportados y utilizados individualmente. Por ejemplo, los conocidos "walkie-talkies" o los propios teléfonos móviles. Cuentan con una batería y la posibilidad de conectar alimentación externa.

Reemisores. Los equipos repetidores o reemisores merecen un análisis separado. Su funcionamiento más típico consiste en recibir una señal por una determinada frecuencia, amplificarla y transmitirla a través de otra frecuencia. Para ello suelen contar con un transmisor y un receptor separados, y además con un sistema de filtrado de alta calidad (duplexor o cavidades) que permite realizar todo el proceso de amplificación y retransmisión sin que se produzcan interferencias. Pueden utilizar una sola antena, mediante el empleo de duplexores, o bien dos antenas separadas (una para recibir y otra para transmitir), mediante el empleo de cavidades. Se emplazan en puntos geográficamente elevados para ofrecer una cobertura lo más amplia posible.

Page 36: Introducción a Las Telecomunicaciones

36

Resulta necesario insistir en la limitación legal en cuanto a potencia de transmisión, que viene impuesta por el Ministerio de Ciencia y Tecnología y que es específica de cada segmento de frecuencias del espectro radioeléctrico. Su objetivo es minimizar las interferencias entre los distintos servicios que comparten una misma banda.

Antenas

Una antena es la parte de un sistema transmisor o receptor diseñada especificamente para radiar o recibir ondas electromagnéticas. Toda antena es una región de transición entre una zona donde existe una onda electromagnética guiada y una onda en el espacio libre, a la que puede además asignar un carácter direccional.

Podemos caracterizar una antena mediante diversos parámetros:

Impedancia (Z). En el esquema más común, el transceptor estará conectado a su antena mediante una línea de transmisión, en la que como sabemos existe una onda electromagnética confinada que podemos describir con un voltaje y una corriente. La relación entre ambos a la entrada de la antena nos da su impedancia, que tendrá una parte resistiva y otra reactiva que da cuenta de los fenómenos inductivos y capacitivos. En caso de que la impedancia solamente tenga una parte resistiva a una frecuencia dada, decimos que la antena es resonante a esa frecuencia. Las antenas se diseñan para ser resonantes en una frecuencia o en un conjunto de frecuencias de trabajo.

Eficiencia ( ). Parte de la energía entregada a la antena se radiará, y parte se disipará debido a las pérdidas. De la radiación podemos dar cuenta mediante laresistencia de radiación (Rr), que es igual al valor de resistencia óhmica que disiparía la misma potencia que la radiada por la antena. Asimismo, podemos hacer un equivalente óhmico para las pérdidas definiendo una resistencia de pérdidas (Rp). La eficiencia de la antena se define entonces como:

Diagrama de radiación. Como ya hemos indicado, una antena es capaz de concentrar la potencia que disipa en una determinada región del espacio. También vimos que la intensidad de una onda puede referirse a su campo eléctrico (V/m) o a su campo magnético (A/m). A partir de los valores eficaces de ambos puede obtenerse la densidad de flujo electromagnético por unidad de superficie (W/m2), que tiene una relación directa con lo que conocemos como intensidad de radiación. Si rodeamos a nuestra antena con una esfera imaginaria, podemos medir la cantidad de potencia o intensidad que radía en una determinada superficie de dicha esfera. Si medimos la intensidad radiada por la antena en todos los puntos de la esfera y normalizamos los valores al máximo de radiación, podremos hacer un diagrama tridimensional que nos indica la cantidad de energía que la antena es capaz de radiar en cada dirección del espacio que le rodea, como se muestra en la figura que se muestra a continuación. Si la antena radiase la misma energía en toda la esfera que le rodea, tendríamos una antena isotrópica, que utilizaremos como referencia para el análisis de otras antenas.

Page 37: Introducción a Las Telecomunicaciones

37

Diagrama de radiación de una antena

Directividad (D). Si comparamos la densidad de potencia que radía una antena en una dirección y a una distancia dada, y la comparamos con la que se tendría para el caso de una antena isotrópica estableciendo una relación entre ambas, obtendremos la directividad de la antena que estamos caracterizando. Al tratarse de una relación de potencias, podemos medirla en decibelios (dB). Normalmente la directividad se define tomando como referencia la dirección en que la antena emite su máximo de radiación, que será la dada por el lóbulo de mayor tamaño en su diagrama de radiación.

En función de su directividad, podemos distinguir entre antenas isotrópicas, que radían la misma cantidad de energía en todas las direcciones del espacio (caso teórico que no existe en la práctica), antenas omnidireccionales, que radían la misma cantidad de energía en los 360º de su azimut, y antenas directivas, que radían un máximo de energía en una dirección dada y muy poca o despreciable en el resto. En función de las necesidades de nuestro sistema, tendremos que elegir entre utilizar antenas omnidireccionales o antenas directivas.

Ganancia (G). Se relaciona directamente con la directividad a través de la eficiencia de la antena. Para el caso de altas frecuencias, en las que la eficiencia de la antena suele ser muy elevada, la ganancia y la directividad son parámetros prácticamente equivalentes. Así pues, para cada dirección del espacio dada, definimos la ganancia (dB) de una antena como:

G = x D

Polarización. Como vimos, la polarización de una onda se define como la dirección que toma su vector de campo eléctrico. La polarización de una antena en una dirección será la del campo que radía en esa misma dirección. Así pues, como casos prácticos podremos

Page 38: Introducción a Las Telecomunicaciones

38

tener polarización lineal (vertical u horizontal) y polarización elíptica, uno de cuyos casos particulares es la polarización circular.

Resulta imprescindible utilizar las antenas transmisora y receptora con el mismo tipo de polarización, para evitar las pérdidas por desacoplo de polarización.

Ancho de banda. Todas las características anteriores que hemos visto normalmente tiene n validez solamente para un conjunto de frecuencias en torno a la frecuencia de trabajo para la que se diseña una antena. Este conjunto de frecuencias se denomina ancho de banda de la antena. Solamente podremos utilizar la antena en este conjunto de frecuencias. Normalmente, las antenas más eficientes se diseñan para trabajar en una única banda, aunque también existen antenas multibanda que permiten trabajar en dos o más bandas del espectro.

Longitud efectiva. Todos los parámetros que hemos visto hasta ahora caracterizan a una antena tanto en transmisión como equivalentemente en recepción. Existe un parámetro que se define solamente en recepción y que da cuenta de la relación entre la densidad de potencia de la onda incidente en la antena receptora y la potencia que ésta entrega realmente al receptor al que se encuentra conectada. Si medimos el campo incidente en la antena (E) y la tensión que éste induce en la misma, en circuito abierto (sin conectarla al receptor), la longitud efectiva de la antena es:

Existen diversos métodos de incrementar la longitud efectiva de una antena para mejora la recepción. El más típico consiste en la instalación de un bobinado en su base o a media altura.

Conocidas la potencia de emisión de un transmisor y la ganancia de la antena a la que se conecta, se define la potencia isotrópica radiada equivalente (PIRE) como:

PIRE = Pt x Gt [W]

A continuación analizaremos someramente algunos tipos de antena comúnmente utilizados en sistemas de radiocomunicaciones.

Antena dipolo /2. Consiste en dos brazos metálicos cuya dimensión es la mitad de la longitud de onda para la que se diseña la antena, como puede observarse en la figura 3.4. Su diagrama de radiación es omnidireccional en azimut y llega hasta unos 80 grados en elevación. Su ganancia es de 2,15 dB.

Page 39: Introducción a Las Telecomunicaciones

39

Antena dipolo de media longitud de onda

Monopolos. Podemos sustituir uno de los brazos de la antena dipolo por un conjunto de radiales metálicos que realizan la función de plano de tierra, como se puede observar en la figura. El resultado es una antena igualmente omnidireccional pero con una ganancia que puede llegar hasta los 6 dB, radiando potencia hasta unos 45 grados de elevación. El tamaño típico del monopolo es la mitad o la cuarta parte de la longitud de onda, y pueden emplearse técnicas para incrementar su longitud efectiva, como la instalación de bobinas en su base o a media altura.

Monopolo de un cuarto de longitud de onda

Page 40: Introducción a Las Telecomunicaciones

40

Antena colineal. Consiste en dos o más dipolos enfasados con una misma línea de alimentación. Su diagrama de radiación es omnidireccional y la ganancia típica oscila entre 6 dB y 9 dB.

Estructura de una antena colineal

Antena Yagi-Uda. Se trata de antenas directivas construidas con un dipolo y varios elementos con forma de varilla metálica, como puede verse en la figura 3.7. El elemento situado tras el dipolo se denomina reflector y los que se sitúan delante se denominan directores. Cuantos más directores disponga la antena, mayor será su ganancia. Por ejemplo, una antena Yagi-Uda de tres elementos (dipolo, reflector y director) puede tener una ganancia de 10 dB, alcanzando hasta 14 dB si se le añaden dos directores adicionales.

Page 41: Introducción a Las Telecomunicaciones

41

Antena directiva Yagi-Uda.

Antena helicoidal. Este tipo de antena se utiliza profusamente en equipos portables de VHF y UHF, ya que el tamaño de monopolos que radíen eficientemente haría que fuesen poco manejables. Se trata de una antena cargada inductivamente en toda su longitud, lo cual hace que tenga una ganancia aceptable para un tamaño manejable. Tiene la forma de un muelle, como se observa en la figura 3.8. El diagrama de radiación es omnidireccional y la ganancia algo peor que la de un monopolo de cuarto de onda. Suele ir cubierta por un radomo de material plástico que la protege de las inclemencias meteorológicas y de los esfuerzos mecánicos.

Antena helicoidal

Antena logoperiódica. Está formada por un conjunto de radiales de distinto tamaño ordenados de forma descendente en la dirección de máxima radiación de la antena, como puede verse en la figura 3.9. Su característica fundamental es que su ganancia es periódica en el logaritmo de la frecuencia, lo cual la convierte en una antena con un ancho de banda elevadísimo, muy usada en comunicaciones en HF que precisan de una elevada directividad. La ganancia típica es de 6 dB a 8 dB y existen diseños para operar desde 3 MHz hasta 8 GHz.

Page 42: Introducción a Las Telecomunicaciones

42

Antena logoperiódica

Antena discono. Está formada por un conjunto de radiales dispuestos en forma de disco y otro conjunto en forma de cono (ver figura 3.10). Es una antena omnidireccional, de escasa ganancia pero de muy elevado ancho de banda, que la hace muy apta para su utilización en receptores de banda contínua.

Page 43: Introducción a Las Telecomunicaciones

43

Antena discono

Antena parabólica. Está formada por una superficie de forma parabólica que actúa como reflector y por un receptor situado en uno de los focos de la parábola, como se ve en la figura 3.11. En recepción, el frente de onda incide sobre el reflector y se refleja concentrándose en el receptor. En transmisión el procedimiento es el inverso, conectándose un emisor en el foco de la parábola. Es una antena muy directiva, presentando ganancias del orden de 30 dB a 40 dB, siendo especialmente eficiente en la banda de SHF y por tanto usada en comunicaciones vía satélite y en radioenlaces de microondas de alta capacidad.

Page 44: Introducción a Las Telecomunicaciones

44

Antena parabólica

Líneas de transmisión

Las líneas de transmisión se utilizan para interconectar los distintos elementos de un sistema radio, por ejemplo un transceptor con su antena. Como ya se ha mencionado, a través de las líneas de transmisión viaja un campo confinado que puede describirse con un voltaje y una corriente.

Imagínese dos hilos conductores paralelos que se extienden hasta el infinito y, conectado a ellos, un generador de corriente continua. En el momento de la conexión veríamos que circula corriente en los cables en las proximidades del generador. Ahora bien, la propagación de la corriente por un conductor se produce a una velocidad no mayor que la de luz, por tanto, a 300.000 km del generador, tardaría 1 segundo en llegar la corriente y a 300 m tardaría 1 microsegundo (una millonésima de segundo). Puede pensarse que este tiempo es muy pequeño pero es el tiempo que una onda de radiofrecuencia de 1 megahercio (un millón de ciclos por segundo), tarda en completar un ciclo, y una frecuencia de un megahercio (MHz) está muy por debajo de lo que actualmente se puede emplear en radio.

¿Por qué circula corriente si los dos conductores no se encuentran nunca? La tensión aplicada a ellos crea un campo eléctrico entre los dos conductores. Como recordaremos dos conductores próximos forman un condensador. Puesto que los conductores son infinitos, la capacidad del condensador también lo es y, por tanto, nunca cesará la corriente que tiende a cargarlo, mientras el generador esté conectado.

Ahora bien, todo conductor por el que circula corriente tiene una cierta inductancia por unidad de longitud, o sea, equivale a una bobina. Por tanto, la línea de hilos paralelos que vimos antes puede representarse como una sucesión de bobinas y condensadores, tal como se indica en la figura.

Relación de Ondas Estacionarias

Page 45: Introducción a Las Telecomunicaciones

45

¿Qué ocurre cuando a una línea de transmisión se le coloca una carga distinta de su impedancia característica? Para analizarlo se van a plantear los dos casos extremos: en cortocircuito (resistencia de carga igual a 0), y en circuito abierto (resistencia de carga igual a infinito).

Tensión e intensidad en una línea en cortocircuito

CortocircuiroIntroduciendo una corriente alterna en la línea (tal como indica la figura a), en el cortocircuito existirá siempre un punto de mínima tensión y de máxima intensidad (figura b y c).El efecto es equivalente al de una onda que rebota contra una pared, invierte su sentido y retorna al generador, pero este retorno se efectúa con un cambio de fase de 180°, por lo que tendremos las corrientes y tensiones tal como se muestra en las figuras d y e.La combinación de la corriente y la tensión que llega y las que retornan, al medirlas con un voltímetro o amperímetro de radiofrecuencia se observa que son máximos en unos puntos de la línea y, mínimos en otros y que estos puntos son invariables (figura f).A una onda de este tipo se le llama onda estacionaria.

Page 46: Introducción a Las Telecomunicaciones

46

Tensión e intensidad en una línea en circuito abierto

Circuito abiertoComo puede observarse en la figura, en el caso de circuito abierto se produce el mismo efecto, con la diferencia de que la tensión y la intensidad se han invertido.En el extremo abierto la tensión es máxima y la intensidad mínima.

Cuando se coloca una carga y ésta es distinta de la impedancia característica de la línea, se produce la misma situación. Si la carga es menor que la impedancia característica, la línea se comporta de manera parecida a la de la figura Cortocircuito y, si es mayor a la de la figura Circuito Abierto. La diferencia estriba en que ahora los valores mínimos no llegan a cero y se produce una variación alrededor de la corriente media en la línea.

Gráfico de intensidad en una línea con ROE menor que infinito

Page 47: Introducción a Las Telecomunicaciones

47

Se denomina Relación de Ondas Estacionarias (ROE) o Standing Wave Ratio (SWR), al cociente entre la intensidad máxima y la mínima de una línea de transmisión.

ROE = Imax / Imin

En el caso de la línea en circuito abierto o en cortocircuito la ROE vale infinito, ya que la intensidad mínima es cero.

Pero, una medida de la ROE no indica si la carga es mayor o menor que la impedancia de la línea. Para saber esto se debe medir la tensión o la intensidad a lo largo de la línea.

Si se produjera a una distancia de la carga de un cuarto de onda o cualquier múltiplo impar de esa longitud, la resistencia de carga es menor que la Zo.

Si la intensidad mínima se produce a media longitud de onda o cualquier múltiple de ella, la resistencia de carga es mayor que Zo.

La misma medida se puede hacer con un voltímetro, pero en este caso los supuestos se invierten.

La ROE también se puede representar como:

ROE = Zo / R si Zo > R

o bien

ROE = R / Zo si R > Zo

Por ejemplo:

R = 100 Ω Zo = 50 ΩROE = 100/50 = 2

se dice que tenemos una ROE de 2 a 1 (2:1)

Nunca se debe decir que la ROE es igual a cero, ya que siempre se pone el número mayor en el numerador y, por tanto, la mínima ROE es 1:1 y la máxima infinito: 1.Lo que sí puede decirse es que en una línea no hay ROE o sea que está equilibrada o que la ROE es 1:1.

Observar que si usamos una antena de impedancia Zantena = 50 a la frecuencia de trabajo y un cable coaxial con impedancia característica ZLINEA = 50 , tendremos = 0 (no hay reflexión) y por tanto ROE = 1:1, es decir, no se genera onda estacionaria. Esto en la práctica es imposible de conseguir, y se considera aceptable un valor de hasta 1:1,3. Podemos medir directamente la ROE con un medidor de onda estacionaria conectado entre nuestro transmisor y la antena.

Efectos de la ROE

El primer efecto de la ROE es que la carga no absorbe toda la energía suministrada por la línea (y por tanto por el generador). Si la carga es una antena, una parte de la energía del transmisor no es radiada y por tanto no se aprovecha.

Otro efecto es que el transmisor se puede encontrar con unos valores de tensión e intensidad superiores a los que puede soportar con seguridad, con el consiguiente peligro de destrucción.

Page 48: Introducción a Las Telecomunicaciones

48

Este peligro es más importante en el caso de emisores a transistores que en los de válvulas, ya que éstas tienen un margen de tolerancias más alto, y, por la misma construcción de su circuito de salida, se pueden adaptar mejor que los equipos transistorizados para cargas distintas de las previstas.

La tercera consecuencia desfavorable de la ROE es que la línea de transmisión aumenta sus pérdidas. Las líneas reales (hasta ahora se ha analizado una línea ideal, que no tenía pérdidas), tienen siempre un cierto grado de pérdidas de potencia. Si la ROE es elevada, estas pérdidas aumentan, reduciendo aún más la potencia que llega a la carga.

De todas formas, una cierta ROE existen en casi todas las instalaciones ya que resulta casi imposible realizar un acoplamiento perfecto entre línea y carga. Una ROE de 1,5:1 es perfectamente admisible en cualquier instalación. Una ROE de 2:1 puede empezar a ser un problema con equipos transistorizados y una ROE 3:1 es ya desaconsejada para cualquier equipo.

Tipos de líneas

Las líneas de transmisión se pueden dividir en dos grandes grupos: bifilares y coaxiales.

Línea bifilar

Consiste en dos hilos conductores paralelos separados, bien sea por un material dieléctrico continuo o bien por separadores cada cierta distancia.

Línea bifilar con espaciadores (a) y línea bifilar (b)

La impedancia de una línea de este tipo viene definida aproximadamente por la siguiente fórmula:

Zo = 276 log (d/r) Ω

Donde d es la distancia entre centros de conductores, r el radio de un conductor; d y r deben ser unidades homogéneas.

Ventajas de las líneas planas

La primera ventaja es su bajísimo nivel de pérdidas, incluso para frecuencias elevadísima.La segunda ventaja es que podemos realizarla para cualquier impedancia (mediante la fórmula), y para cualquier potencia, por grande que sea, aumentando el diámetro del conductor o en casos extremos utilizando tubos de cobre.

Desventajas de las líneas

Siempre existe una cierta radiación a lo largo de la propia línea, debido a que los campos de cada conductor no se cancelan exactamente,

Page 49: Introducción a Las Telecomunicaciones

49

planas sobre todo a pequeñas distancias de la línea, lo que puede causar problemas de interferencia a la televisión u otros servicios.Si la línea no está equilibrada y existe una ROE fuerte en ella, estos problemas pueden ser muy graves. Las líneas planas tienden a captar ruidos eléctricos de los sitios por donde pasan. En las ciudades o edificios con muchos vecinos, el nivel de ruido eléctrico es muy alto debido a la gran cantidad de electrodomésticos existentes. Si una línea tiene que pasar por esas zonas, su captación de ruido será muy alta.

La línea de transmisión más utilizada en los sistemas de radiocomunicaciones es el cable coaxial, formado por un conductor interno por el que viaja la señal, un dieléctrico que lo rodea, un conductor exterior en forma de malla conductora que aísla el campo confinado para evitar interferencias tanto hacia dentro como hacia fuera del cable, y un recubrimiento exterior para proteger el cable. El cable coaxial puede usarse hasta una frecuencia de trabajo de unos 3 GHz, es flexible y fácil de instalar.

Cable coaxial

Existe una gran variedad de tipos de cable coaxial, que podemos caracterizar fundamentalmente usando los dos siguientes parámetros:

Impedancia característica (Z). Es el valor constante que relaciona la corriente y el voltaje del campo guiado por el cable coaxial y se mide en ohmios ( ). En radiocomunicaciones suelen usarse cables con impedancia característica de 50 , mientras que en la televisión suelen ser de 75 .

Atenuación por unidad de longitud (L). Valor de la atenuación que el cable introduce en la señal transmitida en una longitud fija de referencia, que suele ser de 100 metros. Se mide en decibelios por unidad de longitud. Lógicamente, los cables de mejor calidad y por tanto más caros son los que introducen menor atenuación.

Para frecuencias de trabajo superiores a 3 GHz se utilizan dispositivos guiaondas. Se trata de conductos metálicos huecos que normalmente tienen sección rectangular y se rellenan con aire seco o nitrógeno a presión para evitar la entrada de humedad.

En caso de que existan discontinuidades de impedancia a lo largo del trayecto de la onda confinada, puede producirse el fenómeno de onda estacionaria. Cuando la onda que se desplaza a lo largo de la línea encuentra una discontinuidad de impedancia, parte de la onda sigue propagándose, pero otra parte se refleja en sentido contrario sumándose a la onda incidente y formando una onda estacionaria, es decir, que no se desplaza. La onda estacionaria es muy peligrosa para la integridad de la etapa de amplificación final de RF de los transmisores, ya que puede sobrecalentarla e incluso quemarla.

Page 50: Introducción a Las Telecomunicaciones

50

Las discontinuidades de impedancia mencionadas pueden encontrarse en varios puntos del sistema, a los que habrá que prestar la necesaria atención:

Cualquier tipo de conector mal instalado puede dejar un hueco de aire (dieléctrico) que presenta una fuerte discontinuidad de impedancia.

Los transceptores tienen una determinada impedancia de salida/entrada, que deberá ser igual a la impedancia característica de la línea de transmisión y a la de la antena utilizada.

La impedancia de una antena depende de la frecuencia de trabajo, por lo que como medida precautoria no deberá utilizarse una antena fuera del rango frecuencial de trabajo para el que ha sido diseñada.

Características de las lineas de transmisión reales

Longitud

Toda línea de transmisión tiene una longitud física. Ahora bien, como por ella va a circular una corriente de radiofrecuencia, en muchos casos resulta imprescindible determinar su longitud eléctrica.

Por una línea real, la corriente eléctrica no se desplaza a la velocidad de la luz sino que lo hace a velocidad menor.

Al cociente entre la velocidad real y la velocidad de la luz se le llama coeficiente de velocidad; se representa normalmente con la letra V y siempre es menor que la unidad.

La longitud de onda, en el espacio libre, de una onda de radiofrecuencia viene dada, por:

λ = 300 / f

λ es la longitud de onda en metros si la frecuencia está expresada en megahercios.

Si esta misma onda se propaga por una línea de transmisión se tendrá:

λ I = λ x V = (300 / f) x V

Siendo λ I la longitud de la onda en la línea, y λ V el coeficiente de velocidad.

Cada línea de transmisión tiene un factor de velocidad que depende de su tipo y de los materiales con los que se ha fabricado. En la tabla 1 se puede ver los factores de velocidad de algunas líneas estándar.

Como se puede observar, cuanto menos dieléctrico haya, mayor es la velocidad de propagación.

Suponiendo que se quiera cortar una línea, con dieléctrico de politeno, para que tenga media longitud de onda a la frecuencia de 10 MHz, tendremos:

1/2 λ I = 1/2 λ x V = (1/2) x (300/f) x V = 9.9 metros

O sea, mucho más corta que los 15 metros correspondientes a media onda en el espacio libre para esa frecuencia.

Pérdidas

Page 51: Introducción a Las Telecomunicaciones

51

Toda línea de transmisión tiene pérdidas, parte de la energía que transporta se transforma en calor y por tanto no es utilizable.

Las pérdidas se producen por dos motivos: resistencia óhmica y pérdidas en el dieléctrico.

Resistencia óhmica

Todo conductor tiene una resistencia. Al circular corriente eléctrica por él, una parte de la potencia es disipada en calor por esa resistencia. Cuanto más larga sea la línea, mayor será la resistencia y mayores las pérdidas. Las pérdidas resistivas son fijas e independientes de la frecuencia.

Pérdidas en el dieléctrico

Cualquier dieléctrico a pesar de ser un aislante tiene un cierto grado de pérdidas. Las pérdidas en el dieléctrico dependen de su espesor, tipo y de la frecuencia a la que se emplee. Cuanto más fino sea el dieléctrico y más alta la frecuencia, mayor serán las pérdidas. El mejor dieléctrico es el aire, tiene unas pérdidas muy bajas.

Sistemas de adaptación de antenas

Cuando la línea de transmisión tiene una impedancia y la antena otra muy distinta, hay que acoplarlas para evitar que aparezca ROE en la línea.

Los sistemas más comunes de acoplamiento son los siguientes:

Línea de cuarto de onda o Línea Q

Si una línea de transmisión con una impedancia Zq se conecta entre una antena con impedancia Z y una línea de transmisión con impedancia Zo, se realizará la transformación siempre que se cumpla la siguiente fórmula:

Zq = raíz de (Zo x Z)

Por ejemplo: una antena funciona a 10 MHz y tiene una impedancia de 100 ohmios y queremos conectarla a una línea de 52 ohmios. ¿Qué impedancia y qué longitud tendrá la línea de acoplamiento?

Zq = raíz de (Zo x Z) = raíz de (52 x 1 00) = 72 ohmios

Si se selecciona una línea RG-59 que tiene una Zo=73 ohmios, que es muy aproximado. El factor de velocidad es de 0,66, por tanto la longitud que necesitamos es:

L = 300/f: 4 x V= 300/10:4 x 0,66 = 4,95 metros

Que es exactamente un cuarto de longitud de onda en la línea.

Adaptación en T

La adaptación en T permite acoplar una baja impedancia con otra mayor. La impedancia nominal de un dipolo se encuentra en el centro. Si se toman dos puntos simétricos respecto al centro tendremos una impedancia mayor que la nominal.

Page 52: Introducción a Las Telecomunicaciones

52

Las dos varillas paralelas al dipolo funcionan como líneas de transmisión de acoplamiento. Los condensadores sirven para anular la inductancia de las barras añadidas.

Adaptación Gamma

Es lo mismo que la adaptación en T para líneas coaxiales. Se conecta la malla del coaxial al centro y se construye una sola de las ramas.

Adaptación Omega

Es igual que la adaptación Gamma a la que se añade un condensador más, que permite acortar el brazo de adaptación, con lo que el ajuste con la antena instalada es mucho más fácil.

Estos tres tipos de adaptador son los que más se emplean para elevar el bajo valor de impedancia de una antena directiva (18 ó 20 ohmios) al valor de las líneas coaxiales normales (50 o 75 ohmios) o 200-300 ohmios en el caso de la T.

La longitud de la barra de adaptación, en T y Gamma, debe ser de 10 % de la longitud del elemento a acoplar. El condensador de los adaptadores en T y Gamma debe ser de 8 pF por cada metro de longitud de onda.

En el caso del adaptador Omega, la longitud del elemento acoplador es la mitad que en los otros casos y la capacidad del condensador dependerá de esa longitud.

En el caso en que la barra fuera exactamente la mitad, la capacidad máxima del condensador será de 3 pF por metro de longitud de onda de funcionamiento. Se puede reducir la longitud de la barra aumentando la capacidad del condensador.

La varilla del elemento acoplador debe tener un diámetro de 1/3 del elemento a acoplar y se colocará a una distancia de 1/70 de la longitud total de dicho elemento. La sujeción se hace por medio de una brida en el extremo (que debe poder moverse con el fin de obtener el ajuste correcto) y el otro extremo al condensador.

Sistemas de balanceo

Casi todos los tipos de antena (excepto las verticales) son simétricas, o sea que la conexión es indiferente. El cable coaxial, en cambio, es asimétrico. Si no se desea que por a malla de un cable coaxial circulen corrientes, hay que poner algún elemento que permita hacer el cambio de balanceando a no balanceado. A este elemento se le denomina Balún (en inglés Balanced to un-balanced). La denominación correcta en castellano sería Simetrizador, pero en la práctica se emplea siempre la acepción inglesa.

Balun de media onda

Consiste en conectar un cable coaxial de media longitud de onda eléctrica como se indica en la figura posterior. Realiza además una transformación de impedancia de 1 a 4, o sea que también sirve para adaptar impedancias.

Page 53: Introducción a Las Telecomunicaciones

53

Balum de media onda

Balun de banda ancha

Consiste en un transformador de banda ancha con entrada asimétrica y salida simétrica. Se puede construir con núcleo de aire o bien de ferrita. Lo más corriente es que sea sobre ferrita y puede, si se desea, realizar cualquier transformación de impedancias; si no realiza transformación de impedancia se denomina balun 1:1

Hay que tener en cuenta que este tipo de balunes tienen limitaciones de frecuencia y de potencia, que deben conocerse antes de instaurarlos. Además deben conectarse a antenas muy bien diseñadas y sintonizadas. Si la carga de la antena no es puramente resistiva o no tiene el valor adecuado, el propio balun puede aumentar los valores de ROE en la línea o bien resultar destruido al no poder hacer la transferencia de energía.

Conectores

En relación a los conectores que pueden utilizarse para conectar el cable coaxial al transceptor y a la antena, también existe gran variedad de modelos, entre los que cabe destacar los mostrados a continuación, en la que además se indica en qué banda se utilizan más frecuentemente

Conectores para cable coaxial y banda de utilización típica

Suministro eléctrico

Page 54: Introducción a Las Telecomunicaciones

54

Para alimentar un transceptor base se suele utilizar una fuente de alimentación, dispositivo que se conecta a la red eléctrica y que cumple las funciones de convertir la corriente alterna de la red en corriente continua, reducir el valor de voltaje hasta un nivel aceptable por el transceptor (normalmente en torno a los 13V-15V), suministrar la intensidad suficiente para el funcionamiento del equipo y a la vez protegerlo de variaciones de corriente.

La fuente de alimentación deberá ser capaz de suministrar una intensidad de corriente suficiente al transmisor para que este pueda operar a su potencia máxima. Son valores comunes de corriente de trabajo 5 amperios, 15 amperios, 30 amperios e incluso más si se utilizan amplificadores externos de RF. Este es un aspecto a considerar si se quiere operar con potencias de transmisión elevadas.

La fuente deberá ubicarse en un lugar con buena ventilación para evitar su sobrecalentamiento, evitando cubrir el disipador que suele incorporar, y asegurando su conexión a una toma de tierra adecuada.

Aún cuando se disponga de suministro eléctrico continuo, es fundamental dotar a la estación radioeléctrica de suministro eléctrico alternativo, preferentemente por medio de baterías o grupos electrógenos.

En el caso de transceptores instalados en vehículos, la alimentación del equipo debe realizarse con un cable conectado directamente a las bornas de la batería del vehículo, preferiblemente protegido con un fusible y teniendo especial cuidado de evitar pasarlo por zonas susceptibles de elevado calentamiento del motor. Resulta esencial minimizar los periodos de transmisión con el motor parado, ya que la batería puede llegar a descargarse sobre todo si utilizamos potencias elevadas.

El grupo electrógeno es un buen sistema de alimentación alternativa para casos de fallo del suministro eléctrico habitual. Podemos distinguir tres tipos: portátiles, capaces de suministrar entre 2000 y 6000 W y facilmente transportables; transportables, normalmente en un remolque y de mayor potencia (desde 6000 W hasta 30 kW); y fijos, instalados en edificios y cuya entrada en funcionamiento es automática en caso de fallo de red. Estos últimos se instalan en la práctica totalidad de edificios oficiales y su potencia es variable en función de las necesidades de alimentación del edificio.

Las batería se utilizan en los equipos portables y también como medio de alimentación alternativo para equipos fijos o de base. Podemos distinguir varios tipos:

Batería seca alcalina. Formada por un ánodo degel de zinc y un cátodo de óxido de manganeso. La tensión suministrada es del orden de 1,5V a 9V, en función de los modelos. Este tipo de batería no es recargable y ha de desecharse adecuadamente en contenedores apropiados.

Baterías de Níquel-Cadmio (Ni-Cd) y Níquel-Metalhidruro (Ni-MH). Se trata de baterías recargables de elevada capacidad y tamaño compacto. Han de recargarse siempre con el cargador adecuado. Presentan el problema del "efecto memoria": conforme avanza su vida, mediante contínuos periodos de carga y descarga, la capacidad de la batería va haciéndose cada vez menor.

Batería de plomo. Se utiliza en estaciones fijas y requiere mantenimiento. Hay que tener especial cuidado con los gases que pueden emanar, por lo que hay que ubicarlas en espacios con buena ventilación. También hay que prestar atención a posibles derrames, ya que contienen ácidos corrosivos.

Finalmente, mencionar los sistemas de alimentación mediante células solares. Las células se disponen en una placa que capta la radiación solar convirtiéndola en energía eléctrica que puede

Page 55: Introducción a Las Telecomunicaciones

55

ser almacenada en unas baterías. Este tipo de alimentación se usa sobre todo en emplazamientos en los que no existe suministro eléctrico de otro tipo, por ejemplo, en reemisores situados en montañas de dificil acceso. Pueden proporcionar una potencia limitada, del orden de 10 W a 200 W y es necesario tener en cuenta que las baterías que almacenan la energía eléctrica suelen requerir mantenimiento.

En caso de utilizar células solares como sistema de alimentación, es necesario minimizar los periodos de transmisión, especialmente de noche o en días nublados, ya que las baterías que almacenan la energía eléctrica se pueden descargar rápidamente inutilizando el sistema.

Fundamentos de propagación

La Ionosfera

Antes de pasar a la exposición de transmisión de ondas mediante intervención de la ionosfera es necesario conocer un poco esta zona que rodea la Tierra.

La ionosfera es un conjunto de zonas por encima de 15 km, desde 60 hasta 600 km de altura, en las que el aire está ionizado y es un buen conductor de electricidad. Ello sucede porque hay una gran cantidad de iones y de electrones libres en esta zona, lo que influye en gran medida sobre la propagación de ondas electromagnéticas. (Recuerde que la ionización consiste en que un átomo pierda o gane algún electrón).

En esta zona de la atmósfera existe una gran cantidad de gases y el impacto que producen en los átomos los rayos cósmicos y radiaciones ultravioletas les arranca algún electrón dejándolos convertidos en iones positivos, Las condiciones de propagación de las radiaciones son excelentes en las capas altas de la atmósfera y a ellas llegan con facilidad las radiaciones ultravioletas del Sol.

Cuando ha tenido lugar la ionización, los iones y los electrones libres que se han formado chocan y se recombinan entre sí incesantemente; un ion positivo tiene la tendencia a dejar estable su estructura recuperando el electrón o electrones que le faltan, pero este proceso se mantiene de forma ininterrumpida debido a que las radiaciones continúan llegando a todas las zonas de la atmósfera (especialmente a la ionosfera).

La ionización no es constante ni igual en todos los puntos de la ionosfera, influyen sobre ella la rotación de la Tierra, la formación de manchas solares, las erupciones solares y, sobre todo, la cantidad de radiación que llega según sea de día o de noche. Lo que importa es la densidad de ionización, es decir, el número de iones por cada unidad de volumen puesto que de ello depende la mayor o menor propagación de las ondas.

Las radiaciones no penetran con idéntica intensidad en todas las zonas de la atmósfera porque si bien las capas superiores son alcanzadas de lleno por toda la radiación, a las capas inferiores apenas llega un pequeño porcentaje de ésta.

En la parte superior de la ionosfera, aunque la ionización es muy grande, también lo es el número de recombinaciones, por lo que sufre variaciones importantes. Cada ion tiene un tiempo de vida muy corto al recombinarse enseguida con algún electrón de los muchos existentes en sus proximidades. A la parte baja de la atmósfera llega muy poca radiación puesto que ésta ha sido absorbida y amortiguada por todo el espesor de atmósfera que ha debido atravesar.

Page 56: Introducción a Las Telecomunicaciones

56

Estructura en capas de la ionosfera de día y de noche

La ionización será más importante en la zona central porque aunque llegue un poco menos de radiación que a la parte superior, los iones formados duran más tiempo y ello resulta más importante a efectos de propagación de ondas electromagnéticas.

Para estudiarla mejor se ha subdividido la zona conocida como ionosfera en varias subzonas o capas según la distancia que las separa de la superficie y del grado de ionización que contengan.

Se ha procurado unificar al máximo las alturas de las diferentes capas y en el estudio se parte de un margen considerable de kilómetros entre unas capas y otras.

Capa D: La capa más próxima a la troposfera es la capa D, que oscila entre 20 y 80 km aunque su valor central está aproximadamente alrededor de 70 km. Aquí la ionización es muy pequeña y procede solamente de las radiaciones solares muy intensas, lo que significa que, en la práctica, existe solamente durante el día que es cuando el Sol irradia una mayor energía sobre la superficie de la Tierra. Durante la noche apenas existe esta capa y no tiene utilidad práctica. Su importancia es muy escasa porque al quedar a alturas muy bajas prácticamente se cubre la misma distancia con las ondas troposféricas y se emplea para la propagación de las ondas largas.

Capa E: Por encima de 80 y hasta 140 km (valor medio 100 km) la capa E permite devolver ondas electromagnéticas hasta una distancia de 2.000 km del punto de origen. La máxima propagación tiene lugar durante el día, pero no sufre una anulación total durante la noche si bien entonces reduce en gran parte su influencia. Esta capa es importante a efectos prácticos de conducción de ondas medias.

Capa F: La capa F, que es la más importante, tiene alturas medias entre 200 y 400 km. Las capas D y E casi desaparecen durante la noche, especialmente la primera, pero no sucede lo mismo con la segunda ya que la diferencia entre el día y la noche o las estaciones la afectan solamente en un cambio de espesor, densidad de ionización y altura con respecto de tierra. Durante las horas de sol, la capa F se subdivide en otras dos capas, denominadas F1 y F2. La inferior, F1, se mueve entre 140 y 250 km, durante el día y se eleva durante la noche. También influyen las estaciones, según en la que nos encontremos se recibe más o menos directamente la radiación solar y ello implica una variación. Aunque varía su altura, siempre queda por encima de la capa E. Al final del día se recombinan de nuevo las dos subcapas F1 y F2 para formar de nuevo la capa F.

Page 57: Introducción a Las Telecomunicaciones

57

Esta capa es la que utiliza la onda corta en sus desplazamientos a larga distancia.

En la figura hemos representado de forma simbólica la trayectoria seguida por una onda electromagnética. Al salir de la antena emisora hacia el espacio atraviesa la troposfera siguiendo una trayectoria rectilíneo y al llegar a la zona de baja ionización de la ionosfera, sufre una refracción, que será más o menos acusada según sea la frecuencia y el ángulo con el que incide, para, a continuación, seguir una trayectoria curva que propicia la reflexión de la onda cuando ésta llega a la zona de máxima densidad de la capa, obligándola a seguir una trayectoria descendente que puede retornar a tierra.

Ecuación de transmisión y factores de atenuación

La forma matemática de relacionar la potencia transmitida en el emisor con la potencia recibida en el receptor, en el espacio libre, depende de varios parámetros (figura 3.14) y se denomina ecuación de transmisión, y tiene la siguiente expresión:

Pr = Potencia recibida a la entrada del receptor (W)Pt = Potencia transmitida por el emisor (W)Gt = Ganancia de la antena del transmisor (adimensional)Gr = Ganancia de la antena del receptor (adimensional) = Longitud de onda de trabajo (m)d = Distancia entre el emisor y el receptor (m)Ld = Factores de atenuación adicionales (adimensional)

Page 58: Introducción a Las Telecomunicaciones

58

Parámetros que influyen en la ecuación de transmisión

Para que nuestro sistema funcione correctamente, la potencia recibida debe de estar por encima de un determinado umbral que depende de las características técnicas de cada receptor en particular. Este umbral se denomina sensibilidad del receptor.

Partiendo de la ecuación de transmisión, podemos llegar a varias conclusiones interesantes:

Lógicamente, a mayor potencia transmitida, mayor potencia recibida. La ganancia de las antenas, tanto del transmisor como del receptor, resulta un factor

fundamental. A mayor longitud de onda de trabajo, es decir, a menor frecuencia de trabajo, menor

atenuación sufre la onda en espacio libre. La onda se atenúa con el cuadrado de la distancia. Observar que no es una relación lineal:

si el receptor se mueve al doble de distancia del transmisor, la potencia recibida se divide por cuatro.

Existen gran cantidad de factores de atenuación adicionales, que luego veremos en mayor profundidad, que pueden introducir serias pérdidas en nuestro balance de potencias.

Para entender de forma más clara la ecuación de transmisión, podemos reescribirla de forma logarítmica, teniendo cuidado con las unidades de medida utilizadas:

PR = PT + GT + GR + 20log( ) – 20log(4 d) - LD

PR = Potencia recibida a la entrada del receptor (dBW)PT = Potencia transmitida por el emisor (dBW)GT = Ganancia de la antena del transmisor (dB)GR = Ganancia de la antena del receptor (dB) = Longitud de onda de trabajo (m)d = Distancia entre el emisor y el receptor (m)LD = Factores de atenuación adicionales (dB)

Nuestro propio sistema de comunicaciones y la forma en que lo utilicemos introduce diversos factores de atenuación.

Las líneas de transmisión, generalmente formadas por cable coaxial, introducen una determinada atenuación por unidad de distancia. Es importante utilizar cable coaxial de buena calidad y no emplear una longitud mayor que la estrictamente necesaria. Asimismo, resulta fundamental conservar los cables en buenas condiciones, sin que se dañe el revestimiento plástico protector.

Los conectores son una fuente importantísima de problemas. El propio conector introduce una atenuación, que además se verá ampliada si está incorrectamente soldado o enroscado. Además, una conexión incorrecta puede provocar que parte de la onda transmitida se refleje, dando lugar a

Page 59: Introducción a Las Telecomunicaciones

59

una onda estacionaria que incluso puede hacer peligrar la integridad de la etapa amplificadora de nuestro transmisor.

Las antenas, como hemos visto, introducen una ganancia en nuestro sistema. No obstante, una utilización incorrecta también puede generar pérdidas:

La propia antena tiene que estar diseñada para la frecuencia de trabajo que utilicemos. Si vamos a emplear frecuencias de trabajo en bandas distintas, tendremos que disponer de varias antenas o bien valorar la utilización de una antena multibanda.

Su conector debe estar correctamente conectado, para evitar la generación de ondas estacionarias.

Finalmente resulta fundamental un aspecto muy poco considerado como es la propia posición en que se utiliza la antena, algo que debemos tener muy presente sobre todo en la utilización de equipos portátiles. La posición en que se use la antena determina la polarización de la onda transmitida, que como ya vimos puede ser vertical (elementos radiantes de la antena situados perpendicularmente al plano de tierra), muy usada en las bandas de VHF y UHF, u horizontal (elementos radiantes paralelos al plano de tierra). Al trabajar con portátiles, comúnmente en las bandas de VHF y UHF, se suele usar polarización vertical y resulta imprescindible mantener la antena lo más vertical posible para minimizar las pérdidas por desacoplo de polarización.

Por otro lado, desde que iniciamos nuestra transmisión en el emisor hasta que la onda llega al receptor, ésta está sujeta a diversos fenómenos que habitualmente introducen atenuación.

Absorción. Todos los materiales que la onda atraviesa en su trayectoria por el canal, incluída la propia atmósfera, hacen que parte de la energía de la onda se disipe en forma de calor y que por tanto vaya perdiendo intensidad en su recorrido. Para el caso de la atmósfera, la absorción tanto mayor cuanto mayor sea la densidad de partículas no ionizadas.

Reflexión. Cuando la onda incide en una superficie, se refleja con un ángulo de salida igual al ángulo de incidencia (ley de reflexión). Dependiendo de la conductividad del material de esa superficie, sufrirá mayor o menor atenuación. Por ejemplo, una onda que viaje sobre el mar o sobre un lago se atenuará menos que si lo hace sobre un campo. Una onda siempre estará sujeta a reflexiones en su trayectoria, por lo que en el punto de recepción tendremos una onda directa y varias reflejadas, o posiblemente solamente ondas reflejadas. Esto se conoce como propagación multitrayecto y puede ser una importante fuente de atenuación si las ondas que llegan al receptor están desfasadas, lo cual suele ser muy común si viajamos en un móvil en marcha.

Refracción. Este fenómeno hace que se desvíe la dirección de propagación de la onda cuando ésta pasa de un medio a otro en el que la velocidad de propagación es distinta (es decir, medios con distinto índice de refracción. Este fenómeno, por ejemplo, hace que el alcance de un rayo directo sea superior al horizonte óptico, debido a pequeñas variaciones en las condiciones atmosféricas que hacen que la trayectoria se curve siguiendo la forma de la Tierra.

Difracción. La difracción hace que la trayectoria de una onda que incide en un obstáculo se disperse en multitud de trayectorias, correspondientes a ondas de la misma frecuencia pero de menor intensidad (figura 3.15). Este fenómeno, unido al de reflexión, por ejemplo es el reponsable de que podamos escuchar una transmisión de radio al otro lado de una montaña aún cuando no tengamos visibilidad directa del transmisor.

Page 60: Introducción a Las Telecomunicaciones

60

Difracción en obstáculos

En la zona de recepción del rayo directo tendremos una señal óptima. Al salirnos de esta zona (se pierde la referencia óptica del transmisor), podremos seguir recibiendo la transmisión en una zona de penumbra gracias a la reflexión y la difracción. Finalmente, existirán zonas en las que la recepción es imposible, que conocemos como zonas de sombra. Realizando un estudio estadístico de la potencia recibida en todas las zonas, podemos realizar el mapa de cobertura de un transmisor.

Parece claro que para minimizar estos factores de atenuación, ampliando nuestra zona de cobertura, resulta idóneo emplazar los transmisores en zonas elevadas. Asimismo, si la comunicación desde o hacia un móvil resulta complicada por la propagación multicamino, se buscará un punto óptimo y se continuará la transmisión de forma estática.

Propagación en las bandas de HF

La propagación en la banda de HF (3 MHz a 30 MHz) se ve afectada fundamentalmente por las características de una capa de la atmósfera situada entre los 60 km y los 500 km de altitud, que recibe el nombre de ionosfera por la gran cantidad de partículas ionizadas que contiene. Realmente, la ionosfera está formada por diversas subcapas que tienen un grado de ionización distinto por el día y por la noche.

La ionización en las distintas capas de la ionosfera hace que las ondas electromagnéticas de un determinado rango frecuencial, cuyo límite superior es la máxima frecuencia utilizable (MUF), sufran reflexión y su trayecto vuelva nuevamente hacia la Tierra. En la Tierra se puede producir una nueva reflexión y el proceso se repite periódicamente como si la onda viajase reflejándose en un conducto delimitado superiormente por la ionosfera e inferiormente por la propia Tierra, como puede verse en la figura 3.16. Este fenómeno se conoce con el nombre de propagación ionosférica y permite comunicaciones de muy larga distancia, con alcance incluso mundial, operando en frecuencias inferiores a la MUF.

Propagación ionosférica

Page 61: Introducción a Las Telecomunicaciones

61

El valor de la MUF es variable a lo largo del día y depende del grado de ionización de la atmósfera, que a su vez es función de la estación del año, la hora del día, y la actividad solar que puede cuantificarse con el número de manchas solares. En la se muestra la diferencia relativa de MUF entre distintas zonas de la Tierra en un instante dado. Observar que la diferencia entre zonas puede llegar a ser de hasta 10 MHz, hecho a considerar a la hora de planificar un radioenlace ionosférico a larga distancia:

Variación de la MUF entre zonas geográficas distintas

Para frecuencias de hasta 10 MHz también es importante el fenómeno de propagación por onda de superficie: una parte del frente de onda generado por el transmisor se difracta siguiendo la curvatura del radio terrestre a una distancia relativamente pequeña de la superficie terrestre. Esta onda puede tener un alcance de varios centenares de kilómetros.

Si en el receptor se suman la onda de superficie y la ionosférica, normalmente se tendrán problemas de desvanecimiento debido a que las ondas no llegan en fase, al recorrer la onda ionosférica una distancia mayor durante las sucesivas reflexiones.

Asimismo, las comunicaciones en HF son muy sensibles a las variaciones de ionización en la ionosfera, que producen desvanecimientos repentinos. Este fenómeno se conoce con el nombre de fading. Asimismo, los receptores ubicados en núcleos urbanos son muy susceptibles de ser afectados por el ruido industrial, que igualmente puede dificultar las comunicaciones.

Propagación en las bandas de VHF y UHF

El fenómeno de propagación ionosférica no se produce en las bandas de VHF y UHF, ya que la MUF siempre está en valores de la propia banda de HF. De esta forma, las ondas electromagnéticas de VHF y UHF por un lado atraviesan la ionosfera y salen al espacio exterior, siendo de esta forma aptas para las comunicaciones vía satélite, y por otro lado se refractan dentro de una capa de la atmósfera llamada troposfera y que está comprendida desde el nivel de la superficie terrestre hasta unos 30 km de altitud. Este fenómeno se conoce como propagación troposférica.

La propagación troposférica hace que se posibilite el enlace entre estaciones que no están en línea de visión directa debido a la curvatura del radio terrestre.

Page 62: Introducción a Las Telecomunicaciones

62

Además de la refracción en la troposfera, existen otras dos modalidades de propagación que condicionan la propagación en estas bandas.

Difracción. El rango de longitudes de onda para estas bandas está comprendido entre los 10 m y los 0,1 m, lo cual hace que en el radiotrayecto exista una gran variedad de obstáculos de tamaño comparable al de la longitud de onda. En estos obstáculos se propuce el fenómeno de la difracción, que permite la comunicación entre estaciones sin línea de visión directa debida a obstáculos como montañas.

Propagación multitrayecto. Las ondas de VHF y UHF se reflejan en obstáculos como montañas y fachadas de edificios (ver figura). Al receptor llegará entonces un frente de ondas directo y uno o más reflejados y por tanto desfasados. La suma de todos ellos hace que la señal en el receptor sufra desvanecimientos rápidos, que suceden con mayor frecuencia si se está operando con estaciones móviles en movimiento.

Propagación multitrayecto

Finalmente, las ondas con frecuencia correspondiente a la parte superior de la banda de UHF pueden verse afectadas por la atenuación por lluvia, que en caso de intensidades de precipitación elevadas puede llegar incluso a cortar un radioenlace.

Datos de Propagación en las Diferentes Bandas

La propagación varía con las distintas frecuencias y además con la ionización de la atmósfera, la altura de las capas o nubes de Heaviside, y las horas del día y la noche y por ello a continuación se da una idea de las condiciones promedio para cada banda en nuestra zona sin que esto represente la respuesta real en todos los casos.

HF

Banda de 160 metros

Durante las horas diurnas es utilizable solo para distancias muy cortas. Durante la noche es posible realizar contactos en distancias entre 1500 y 2000 Km y en los casos de mínima actividad solar se logran grandes distancias. Es una banda con mucho nivel de ruido lo que dificulta los comunicados. Los máximos rendimientos se logran desde la puesta del sol hasta 30 minutos después a la noche y en la mañana desde 30 minutos antes y hasta su salida.

Banda de 80 Es una banda cuyo mayor rendimiento es durante las horas nocturnas pero durante

Page 63: Introducción a Las Telecomunicaciones

63

metros el día la reflexión en la Capa E permite comunicados hasta una distancia de 800 a 1000 Km. Durante los períodos de máxima actividad solar posee un elevado nivel de ruido y sus máximos rendimientos se logran durante una hora antes de la salida y otra hora luego de la puesta del Sol.

Banda de 40 metros

Durante las horas diurnas la reflexión el la Capa E permite comunicados hasta 2000 Km. Pero durante la noche su alcance es muy grande y podemos decir que toda estación que se encuentre en la zona noche puede contactar con otra en igual situación. Posee un elevado nivel de ruido durante los períodos de máxima actividad solar y su máximo rendimiento se encuentra durante una hora antes y después de la puesta del Sol

Banda de 20 metros

Es una banda que suele permanecer abierta durante las 24 horas y permite la comunicación a gran distancia por lo que es la banda ideal para las comunicaciones a todo el mundo. En los períodos de máxima actividad solar, la elevada ionización de las capas D y E produce fuertes atenuaciones y durante el verano permite comunicados a muy corta distancia pero lo normal es que su zona de silencio sea de 0 hasta 500 Km. Debe tenerse presente para esta banda que su mejor rendimiento es desde las 19 horas hasta las 9 horas del día siguiente por tener menos ionización las capas D y E, de esta manera, la señal se refleja en la Capa F lo que eleva su distancia de comunicación.

Banda de 15 metros

Es una banda claramente diurna y solo en los períodos de máxima actividad solar permanece abierta en las primeras horas de la noche. En los períodos de mínima actividad solar puede permanecer cerrada todo el día e incluso varios días y debe tenerse presente que su distancia de salto es de 1000 Km como mínimo.

Banda de 10 metros

Es una banda exclusivamente diurna y muy afectada por los ciclos solares ya que durante su máxima actividad permite comunicados a grandes distancias con suma facilidad; en cambio durante la mínima actividad suele permanecer cerrada completamente durante semanas. En condiciones normales de reflexión su distancia de salto es muy grande y puede escucharse perfectamente estaciones situadas a 4000 Km de distancia y no poder escuchar otras más próximas. Es una banda que casi roza la máxima frecuencia de reflexión por lo que exige el uso de antenas de muy bajo ángulo de radiación para lograr un máximo de rendimiento.

VHF

Banda de 6 metros

En esta banda se encuentran todos los tipos de propagación tanto las de HF como las de VHF y durante los ciclos de máxima actividad solar se logran comunicados de alcance mundial y es muy común el alcance transecuatorial por reflexión en la capa F. Además es una banda que permite la comunicación por reflexión meteorítica con una duración muy larga.

Banda de 2 metros

Es una banda de propagación troposférica por lo que su señal no refleja el las capas ionosféricas, salvo en casos de auroras o alteraciones elevadas del campo magnético frecuentes en verano que permiten enlaces hasta 3000 Km. Además permite comunicados por reflexión meteorítica de hasta 2000 Km pero solo por 20 ó 30 segundos. Es una banda donde sus mejores resultados se logran durante el verano.

UHF

Banda de 0.70 metros

En condiciones normales su alcance es ligeramente inferior a la banda de 2 metros pero al ser más elevada su frecuencia no aparecen ruidos producidos por el ingenio del hombre y por tanto sus señales son muy limpias. Su propagación es troposférica y algo mejor que la banda de 2 metros.

Frecuencia Crítica

Page 64: Introducción a Las Telecomunicaciones

64

La frecuencia crítica de la capa ionosférica es la frecuencia mas elevada que se refleja cuando la onda choca con la capa de incidencia vertical. Las frecuencias mas altas que la crítica atraviesan la capa. La frecuencia crítica de la capa mas intensamente ionizada puede ser tan baja como 2 MHz durante la noche y tan alta como 15 MHz al mediodía. La frecuencia crítica y la altura de las capas se miden por técnicas de impulsos. El impulso y su eco son observados en una pantalla de rayos catódicos. La frecuencia crítica es de interés para conocer los saltos necesarios para cubrir una distancia determinada. Cuanto más alta es la frecuencia crítica mayor será la ionización de las capas y mas alta será la máxima frecuencia utilizable.

Máxima Frecuencia Usable (MFU)

La MFU es la máxima frecuencia que puede utilizarse satisfactoriamente para realizar una comunicación en las bandas de radio, para una distancia dada, sin llegar a la frecuencia crítica. Aclarando que la frecuencia crítica es aquella por encima de la cual las ondas incidentes en las capas reflectoras de la atmósfera la atraviesan y no retornan a la superficie terrestre. Generalmente los enlaces se realizan mediante una onda incidente en forma oblicua con las capas ionosférica y a la cual en algunos casos se suma la onda terrestre y en otros se resta. Por lo expresado el rango de frecuencias varía en concordancia a la longitud del trayecto y la MFU se hace mas baja cuando mas corto es dicho trayecto y más estrecho es el rango de frecuencias permitido. Además la MFU es sumamente influenciada por los ciclos de manchas solares que la estrechan aún más en los períodos de menor actividad solar.

Frecuencia Máxima de Tráfico o Trabajo (FOT)

El límite superior recomendado de frecuencia para la máxima fiabilidad de comunicación se llama frecuencia óptima de trabajo y se elige algo inferior a la MUF para prever irregularidades ionosféricas, turbulencias así como desviaciones de los valores medios de la MUF y comúnmente se calcula un 15% por debajo de la misma.

Frecuencia Más Baja Utilizable (LUF)

La frecuencia mas baja utilizable es aquella en que se puede lograr la comunicación de modo satisfactorio, por un camino en particular y a una determinada hora. La LUF depende principalmente del ruido atmosférico y de los estáticos en el lugar de recepción para una determinada relación señal/ruido. En frecuencias inferiores a la LUF la recepción resulta imposible por la pérdida de nivel de ruido existente.

La LUF se puede controlar en cierto grado mediante el ajuste de la potencia efectiva radiada y del ancho de banda del circuito. En general la LUF se puede rebajar 2 MHz por cada 10 dB de aumento de la potencia radiada.

Consejos para la utilización de transceptores

La gran mayoría de antenas utilizadas en los sistemas de comunicaciones móviles son monopolos o versiones de monopolos mejoradas para optimizar su rendimiento. Como ya se ha indicado, un monopolo consiste en tomar una parte de un dipolo y dotarla de un plano de tierra mediante la instalación de radiales. No obstante, en muchos equipos no es factible la instalación de radiales en la antena por la incomodidad que supondría, como es el caso de las antenas de los transceptores portables o las instaladas en vehículos.

Como regla general, interesa disponer de un plano de tierra que sea buen conductor eléctrico. En caso de no disponer de un plano de este tipo, empeora la eficiencia de la antena, con lo cual se tiene menor potencia radiada, y a la vez se modifica el diagrama de radiación con un efecto de elevación de los lóbulos principales. Este hecho puede hacer, por ejemplo, que un monopolo radíe

Page 65: Introducción a Las Telecomunicaciones

65

potencia con una elevación superior a la normal, haciendo que la directividad en la dirección deseada sea inferior a la esperada. Así pues, siempre que sea posible interesará situar las antenas sobre planos con elevada conductividad: superficies metálicas como el techo de un vehículo, tierra húmeda como un jardín, etc.

En caso de dificultad en la transmisión/recepción usando un equipo portable, si apoyamos el equipo sobre el techo de un vehículo dispondremos de un plano de tierra muy conductivo que incrementará la eficiencia de la antena y facilitará la comunicación.

La antena debe disponer de un plano de tierra que sea buen conductor, de forma que se evite la radiación de potencia por la antena con una elevación superior a la esperada.

Del mismo modo, interesa que la superficie del plano conductor de tierra sea lo más extensa posible. El hecho de tener un plano de tierra finito hace que disminuya la resistencia de radiación de la antena y además que ésta llegue a radiar incluso por debajo del plano de tierra. De este forma, si instalamos una antena en el techo de un vehículo, deberemos tratar de ubicarla en el centro del mismo. Si la instalamos en un lateral el lóbulo de radiación de la antena hacia la parte opuesta al techo del vehículo se elevará y además tendremos radiación hacia el interior del vehículo, desaprovechando parte de la potencia radiada.

La antenas instaladas en el techo de los vehículos deberán montarse preferiblemente en el centro del mismo para minimizar el efecto de plano de tierra conductor finito sobre el diagrama de radiación de la antena.

Respecto a los transceptores portables, por comodidad no disponen de radiales en la antena y tendremos que considerar algunos factores importantes en lo que respecta a la radiación de estos equipos. Como se puede apreciar en la figura siguiente, el equipo portable no solamente radía a través de la antena (zona de color rojo): también existe una distribución de corrientes en la carcasa (zonas amarillas y verdes) que además pasan a la mano cuando el usuario utiliza el equipo. El resultado es que la propia carcasa del equipo y el brazo del usuario deforman el diagrama de radiación de la antena de una forma poco predecible. Por ello, se recomienda la utilización de antenas exteriores conectadas al equipo a través de una línea de transmisión siempre que sea posible.

Page 66: Introducción a Las Telecomunicaciones

66

Distribución de corrientes en un transceptor portable

Siempre que sea posible, se recomienda la utilización de antenas exteriores situadas sobre un plano de tierra conductor.

Cuando el usuario va a utilizar un transceptor portable para transmitir o recibir, normalmente lo acerca a su cabeza. La cabeza absorbe parte de la radiación haciendo que se radíe menos potencia en ese sentido, como se muestra en la figura 3.20, donde las zonas más amarillas y rojas indican mayor densidad de potencia, frente a las más azules y verdes. Las pérdidas en la dirección de máxima absorción pueden llegar a ser del orden de 1 dB a 5 dB. Del mismo modo, se recomienda evitar la utilización de los equipos sujetos con pinza a la cintura del usuario, ya que será todo el cuerpo el que absorba la radiación produciendo pérdidas de hasta 30 dB.

Page 67: Introducción a Las Telecomunicaciones

67

Influencia del cuerpo humano en las ondas de radio

Al utilizar un equipo portable situándolo cerca de la cabeza, orientar el mismo hacia la zona donde se situa el equipo que va a recibir la transmisión, ya que en dirección opuesta la cabeza absorbe parte de la radiación. No se recomienda la utilización de los equipos portables sujetos con pinza a la cintura del usuario debido a las elevadas pérdidas por absorción que introduce el cuerpo.

Finalmente, es necesario considerar la polarización utilizada en el sistema. La gran mayoría de sistemas de radiocomunicaciones móviles utilizan polarización vertical, por lo que todas las antenas deberán instalarse verticalmente, es decir, perpendiculares al plano de tierra. Este es un factor especialmente importante al utilizar equipos portables, ya que inconscientemente se tiende a inclinar el equipo, con lo que pueden aparecer pérdidas por desacoplo de polarización de hasta 9 dB, como puede suceder al usuario de la figura 3.21.

Page 68: Introducción a Las Telecomunicaciones

68

Pérdidas por desacoplo de polarización

En sistemas con polarización vertical, las antenas deberán operar de forma totalmente perpendicular al plano de tierra para evitar pérdidas por desacoplo de polarización. Evitar usar los transceptores portables en una posición inclinada y tratar de mantenerlos en una posición lo más vertical posible.

Sistemas de comunicaciones por radio

A continuación se ofrece una breve descripción de los sistemas de radiocomunicación más frecuentemente utilizados en la actualidad.

Redes Privadas Móviles (PMR)

La radiotelefonía móvil privada o PMR (Private Mobile Radio) permite la intercomunicación de un grupo cerrado de usuarios sin necesidad de acceder a redes de telecomunicación públicas. El servicio se concibe para comunicaciones de corta duración, lo que permite acomodar un mayor número de usuarios en una determinada frecuencia. Este tipo de sistema se utiliza profusamente tanto por servicios públicos (Protección Civil, ambulancias, policía, bomberos) como privados (compañías de radio-taxi, flotas de autobuses, etc).

Este tipo de redes se despliegan en las bandas de VHF y UHF, dando cobertura a una zona de ámbito metropolitano o provincial.

La arquitectura más común consiste en la utilización de un reemisor con modo de explotación semidúplex, tal y como se muestra en la figura.

Red Privada Móvil (PMR)

En la red pueden distinguirse cuatro tipos de elementos:

Page 69: Introducción a Las Telecomunicaciones

69

Estaciones base. Operan desde un emplazamiento fijo, normalmente la oficina desde la que se controla la red, con potencias de transmisión típicas de 50W. La alimentación se toma de la red de suministro eléctrico y suelen disponer de suministro alternativo por medio de grupos electrógenos y/o baterías.

Estaciones portables. Transceptores personales tipo "walkie-talkie", muy compactos y con potencias de transmisión de hasta 5W. Se alimentan con una batería recargable incorporada.

Estaciones móviles. Instaladas en vehículos, tienen potencias de transmisión de hasta 50W en VHF y 35W en UHF. Se alimentan de la propia batería del vehículo.

Repetidores o reemisores. Enlazan al resto de elementos de la red y se ubican en zonas con cobertura radioeléctrica privilegiada. Tienen una potencia de transmisión típica de 25W y suelen contar con sistemas de alimentación alternativa como baterías o paneles solares.

En el modo de explotación semidúplex, se utilizan dos frecuencias de forma no simultánea, es decir, mientras un equipo está transmitiendo los demás solamente pueden permanecer a la escucha, como se muestra en la figura siguiente.

Modo de explotación semidúplex

Para acceder al canal puede utilizarse un sistema de señalización mediante tonos continuos analógicos (CTCSS) o digitales (DCS). Estos tonos se transmiten de forma continua por el canal fuera del espectro frecuencial audible por el usuario, y permiten la creación de grupos cerrados de usuarios dentro de la malla.

El reemisor es un elemento que trabaja recibiendo y transmitiendo a la vez en dos frecuencias distintas, corriendo por tanto el riesgo de generar una interferencia entre el canal transmisor y el receptor. Para evitar este problema, incorpora un sistema de filtrado paso banda de elevadas prestaciones capaz de aislar las señales de las frecuencias de transmisión y recepción. El equipo que realiza el filtrado se denomina cavidad y para realizar un filtrado más preciso suele instalarse más de una, como se muestra en la figura.

Page 70: Introducción a Las Telecomunicaciones

70

Cavidades utilizadas en un reemisor de VHF

En la figura siguiente se muestra la respuesta frecuencial típica de un sistema de cavidades, en el que se aprecia que el aislamiento entre las señales de las dos frecuencias puede llegar a ser del orden de 40 dB.

Respuesta frecuencial típica de unas cavidades de VHF

Redes Troncales (trunking)

Las redes troncales o trunking resultan de la evolución de los sistemas tradicionales PMR y pueden considerarse sistemas de comunicaciones móviles de primera generación. Las redes troncales analógicas presentan las siguientes características:

Modulación analógica FM. Bandas de operación: VHF y UHF. Independencia en la gestión, dada su condición de sistemas privados de comunicaciones

móviles.

Page 71: Introducción a Las Telecomunicaciones

71

Posibilidad de realizar comunicaciones de grupo cerrado: flotas, subflotas, grupos cerrados de usuarios, etc.

Costes de instalación menores que los sistemas celulares, aunque bastante superiores a los de las PMR.

Realización de llamadas con distintos niveles de prioridad: ordinario, emergencia, etc. Alta fiabilidad en las comunicaciones, dado que pueden mantener las funciones básicas de

un sistema convencional en caso de fallo (modo fall-back). Sistema de gestión de llamadas con retención de las mismas en caso de líneas ocupadas

y diferentes posibilidades de establecimiento del grado de servicio, máximos tiempos de espera y limitación de la duración de las comunicaciones.

Alto nivel de flexibilidad en la gestión que permite elevados niveles de particularización del servicio a las necesidades del usuario.

Posibilidad de enviar mensajes informativos, de poco tamaño. Posibilidad de localizar a los usuarios si éstos incorporan un GPS a sus terminales.

La arquitectura típica de un sistema de trunking analógico se muestra en la figura siguiente.

Arquitectura de una red de radio troncal

Los elementos principales de la red son:

CCR (Centro de Control de Red). Es el núcleo de gestión de la red e incorpora sistemas informáticos redundados para el control de llamadas y para operación y mantenimiento (O&M). Incorpora también un puesto para el control o despacho de los recursos de la malla. Interconecta la red trunking a centralitas telefónicas privadas e incluso a la propia Red Telefónica Básica (RTB).

EM (estaciones móviles). Se trata de los usuarios finales a los que se ofrece servicio. ERB (estaciones radio base). A través de ellas se lleva a cabo toda la comunicación por

radio, usando modo de explotación semidúplex o dúplex. Las ERB incorporan funciones de control remoto y de alarma de fallo, así como de inteligencia de red para la asignación de recursos desde el Centro de Control de Red. En caso de fallo del canal de comunicación ERB-CCR, la ERB puede seguir dando servicio a las EM de su zona. Puede disponer de varios radiocanales en función del número de transceptores que tenga instalados.

La mayoría de las redes troncales digitales instaladas en España siguen la normativa británica MPT-13XX, que se ha convertido en un estándar de facto a nivel europeo, siendo la más comúnmente utilizada la norma MPT-1327 que presenta las siguientes funcionalidades:

Llamadas de voz unicast (punto a punto) y multicast (punto a multipunto), con prioridades diversas.

Llamadas de datos: mensajes cortos y de status.

Page 72: Introducción a Las Telecomunicaciones

72

Llamadas de emergencia, liberando un canal que esté ocupando recursos en caso de que no existan canales libres.

Inclusión de llamadas: durante una llamada se permite la posibilidad de que otros terminales se unan a la comunicación, formándose una multiconferencia.

La segunda generación de sistemas troncales, ya totalmente digital, se inicia en Europa con el desarrollo del estándar TETRA (Terrestrial Trunked Radio). En el plano tecnológico se trata de un sistema muy parecido al GSM, aunque con funcionalidades avanzadas como la asignación dinámica de grupos, la provisión de canal abierto para todos los usuarios, cola de espera para llamadas no atendida y limitación en la duración de la llamada. Está diseñado para operar en la banda de UHF utilizando modulación digital y cifrado, lo cual garantiza la privacidad y seguridad en las comunicaciones.

En España el sistema TETRA ha sido adoptado por las Fuerzas y Cuerpos de Seguridad del Estado mediante la implementación de la red SIRDEE (Sistema de Radiocomunicaciones de Emergencia del Estado).

Telefonía Móvil

Los orígenes de la telefonía móvil datan de mediados de la década de los 60 con el sistema norteamericano IMTS (Improved Mobile Telephone System), que icluía los servicios de trunking o encaminamiento automático de la llamada, bidireccionalidad (full-duplex) y marcación directa. Este sistema original se fue mejorando con el paso de los años hasta dar paso a los modernos sistemas celulares, cuyo esquema básico se muestra en la figura:

Esquema de un sistema de telefonía móvil celular

En un sistema celular existen una serie de puntos de acceso a la red denominados estaciones base (BTS, Base Transceiver Station), que dan cobertura a un área geográfica limitada que se conoce como célula. El servicio de telefonía se ofrece de forma inalámbrica a los usuarios finales o estaciones móviles (MS, Mobile Station).

Las estaciones base se conectan a centros de conmutación que permiten el establecimiento de llamadas entre las estaciones móviles y entre éstas y la Red Telefónica Básica alámbrica tradicional.

Page 73: Introducción a Las Telecomunicaciones

73

La utilización de estaciones base de pequeña cobertura en lugar una única estación con gran rango de cobertura, como era típico de los sistemas de comunicaciones móviles en la década de los 50, permite la utilización de un gran número de canales con distinta frecuencia para cada estación base, incrementando de esta forma el número de usuarios o abonados que pueden utilizar la red en un mismo intervalo de tiempo. Este concepto se conoce como reutilización frecuencial.

La propia estructura celular y el hecho de que los usuarios finales sean móviles, presenta el problema intrínseco de que no todas las llamadas pueden ser completadas dentro de una misma célula: cuando una estación móvil pasa de la zona de cobertura de su célula a la de otra célula adyacente, es necesario realizar la transferencia a un radiocanal libre de la nueva célula sin que se produzca pérdida del servicio. Este proceso se denomina handover o traspaso de célula, y se realiza de forma transparente al usuario.

En resumen, los principios básicos de la arquitectura celular utilizada en los modernos sistemas de telefonía móvil son:

Utilización de transmisores de baja potencia, que cubren zonas geográficamente pequeñas.

Reutilización de frecuencias entre células distintas. Handover o traspaso de célula, transfiriendo la llamada a medida que un móvil se desplaza

de una célula a otra.

Ya a principios de la década de los 80 apareció el primer sistema celular operativo en los Estados Unidos, denominado AMPS (Advanced Mobile Phone Service) operando en la banda de 800 MHz. Paralelamente, se desarrollaron los sistemas NMT-450 y NMT-900 en los países nórdicos y el sistema TACS (Total Access Communication System) en Gran Bretaña. Todos ellos se agrupan con el nombre de telefonía móvil de primera generación o telefonía móvil analógica.

En líneas generales, todos estos sistemas eran similares pero incompatibles entre sí. Como consecuencia, no existía la posibilidad de establecer ni recibir llamadas cuando el abonado se encontraba en un país diferente, proceso que se conoce como roaming internacional.

En España, el primer servicio de telefonía móvil apareció en 1976 con el sistema TVA (Telefonía Automática de Vehículos), con una capacidad de abonados muy reducida y operando solamente en las ciudades de Madrid y Barcelona. Posteriormente se introducirían el sistema nórdico NMT-450 en la banda de 450 MHz y el TACS británico en la banda de 900 MHz.

Otro inconveniente de estos sistemas antiguos era el tipo de modulación utilizada en los canales de tráfico, FM con un ancho de banda de 25 kHz, lo cual hacía que las comunicaciones fuesen fácilmente interceptables y por tanto inseguras.

Todos estos problemas, unidos a la pobre eficiencia espectral del sistema, que hacía que las frecuencias disponibles se agotaran rápidamente conforme incrementaba el número de usuarios, impulsaron a la realización de un diseño de red móvil digital en el añó 1982, del que se encargó el grupo GSM (Groupe Speciale Mobile) del CEPT. Sus objetivos fueron:

Disponer de un sistema celular europeo compatible entre todos los países que integraban el CEPT.

Incrementar la capacidad celular disponible. Aprovechar las ventajas ofrecidas por la disponibilidad de nuevas tecnologías en el campo

de la electrónica.

Page 74: Introducción a Las Telecomunicaciones

74

El sistema resultante se denominó GSM (Global System for Mobile) o telefonía móvil de segunda generación, realizándose las primeras homologaciones y despliegues de red en 1992. Paralelamente, en Estados Unidos y Japón se desarrollaron sistemas similares (ADC y JDC), siendo todos ellos incompatibles entre sí.

Las modernas técnicas de modulación digital usadas en el GSM permiten que en un único radiocanal de 200 kHz puedan operar hasta 8 usuarios simultáneamente sin interferencias, ofreciendo las siguientes facilidades:

Roaming internacional o posibilidad de usar el servicio en todos los países europeos del CEPT.

Transmisión de datos: sistema de mensajes cortos (SMS, Short Message System), conexión por módem hasta 9600 bps y envío y recepción de fax.

Acceso a Internet mediante el protocolo WAP (Wireless Access Protocol). Transmisión segura, ya que se utiliza un esquema de modulación digital con cifrado de la

información. Asimismo, cada estación móvil dispone de un número de identificación único (IMEI) y cada abonado a través de su tarjeta de usuario (SIM) dispone también de su propia identificación a través del número IMSI, siendo la suplantación de ambos prácticamente imposible.

La arquitectura del sistema GSM, que opera en las bandas de 900 MHz y 1800 MHz, se muestra en la figura siguiente:

Arquitectura del sistema GSM

Los elementos más importantes del sistema son:

MS (Mobile Station) o estación móvil. Se trata del terminal telefónico utilizado por los usuarios o abonados.

BTS (Base Transceiver Station) o estación base. Dispone de uno o varios transceptores (TRX) para dar cobertura a una célula.

Page 75: Introducción a Las Telecomunicaciones

75

BSC (Base Station Controller) o controladora de estaciones base. Se trata de una central de conmutación de ámbito regional, capaz de controlar el encaminamiento y establecimiento de llamadas entre un conjunto de BTS que tiene adscritas.

MSC (Main Station Controller) o central de conmutación principal. Es el conmutador más alto de la jerarquía, capaz de controlar a varias BSC y de encaminar las llamadas entre las estaciones móviles de todas ellas. Asimismo, interconecta a la red móvil con la Red Telefónica Básica. También incorpora una base de datos que registra la posición de cada usuario en cada instante.

Podemos distinguir entre varios tipos de estaciones base en función del grado de cobertura que son capaces de ofrecer. Así, en entornos rurales interesa disponer de células de gran cobertura y reducido número de canales, ya que el número de abonados será escaso. Por el contrario, en las grandes ciudades será necesario incluso dividir una célula en tres sectores con canales de frecuencias distintas para poder dar servicio a un número elevado de abonados. Este concepto se muestra en la figura siguiente.

Tipos de células GSM

Distinguiremos entonces entre tres tipos de células:

Macrocélulas rurales, con cobertura omnidireccional en un radio que puede llegar hasta los 30 km en función de la orografía. Como puede apreciarse en la figura 3.30, utilizan tres antenas omnidireccionales: la central transmite y las dos de los laterales reciben. En recepción se utilizan dos antenas para minimizar el efecto de la propagación multicamino.

Page 76: Introducción a Las Telecomunicaciones

76

Macrocélula GSM

Microcélulas urbanas. La cobertura en la célula se divide en tres sectores (trisectorización), lo cual permite la utilización de un mayor número de radiocanales y por tanto eleva el número de usuarios. El radio de cobertura de cada célula es mucho menor, del orden de 4 a 5 km. En cada sector se utilizan tres antenas cuya funcionalidad es la misma que en el caso de las macrocélulas, como puede verse en la figura siguiente.

Microcélula GSM

Picocélulas. Se instalan en ubicaciones en las que se requiere un número adicional de canales o bien en puntos donde la cobertura de las microcélulas se hace dificil, como puede ser el caso de interiores (aeropuertos, estaciones de tren, etc). El alcance es muy limitado, del orden de las centenas de metros.

Page 77: Introducción a Las Telecomunicaciones

77

Picocélula GSM

En un radiocanal físico viajan gran cantidad de canales lógicos que sirven al sistema para controlar diversos parámetros como la calidad de la llamada y la señalización. Para el usuario final resultan de interés los siguientes:

TCH (Traffic Channel). Es el canal donde se produce la conversación telefónica. Cada vez que se intenta establecer o recibir una llamada desde la estación móvil, la estación base ha de asignar un canal de tráfico libre a la estación móvil para que la llamada quede establecida.

BCCH (Broadcasting Control Channel). Es un canal unidireccional broadcast a través del cual la estación base emite continuamente información para las estaciones móviles de su célula. Las estaciones móviles miden la cobertura analizando la señal que les llega por este canal. Si no se recibe señal de ningún BCCH de las estaciones base cercanas, la estación móvil queda fuera de cobertura.

En ocasiones podemos tener cobertura en la estación móvil (se recibe señal de la estación base por el BCCH), pero seremos incapaces de realizar o recibir llamadas si a la estación base no le quedan canales de tráfico libres. Este fenómeno se conoce como saturación en la estación base.

Respecto a la utilización del GSM en operativos de Protección Civil, conviene tener en cuenta algunas vulnerabilidades del sistema.

Como ya se ha indicado, el número de canales de tráfico es limitado en cada estación base, por lo que la concurrencia de un número elevado de usuarios en un área geográfica limitada, caso bastante típico en una emergencia, puede hacer que la estación base de la zona entre en saturación rápidamente resultando imposible la asignación de nuevos canales de tráfico. A este respecto, resulta significativo el hecho de que en épocas estivales las compañías de telefonía móvil suelen migrar transceptores de las estaciones base con utilización menor (ciudades) hacia zonas turísticas donde se espera un mayor número de usuarios.

La avería de un transceptor en una estación base, o su mantenimiento, pueden hacer que los terminales móviles dejen de tener cobertura en un instante dado en un lugar en el que habitualmente sí existe cobertura.

Finalmente, pueden producirse averías mayores en elementos clave de la red, como centrales MSC o señalizadores, dejando sin servicio a zonas geográficas muy extensas. Este tipo de es posible aunque poco probable.

Page 78: Introducción a Las Telecomunicaciones

78

La evolución de los sistemas de telefonía móvil está plenamente orientada hacia la conexión a Internet a alta velocidad y a la transmisión de multimedia (video, música, etc). El estándar futuro se denomina UMTS (Universal Mobile Telecommunications System) o telefonía móvil de tercera generación y ofrecerá transmisión de datos multimedia a tasas de hasta 2 Mbps.

Actualmente existe en el mercado un desarrollo intermedio denominado GPRS (General Packet Radio System), basado en el GSM tradicional pero incorporando una dirección IP en el terminal móvil para que el usuario disponga de un acceso total a Internet con una tasa de transmisión de hasta 21 kbps, superior a los 9600 bps del GSM.

Radiobúsqueda

Este servicio, comúnmente conocido como "buscapersonas" o por el término inglés "paging", ofrece la posibilidad de transmitir mensajes y alertas unidireccionalmente vía radio, facilitando la recepción de mensajes enviados a través de la red telefónica de forma automática y sin necesidad de operadora.

Su finalidad es dotar al usuario de un sistema de comunicación alternativo cuando no exista para éste la posibilidad de establecer una comunicación telefónica en directo. Hasta la aparición de la telefonía móvil, la radiobúsqueda se empleaba masivamente tanto en servicios privados como para el gran público.

La práctica totalidad de los servicios de radiobúsqueda operan en las bandas de VHF y UHF, utilizando modulaciones digitales, y su cobertura puede ser limitada (un hospital, una fábrica), metropolitana o nacional.

En el servicio de radiobúsqueda existen diversas modalidades:

Modalidad de aviso. Cuando se efectúa una llamada, el usuario recibe una indicación acústica, visual o vibratoria. El significado de la indicación, previamente acordado, depende del usuario. Normalmente el receptor dispone de hasta cuatro códigos distintos, siendo lo más normal que el aviso sea indicativo de la necesidad de establecer una comunicación telefónica urgente.

Modalidad numérica. En esta modalidad, además del código de dirección se transmite un mensaje numérico. El terminal receptor recibe el mensaje y lo presenta en un visualizador numérico de pantalla de cristal líquido (LCD), de manera que el usuario receptor del mensaje pueda identificar el número de teléfono origen del mensaje o cualquier otro mensaje codificado. La longitud máxima del mensaje es de hasta 20 dígitos, pudiéndose enviar de forma automática si se dispone de un teléfono multifrecuencia.

Modalidad alfanumérica. Similar a la modalidad numérica, admite mensajes alfanuméricos (dígitos y caracteres) de una longitud máxima de hasta 80 caracteres. El envío se puede realizar a través de operadora, de un teléfono multifrecuencia o incluso desde un ordenador personal.

Modalidad de mensajes vocales. Similar a los dos anteriores, ofrece la posibilidad de enviar mensajes hablados con una duración máxima de entre 20 a 30 segundos. El envío se puede realizar automáticamente desde cualquier terminal telefónico.

Técnicamente, los servicios de radiobúsqueda suelen ofrecer las siguientes facilidades:

Numeración de mensajes. Los mensajes alfanuméricos aparecen numerados, de forma que se puede saber si se ha dejado de recibir alguno.

Envío diferido. Se envía hoy el mensaje para que lo reciban en un día y hora determinados. Reenvío de mensajes. Permite recibir de nuevo los últimos 10 mensajes.

Page 79: Introducción a Las Telecomunicaciones

79

Envío multidestino. Permite enviar el mismo mensaje a varios destinatarios simultáneamente.

Buzón de notas. Permite avisar a las personas que intentan enviar un mensaje de su imposibilidad de atenderlos por encontrarse fuera de cobertura, de vacaciones, etc.

Listado de mansajes por fax. Cada usuario puede recibir periódicamente un listado por fax de todos los mensajes transmitidos a su terminal, con indicación de la fecha, hora y texto enviado.

Ante el auge que toman estos servicios y aún a pesar de la seria competencia que supone para ellos la aparición de la telefonía móvil, se encuentra en fase de desarrollo un sistema europeo de radiobúsqueda conocido como ERMES (Enhanced Radio Message System).

GMDSS y Servicio Móvil Marítimo

Dentro del ámbito de las comunicaciones marítimas, haremos referencia a las comunicaciones de emergencia, describiendo el sistema GMDSS (Global Maritime Distress and Safety System), de reciente creación, y a las comunicaciones compatibles con la telefonía tradicional a través del Servicio Móvil Marítimo.

El fundamento del Sistema Global Marítimo de Seguridad y Desastres (GMDSS) es crear una malla de alerta rápida entre un navío que afronta una emergencia, las autoridades costeras de búsqueda y rescate (SAR) y todos los navíos que se encuentren en la zona donde se está produciendo la emergencia. El sistema también proporciona la capacidad de transmitir comunicados urgentes y de seguridad marítima.

En el sistema GMDSS se definen varias áreas de cobertura, en cada una de las cuales se emplean diferentes medios de radiocomunicación:

Área A1: dentro de la cobertura en banda VHF de las estaciones marítimas costeras. Área A2: fuera del área A1, pero dentro de la cobertura en banda MF de las estaciones

marítimas costeras. Área A3: fuera de las áreas A1 y A2, pero dentro de la cobertura de algún satélite de

comunicaciones INMARSAT.

Asimismo, cualquier embarcación de salvamento puede emitir una señal de emergencia usando una baliza SARSAT-COSPAS, que transmite su posición a las estaciones costeras usando una señal vía satélite.

En la figura se muestra un ejemplo de utilización del GMDSS durante una emergencia:Tras producirse la emergencia, la embarcación siniestrada activa su baliza SARSAT-COSPAS transmitiendo su posición a la estación de seguridad marítima más cercana. Ésta activa a su grupo de búsqueda y salvamento y además avisa a las embarcaciones que se encuentren próximas al lugar del siniestro, coordinándolas a través de sus redes de VHF, MF y satélite INMARSAT.

Page 80: Introducción a Las Telecomunicaciones

80

Funcionamiento del sistema de seguridad marítima GMDSS

El Servicio Móvil Marítimo permite las comunicaciones entre los usuarios de la Red Telefónica Básica (RTB) y personas embarcadas a bordo de buques. En España, el servicio es ofrecido por Telefónica de España, que cuenta con una red de estaciones costeras en VHF de corto alcance (80 km) y de media (400 km) y larga distancia (>400 km) en HF.

El nodo central para las emisiones a larga distancia tiene cobertura mundial y está ubicado en Madrid, de forma que se evita la zona de sombra del primer salto en la comunicación ionosférica.

Las estaciones costeras se conectan por áreas de localización geográfica a diversos centros de control, cuya función es efectuar la integración de señales procedentes de las estaciones costeras en la Red Telefónica Básica. La integración radio-hilo se efectúa en las propias estaciones costeras.

Servicio Móvil Aeronáutico

El servicio móvil aeronáutico engloba las comunicaciones entre aeronaves, y entre éstas y tierra. Las aplicaciones de utilización han aumentado sus posibilidades en los últimos años, pudiendo resumirse en cuatro grandes grupos:

Seguridad. Comunicaciones para seguridad en el vuelo, que proporcionan información de interés para las tripulaciones de las aeronaves: ATC (Air Traffic Control, Control de Tráfico Aéreo), LDOC (Long Distance Operational Control), información meteorológica (VOLMET), etc.

Correspondencia oficial. Dedicado a proporcionar correspondencia de organismos oficiales, fundamentalmente AENA (Aeropuertos Españoles y Navegación Aérea) y Ejército del Aire.

Correspondencia restringida. Comunicaciones privadas para el control de la aeronave, fundamentalmente por parte de las propias compañías aéreas.

Correspondencia pública. Comunicaciones telefónicas o de transmisión de datos entre los pasajeros de la aeronave y tierra.

Page 81: Introducción a Las Telecomunicaciones

81

Hasta el año 1985, con la creación de la organización INMARSAT, no aparecen los primeros sistemas de comunicaciones aeronáuticas, limitándose hasta dicha fecha las comunicaciones con aeronaves en vuelo a las propias de radionavegación.

Posteriormente, en 1989, aparecen los primeros sistemas de correspondencia pública con aeronaves en EE.UU. y Japón, haciendo posible el envío y/o recepción de tráfico telefónico y de datos desde plataformas aéreas.

En 1991 entra en servicio el sistema INMARSAT-Aéreo, pensado exclusivamente para comunicaciones aeronáuticas.

Finalmente, en 1994 entra en servicio el primer sistema europeo de correspondencia pública con aeronaves (TFTS, Terrestrial Flight Telephone System). En una red TFTS se distinguen tres tipos de elementos:

Estaciones terrestres. Se denominan GS (Ground Station) y proporcionan un radioenlace entre tierra y la aeronave en movimiento. En función de su alcance se distingue entre AGS (para dar cobertura en un aeropuerto), IGS (cobertura en un radio de 8 km) y EGS (cobertura en un radio de 350 km).

Estaciones controladoras en tierra. Se denominan GSC (Ground Station Controller) y su finalidad es establecer un mallado entre las GS y a la vez hacer de encaminadoras de las comunicaciones desde/hacia la red telefónica básica.

Estaciones de aeronave. Se denominan AS (Aircraft Station) y van embarcadas en la propia aeronave. También se prevé el acceso de los usuarios desde las aeronaves a través de satélites INMARSAT.

Comunicaciones vía satélite

La Unión Internacional de Telecomunicaciones (UIT) define el SERVICIO ESPACIAL a través de una reglamentación actualizada en las Conferencias Administrativas Mundiales de Radiocomunicaciones (CAMAR o WARC, World Administrative Radio Conferences). En esta reglamentación se definen, entre otras cosas, las bandas de frecuencias y las posiciones orbitales.

Los circuitos vía satélite se caracterizan por su elevada calidad y estabilidad y su capacidad para enlazar grandes distancias. a cobertura máxima de un satélite geoestacionario es de 1/3 de la superficie terrestre.

El satélite es una solución cara por diversos motivos:

Hay que usar dispositivos de alta fiabilidad, con redundancia, ya que existe dificultad en hacer reparaciones.

Los equipos están expuestos a un alto nivel de radiación y a un gradiente de temperatura considerable. Como no hay convección, no hay disipación.

La vida útil de los satélites es limitada, debido en parte a que el combustible a bordo es limitado (mayor precio a mayor peso).

La puesta en órbita incrementa mucho el coste, que es función lineal del peso: el coste total de puesta en órbita de un satélite se reparte aproximadamente a partes iguales entre el coste del lanzamiento y el coste del propio satélite, resultando ser de de unos 54.000 euros por kg.

No obstante, en diversas situaciones el satélite resulta una solución ventajosa. A veces el satélite es una solución complementaria a redes terrestres ya existentes (por ejemplo, el sistema de telefonóa móvil por satélite Iridium complementa a las redes GSM terrestres). En lo referente a la

Page 82: Introducción a Las Telecomunicaciones

82

cobertura, es necesario considerar además que si el ángulo de elevación es pequeño, el satélite puede no ser apto en entornos urbanos.

En un sistema de comunicaciones vía satélite convencional, sin procesado a bordo, las funciones básicas son:

RECEPCIÓN (Banda 1) + AMPLIFICACIÓN + RETRANSMISIÓN (Banda 2)

Los sistemas que forman parte de cualquier enlace de comunicaciones vía satélite se dividen en dos segmentos, como se aprecia en la figura 3.34: el segmento espacial y el segmento terreno.

El segmento espacial está formado por el satélite y la estación del control. El resto de sistemas terrestres forman el segmento terreno. Existe un compromiso entre los tamaños de antena utilizados en ambos segmentos, debido a las elevadas pérdidas de propagación (si reducimos el tamaño de una antena casi seguro que tendremos que aumentar el de la otra). El enlace ascendente (uplink) y el descendente (downlink) utilizan frecuencias separadas.

Esquema de una red de comunicaciones vía satélite

Como se requiere una elevada fiabilidad, se divide el ancho de banda de trabajo en varios segmentos que serán tratados y amplificados por separado por los correspondientes subsistemas del satélite, denominados transpondedores (régimen monoportadora). Así, al tener varios transpondedores se dispone de redundancia en caso de fallos, proporcionando una elevada fiabilidad al sistema.

Las órbitas terrestres pueden clasificarse por su altitud, según se indica en la figura 3.35. En la medida de lo posible se ha de evitar pasar por los "Cinturones de Van Allen", de forma toroidal y con gran densidad de partículas ionizadas de alto nivel de radiación, lo cual da lo que podríamos llamar alturas de órbita prohibidas.:

Clasificación de las órbitas terrestres para satélites artificiales

Page 83: Introducción a Las Telecomunicaciones

83

Existe otro tipo: las órbitas no terrestres, como es el caso de la heliosíncrona: órbita alrededor del Sol pero con giro síncrono con la Tierra.

Por otro lado, según su forma, podemos clasificar las órbitas en elípticas (HEO, Helliptical Earth Orbit) y circulares, que son un caso particular de las elípticas.

Entre las ventajas de las órbitas bajas (LEO), podemos citar:

Al ser de baja altura y usarlas satélites pequeños, el lanzamiento es fácil y el coste mínimo. La atenuación por propagación en espacio libre es pequeña. Los retardos de propagación son pequeños.

Las desventajas principales de las LEO son:

Pequeña cobertura. Hace falta una constelación con muchos satélites para cubrir grandes extensiones.

El satélite tendrá velocidad relativa respecto a un punto fijo de la superficie terrestre. Esto hace que pueda ser necesario un seguimiento del satélite por parte de la estación terrestre, y además aparece el efecto Doppler.

Los usos más característicos de estas órbitas son los servicios de comunicaciones móviles por satélite (IRIDIUM, con 66 satélites), los de radiodeterminación (constelación NAVSTAR GPS) y las estaciones espaciales (MIR, ISS).

Respecto a las órbitas medias (MEO), suelen ser circulares. Al ser más altas que las LEO, la cobertura de cada satélite es mayor y por tanto se necesitan menos satélites para cubrir un área determinada, con el inconveniente de tener mayor atenuación por propagación en el espacio libre.

Finalmente, hablaremos de la órbita geoestacionaria (GEO). Se trata de una única órbita ecuatorial, situada a una altura de 36.184 km sobre la superficie terrestre. Al estar situada a esta altura, se consigue que el satélite gire síncronamente con la Tierra (dándole además el mismo sentido de rotación, claro está).

Proporciona una cobertura de aproximadamente 1/3 de la superficie terrestre, lo que la hace apropiada para enlaces fijos y de radiodifusión. La principal desventaja es que está muy lejos de la Tierra y por tanto se producen elevadas pérdidas por propagación en espacio libre, lo cual hace que se necesiten ganancias de antena muy grandes tanto en el satélite como en la estación terrena.

La latitud donde se situa el satélite dentro de la órbita geoestacionaria se ha de corresponder con la latitud de la zona geográfica de la Tierra a la que se quiere dar cobertura. Esto supone un problema añadido en zonas de alta densidad de servicio, como Europa. Por ejemplo, el HISPASAT está situado a una latitud 30ºW para dar cobertura a España y Sudamérica.

Un ejemplo de sistema de comunicaciones por satélite con aplicación para la Protección Civil es la red Inmarsat (International Maritime Satellite Organization), creada en 1979 con el objetivo de mejorar las comunicaciones entre barcos y entre barco y tierra. La red se explota a modo de cooperativa y cuenta con un total de 79 países miembros. Proporciona servicios de telefonía y transmisión de datos y forma parte del sistema GMDSS del que ya hemos hablado, utilizando satélites como el que se muestra en la figura siguiente.

Page 84: Introducción a Las Telecomunicaciones

84

Satélite INMARSAT

En la actualidad están teniendo bastante profusión las llamadas redes VSAT (Very Small Aperture Terminal), en las que las estaciones del segmento terreno precisan de antenas de tamaño no muy elevado. Un ejemplo es la red Recosat de la Dirección General de Protección Civil, que consta de una estación central en la Dirección General y otras 52 estaciones terrenas en cada una de las Subdelegaciones del Gobierno de la Administración General del Estado. Proporciona servicios de voz, fax, videoconferencia y transmisión de datos entre los distintos Centros, así como servicios IP e interconexión con la Red Telefónica Básica.

Sistemas de Radionavegación

Una importante aunque poco conocida aplicación de los sistemas de radiocomunicaciones son las ayudas a la navegación.

Los sistemas de radionavegación propiamente dichos tuvieron su desarrollo más espectacular durante la Segunda Guerra Mundial, mediante el uso de transmisores terrestres que proporcionaban una fiabilidad razonable pero con áreas de cobertura limitadas. Los sistemas de radionavegación terrestres de mayor éxito han sido el Decca, el Omega y el Loran.

En los años más recientes, los científicos han decidido desplazar los transmisores de radionavegación al espacio exterior, mediante el uso de satélites, aún a pesar del elevado coste que ésto supone: la construcción de un satélite de radionavegación y su puesta en órbita se cifra en unos 80 millones de dólares.

Los sistemas de radionavegación utilizados en la actualidad están orientados a facilitar la posición de una estación terrestre respecto a un sistema de coordenadas, siendo el ejemplo más claro el GPS (Global Positioning System), desarrollado desde 1973, y a facilitar la navegación de una nave o aeronave a través de una ruta (sistemas VOR/TACAN e ILS usados en navegación por aerovías y en aproximación a pistas de aterrizaje, respectivamente).

Page 85: Introducción a Las Telecomunicaciones

85

El sistema NAVSTAR GPS emplea satélites orbitales situados a 11.000 millas naúticas sobre la Tierra, proporcionando señales de navegación contínuas, precisas y fiables a multitud de usuarios de todo el mundo. El mantenimiento corre a cargo del Departamento de Defensa de los EE.UU., pero las señales están disponibles gratuitamente para cualquier clase de usuarios civiles. Actualmente forman parte del sistema una constelación de 28 satélites operativos y sus correspondientes estaciones terrestres. La precisión del sistema es del orden de las decenas de metros en función del número de satélites recibidos, pudiendo ser del orden de metros en caso de utilizar correcciones diferenciales.

Transmisión de datos por radio

Habitualmente la transmisión de datos por radio se realiza a través de redes de propósito específico. Aquí vamos a incidir en la posibilidad de transmitir datos reutilizando para tal fin los tranceptores utilizados tradicionalmente para comunicaciones de fonía.

Considerando el escaso ancho de banda proporcionado por los transceptores usados en las PMR, tendremos la limitación de transmitir datos a tasas del orden de hasta 9600 bps, lo cual puede ser más que suficiente para la transmisión de mensajes cortos o de mensajes de estado, como la propia posición geográfica en la que se encuentra una estación móvil.

Para realizar la transmisión de datos, conectamos un ordenador personal PC a un transceptor de radio utilizando un equipo intermedio, que realizará las funciones de módem digital y además puede incorporar funciones adicionales de encapsulación de datos y control de calidad de la transmisión. En este último caso el dispositivo se conoce con el nombre de TNC (Terminal Node Controller). La estación digital tendrá el aspecto mostrado en la figura siguiente.

Estación de radiopaquete

Los datos (un mensaje de texto, una imagen) se preparan y formatean en el PC, que se conecta por su puerto serie a un módem o TNC donde se genera una señal digital, normalmente modulada usando desplazamiento de frecuencia (FSK). Esta señal tiene un ancho de banda similar al de la voz y por tanto se puede llevar a la entrada de micrófono del transceptor, que realizará la transmisión por radio final. El proceso de recepción es similar. Habitualmente en este tipo de comunicaciones se utiliza un protocolo de nivel de enlace que asegura la integridad de los datos desde que son transmitidos hasta que son recibidos en el extremo distante. Este protocolo se denomina "AX.25" y constituye el fundamento del radiopaquete o packet radio.

Una aplicación reciente del radiopaquete y de uso directo en operaciones de Protección Civil, es el Sistema Automático de Información por Paquetes o APRS (Automatic Packet Reporting System), que consiste en conectar un receptor GPS a un PC y éste a los equipos de radiopaquete descritos anteriormente, como se puede observar en la figura 3.38. El PC captura los datos de posición de la estación facilitados por el GPS y los transmite por radiopaquete al resto de estaciones de la flota, que pueden visualizar en un mapa de su propio PC la posición en la que se encuentran todas las estaciones de la malla.

Page 86: Introducción a Las Telecomunicaciones

86

Estación de APRS

Sistemas de corto alcance

En este apartado vamos a resumir algunos sistemas de radiocomunicaciones de corto alcance: desde unos cientos de metros hasta unos pocos kilómetros.

La norma UN-30 del Cuadro Nacional de Atribución de Frecuencias, cita que dentro de la banda ICM (aplicaciones Industriales, Científicas y Médicas), el segmento 433,050 – 434,790 MHz puede ser empleado para usus generales de baja potencia hasta 10 mW de potencia de equipo. Aprovechando esta normativa, en los últimos años ha aparecido gran cantidad de equipos portables de bajo coste destinados al gran público y que utilizan estas frecuencias, ya que no es necesario tener ningún tipo de licencia para utilizarlos. Conviene incidir en la limitación de potencia impuesta legalmente, lo cual imposibilita el empleo de antenas de alta ganancia para mejorar el rendimiento del sistema.

La norma UN-85 del Cuadro Nacional de Atribución de Frecuencias, reserva las frecuencias de la banda comprendida entre 2400 y 2483,5 MHz para ser utilizadas en redes de áreal local para la interconexión sin hilos entre ordenadores y dispositivos periféricos para aplicaciones en interior de edificios, debiendo ser la potencia isotrópica radiada equivalente inferior a 100 mW. Nuevamente, es necesario insistir en la limitación legal en cuanto a potencia transmitida, que prácticamente impide la utilización de antenas de alta ganancia. Esta norma se está aprovechando para el desarrollo de redes "Wireless" entre ordenadores.

Sistemas de Telecomunicaciones públicos

Red Telefónica Básica (RTB)

La red telefónica fija terrestre actual se conoce con el nombre de Red Telefónica Básica (RTB) o Red Telefónica Conmutada (RTC). La arquitectura de la red se muestra en la figura.

Page 87: Introducción a Las Telecomunicaciones

87

Elementos de la Red Telefónica Básica

A continuación se enumeran los elementos básicos de la RTB:

El punto de conexión a red (PCR) delimita la infraestructura instalada en el domicilio del cliente, que normalmente es resposabilidad del mismo cliente, y el bucle de abonado perteneciente a la compañía telefónica.

El terminal telefónico puede ser alámbrico o inalámbrico. La telefonía sin hilos (CT, Cordless Telephone) tiene una alta implementación en los hogares debido a su comodidad: se trata de un terminal telefónico sin hilos que se conecta por radio a un terminal base que hace de puente con la Red Telefónica Básica. Los terminales suelen trabajar en la parte baja de la banda de VHF y utilizan modulación AM o FM de banda estrecha, lo cual los hace muy sensibles por el alto riesgo de que la comunicación sea interceptada por terceros. El sustituto actual de los CT es el DECT (Digital Enhanced Cordless Telecommunications), que utiliza modulación digital y como facilidad adicional permite el cifrado de los datos transmitidos, lo cual lo hace muchísimo más seguro. Los terminales tradicionales alámbricos están telealimentados desde la central local.

El bucle de abonado es la línea que interconecta el PCR con la central local telefónica, siguiendo un trayecto metropolitano.

La central local es una primera central de encaminamiento y conmutación de llamadas, que puede dar servicio a unos 10000 abonados. Las llamadas dentro de su zona (normalmente un barrio) se tratan sin salir de la propia central.

La central local se conecta además a una red de transmisión de voz digital de alta capacidad (backbone), que dispone de conmutadores capaces de encaminar llamadas entre centrales locales de distinto ámbito geográfico y de enlaces troncales capaces de transportar varios centenares de llamadas telefónicas de forma simultánea.

En algunos domicilios de usuario final de la RTB existen además centralitas privadas (PABX), que realizan la doble función de encaminar las llamadas que se produzcan entre terminales del mismo edificio al que dan servicio, que no salen a la RTB y por tanto tienen coste nulo, y a la vez sacar al exterior las llamadas dirigidas hacia otros terminales de la RTB.

A continuación se ofrece un ejemplo del funcionamiento de la RTB, mostrando cómo se encaminaría una llamada entre las ciudades de Madrid y Zaragoza.

Page 88: Introducción a Las Telecomunicaciones

88

Señalización y encaminamiento en la RTB

En la figura, el usuario de Madrid marca el número 976994501 de Zaragoza para establecer una llamada interurbana.

La señalización llega a la central local del abonado de Madrid, que interpreta que se trata de una llamada interurbana examinando los primeros tres dígitos (976) del número al que se dirige la llamada.

La central local señaliza entonces al backbone, que encaminará la llamada hacia uno de sus conmutadores que dé servicio a al ciudad de Zaragoza. El conmutador de Zaragoza examina los dos siguientes dígitos del número telefónico llamado (99) y señaliza a la central local de Zaragoza correspondiente.

Finalmente, la central local número 99 de Zaragoza señaliza a su abonado 5401, cuyo terminal comenzará a emitir el "ring" sonoro. Las centrales locales digitales modernas además pueden proporcionar información adicional a los abonados finales, como la identificación del número llamante.

La RTB presenta dos vulnerabilidades básicas: la fragilidad de la infraestructura y el riesgo de saturación.

Como ya se ha indicado, el bucle de abonado es una línea de cableado que une el domicilio del abonado con su central local correspondiente. En entornos rurales es típica la instalación del cableado del bucle de abonado usando postes de sujección que corren el riesgo de ser abatidos por el viento o las precipitaciones fuertes, pudiendo de esta forma llegar a dejar completamente incomunicada a una población.

Las centrales locales disponen de redundancia de alimentación, ya que además de alimentar a sus propios conmutadores también proporcionan telealimentación a los terminales de abonado. Por eso, en muchas ocasiones podemos seguir utilizando el teléfono incluso cuando hay un fallo de suministro eléctrico en nuestro domicilio. La principal vulnerabilidad de las centrales es que están diseñadas para dar servicio a un determinado número de usuarios y llamadas por unidad de tiempo, por lo que en una situación de emergencia pueden llegar a quedar saturadas con facilidad.

FAX

El fax es un sistema de transmisión de datos alámbrico digital diseñado para sacar ventaja de la infraestructura de la RTB de cara a la transmisión de imágenes y documentos.

Page 89: Introducción a Las Telecomunicaciones

89

La imagen o el documento original, con un tamaño estándar de 20,7 cm x 29,2 cm definido por la ITU, se cuantifica usando dos niveles (blanco y negro), con una resolución de hasta 2376 puntos por línea, es decir, 13 veces mejor que una imagen de TV.

La transmisión y recepción de fax puede realizarse mediante máquinas de propósito específico, aunque también por medio de un teléfono GSM o un módem-fax conectado a un ordenador personal PC con el software adecuado.

Las limitaciones son las propias de la RTB, con el inconveniente adicional de que las imágenes solamente se pueden transmitir en blanco y negro.

Internet

En palabras de sus propios creadores, "Internet ha revolucionado el mundo de las comunicaciones y la informática como nunca nada lo había hecho antes. La invención del telégrafo, el teléfono, la radio y las computadoras fue el punto de partida para esta integración de capacidades sin precedentes. Internet es a la vez un mecanismo de comunicación global para la diseminación de información y un medio de colaboración e interacción entre las personas y sus computadoras, independientemente de su localización geográfica".

Internet es la interconexión global de redes heterogéneas que utilizan protocolos TCP/IP para intercomunicarse. A continuación se ofrece una base clasificatoria que describe los diferentes tipos de redes existentes y que utilizan esta pila de protocolos.

Atendiendo a su cobertura geográfica, distinguimos tres tipos de redes:

LAN (Local Area Networks): Redes de área local. Normalmente se establecen dentro de un mismo edicifio, utilizando principalmente la tecnología Ethernet.

MAN (Metropolitan Area Networks): Redes de área metropolitana. Su área de cobertura es una ciudad completa. Suelen implementarse por los proveedores de servicios de internet para dar acceso a sus usuarios, o bien por organismos que disponen de varias LAN dentro de una misma ciudad con el fin de interconectarlas.

WAN (Wide Area Networks): Redes de área extensa. Su área de cobertura es regional, nacional o internacional. Se trata de redes con gran capacidad de transmisión y la interconexión de las mismas permite formar el gran backbone o esqueleto de Internet.

Con independencia de su área de cobertura geográfica, pueden considerarse dos grandes grupos de redes en función de su interconectividad:

Intranets. Redes corporativas privadas que utilizan protocolos TCP/IP. Se trata de redes bajo la gestión de un mismo organismo cuya finalidad es dar servicio de interconexión a sus máquinas, de forma aislada al resto de Internet o bien estableciendo redes privadas virtuales (VPN, Virtual Private Networks) a través de la misma. Habitualmente las intranets disponen de un mecanismo de salida al resto de Internet.

Internet. Red mundial que engloba a las redes públicas de tránsito o acceso y a las intranets que disponen de capacidad de interconexión hacia el exterior.

Internet ofrece servicios al usuario final utilizando una arquitectura cliente/servidor: existen una serie de máquinas que usan programas para solicitar servicios, que denominaremos clientes, y otras máquinas que ofrecen el servicio y que reciben el nombre de servidores. Por ejemplo, al visitar una página web desde nuestro PC usamos como cliente un programa navegador, mientras que en el extremo remoto existe un servidor web donde se aloja la página que queremos descargar.

Page 90: Introducción a Las Telecomunicaciones

90

Un protocolo es un programa que gestiona la comunicación entre dos máquinas. Normalmente, en este proceso de comunicación intervienen diversos protocolos con una estructura jerárquica. Los protocolos TCP/IP definen un conjunto de especificaciones de nivel de red que permiten la interconexión de redes heterogéneas, así como la forma de encapsular los datos de usuario que se van a transmitir por la red en estructuras lógicas denominadas paquetes.

Por ejemplo, en una conexión TCP/IP entre dos puntos geográficamente distantes pueden intervenir diversos medios físicos como la radio, un cable coaxial de una LAN o una fibra óptica de una WAN, de forma totalmente transparente a la comunicación extremo a extremo entre usuarios.

En Internet, cada máquina se identifica unívocamente por medio de una dirección IP. Se trata de un número binario de 32 bits y para una mejor interpretación suele traducirse a decimal agrupándose en cuatro octetos, como se muestra en la figura siguiente:

Dirección IP binaria 11000011111010111010010000000000

Separación en octetos 11000011.11101011.10100100.00000000

Traducción a decimal 195.235.164.200Direccionamiento IP

El manejo de direcciones IP, aunque sea en formato decimal, puede resultar bastante incómodo para los usuarios. Es por ello que en Internet se utiliza el sistema de nombres de dominio o DNS (Domain Name System), encargado de traducir las direcciones IP a nombres legibles y fácilmente utilizables por los usuarios finales. De la implementación de este servicio se encargan los servidores DNS (Domain Name Servers), que tienen una organización jerárquica dentro de Internet, de forma que las peticiones de traducción de dirección IP a nombre o a la inversa van pasando de pequeños servidores a grandes servidores hasta su ejecución. Esta arquitectura distribuída ofrece una gran rapidez en el servicio de traducción.

Por ejemplo, si desde un navegador queremos visualizar una determinada página web no emplearemos la dirección IP del servidor (ej: 195.235.164.200), sino el nombre de la máquina (ej: www.boe.es). El servidor DNS que tengamos configurado en nuestra máquina se encargará de realizar la traducción.

El usuario final puede utilizar diversos servicios a nivel de aplicación mediante protocolos de propósito específico entre los que podemos destacar:

SMTP (Simple Mail Transfer Protocol) y POP3 para el envío de correos electrónicos.

FTP (File Transfer Protocol) para la transferencia de ficheros.

Telnet, para la gestión remota de máquinas.

SSH (Secure Shell), similar a Telnet pero incluyendo cifrado en la comunicación.

HTTP (Hyper Text Transfer Protocol), para la visualización de páginas web.

La conexión de un usuario cualquiera a Internet se produce mediante una red de acceso, controlada y administrada por un Proveedor de Servicios de Internet (PSI o ISP,Internet Services Provider), como se observa en la figura 4.4. El acceso en sí se puede producir mediante el empleo de tecnologías diversas, como la Red Telefónica Básica (RTB), la Red Digital de Servicios Integrados (RDSI), la Línea Asimétrica Digital de Abonado (ADSL, Asymetric Digital Subscriber Line) o líneas dedicadas tipo X.25, Frame Relay, etc.

Page 91: Introducción a Las Telecomunicaciones

91

Modalidades de acceso a Internet

Por regla general, el precio del acceso es función del tiempo de conexión y de la velocidad de transmisión ofrecida. En la tabla 4.1 se muestra una comparación orientativa de las velocidades de acceso proporcionadas por algunas tecnologías actuales.

Tecnología Velocidad de acceso

RTB Hasta 56 kbps

RDSI 64-128 kbps

ADSL Hasta 2 Mbps

Frame Relay 64 kbps – 2 Mbps

X.25 300 bps – 2 MbpsTabla Comparativa de tecnologías de acceso a Internet

La red de acceso del ISP se conecta a los grandes backbones (redes) de tránsito o sistemas autónomos (AS) de Internet, redes de alta capacidad y velocidad de transmisión operadas casi en su totalidad por compañías privadas. Estas redes ofrecen un servicio de interconexión global entre ellas y con otros ISP, alcanzándose de esta forma un mallado mundial, como se muestra en la figura 4.5.

Estas grandes redes están formadas por routers, máquinas de elevadas prestaciones y propósito específico capaces de enrutar los paquetes IP a través de Internet desde su origen hasta su destino.

Page 92: Introducción a Las Telecomunicaciones

92

Encaminamiento o routing a través de Internet

Abreviaturas

ADSL. Bucle de abonado asimétrico digital. Tecnología de acceso a Internet de banda ancha.

AF. Audiofrecuencia o frecuencia audible.

AM. Modulación analógica en amplitud.

Ancho de banda. Rango frecuencial ocupado por una señal. Su unidad de medida es el Herzio (Hz).

APRS. Automatic Packet Reporting System. Sistema automático de reporte de posición por paquetes.

ASK. Modulación digital en amplitud (Amplitude Shift Keying).

Bit. Binary Digit. Unidad básica de información en el sistema binario usado en comunicaciones digitales.

BTS. Base Transceiver Station. Estación Base de telefonía móvil.

CNAF. Cuadro Nacional de Atribución de Frecuencias.

CTCSS. Continuous Tone Coded Squelch System. Sistema de señalización analógico usado en redes PMR.

DCS. Digital Coded Squelch. Sistema de señalización digital usado en redes PMR.

Page 93: Introducción a Las Telecomunicaciones

93

Decibelio (dB). Unidad para expresar una relación entre dos magnitudes en forma logarítmica.

DECT. Digital Enhanced Cordless Telecommunications. Sistema mejorado de telefonía local digital inalámbrica.

Digitalización. Proceso de conversión de una señal analógica contínua en el tiempo a una señal analógica discreta que puede representarse con bits.

ERMES. Enhanced Radio Message System). Nuevo sistema europeo de radiobúsqueda.

FI o IF. Frecuencia Intermedia, usada en receptores superheterodinos.

FM. Modulación analógica en frecuencia.

FSK. Modulación digital en frecuencia (Frequency Shift Keying).

GMDSS. Global Maritime Distress and Safety System. Sistema Global Marítimo de Seguridad y Desastres.

GPRS. General Packet Radio System), Sistema de telefonía móvil basado en GSM, que además utiliza protocolos IP.

GPS. Global Positioning System. Sistema de posicionamiento global por satélite.

GSM. Global System for Mobile. Sistema Global de telefonía celular para móviles.

IP. Internet Protocol. Protocolo utilizado en Internet.

ISP. Internet Services Provider. Proveedor de servicios de Internet.

LAN. Local Area Network. Red de área local.

LSB. Modulación analógica en banda lateral inferior. Es una modalidad de SSB.

MAN. Metropolitan Area Network. Red de área metropolitana.

Módem. Modulador/Demodulador.

MS. Mobile Station. Estación Móvil.

MUF. Máxima frecuencia utilizable en radiocomunicaciones en la banda de HF.

PABX. Centralita telefónica privada.

PIRE. Potencia Isotrópica Radiada Equivalente.

PMR. Private Mobile Radio. Red privada de radiocomunicaciones.

Portadora. Onda electromagnética que sirve de soporte para la transmisión a través del canal.

PSK. Modulación digital en fase (Phase Shift Keying).

Page 94: Introducción a Las Telecomunicaciones

94

RDSI. Red Digital de Servicios Integrados.

RF. Radiofrecuencia.

ROE o SWR. Relación de Onda Estacionaria.

RTB. Red Telefónica Básica.

Rx. Receptor.

Señal. Onda electromagnética que se encuentra en algún punto dentro de un sistema de telecomunicación.

Señal en banda base. Resultado de la conversión de la información en una señal eléctrica por medio de un transductor.

Señal moduladora. Señal que contiene la información a transmitir.

Señal modulada. Resultado de mezclar la señal moduladora con la portadora.

SETSI. Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información, dependiente del Ministerio de Ciencia y Tecnología.

SINAD. Relación Señal a Ruido y Distorsión.

SSB. Modulación analógica en banda lateral única (LSB o USB).

TCP. Transmission Control Protocol. Protocolo usado en redes IP.

TEM. Transversal electromagnético. Tipo de onda electromagnética.

TNC. Terminal Node Controller. Controlador de nodos usado en radiopaquete.

Transductor. Elemento de un sistema de telecomunicación encargado de la conversión de la información en señal eléctrica y viceversa.

TRX. Transceptor.

Tx. Transmisor.

UIT-R. Unión Internacional de Telecomunicaciones, sección de Radio.

UMTS. Universal Mobile Telecommunications System. Sistema de telefonía móvil y multimedia de tercera generación.

USB. Modulación analógica en banda lateral superior. Es una modalidad de SSB.

VSAT. Very Small Aperture Terminal. Sistema de telecomunicación vía satélite que usa antenas terrestres de tamaño reducido.

WAN Wide Area Network. Red de área extensa.

Page 95: Introducción a Las Telecomunicaciones

95

Descripción del GPS (Global Positioning System)

Introducción a los sistemas de radionavegación Ventajas de los sistemas de radionavegación espaciales

Descripción del GPS Funcionamiento del GPS

Triangulación conociendo la distancia a tres satélites Forma de medir la distancia respecto a un satélite Sincronización Sistemas de coordenadas Conocimiento de la posición de cada satélite

Fundamentos técnicos del GPS La constelación de satélites GPS Señales utilizadas en el GPS Fuentes de error en el GPS Receptores GPS

GPS diferencial Funcionamiento del GPS diferencial Fuentes de correcciones diferenciales Aplicaciones del GPS diferencial

Aplicaciones del GPS

Introducción a los sistemas de radionavegación

La navegación puede definirse como el conjunto de medios que permiten guiar a una nave de una determinada posición a otra. Así, el concepto de navegación no sólo se refiere a la determinación de una posición, sino también al establecimiento de un rumbo que nos permita llegar al destino deseado.

Los sistemas de navegación más empleados pueden englobarse en cinco categorías:

Pilotaje: consiste en fijar la posición de la nave respecto a marcas conocidas del terreno. Es el método más simple y antiguo de navegación.

Computación deductiva: se basa en la determinación de la posición mediante la extrapolación de una serie de mediciones de incrementos de velocidad. Este fue el método utilizado en 1927 por Charles Lindberg para cruzar el Atlántico en el famoso "Spirit of St. Louis".

Navegación astronómica: es el método de computar la posición mediante observaciones de los astros de una forma precisa en el tiempo, utilizando instrumentos como el sextante y el cronómetro.

Navegación inercial: se basa en la utilización de acelerómetros integrados en plataformas giroscópicamente estabilizadas. Fue utilizado profusamente en los primeros años de la navegación submarina bajo las capas de hielo polares.

Page 96: Introducción a Las Telecomunicaciones

96

Navegación electrónica o radionavegación: se basa en la determinación de la posición de la nave midiendo el tiempo que tarda una onda electromagnética en viajar desde el transmisor hasta el receptor.

Las primeras experiencias de la Humanidad en el mundo de la navegación se remontan a tiempos inmemoriables. Los marineros de la Edad del Bronce, siguieron tortuosas rutas comerciales hacia Egipto y Creta. Herodoto describe cómo los Fenicios utilizaban la Estrella Polar para guiar sus navíos en peligrosos viajes. Los vikingos realizaron viajes esporádicos a través del Atlántico hacia asentamientos en Groenlandia y Norteamérica.

La aparición de la brújula magnética, cuyas primeras descripciones datan del siglo XII, se impuso a la utilización de los astros para determinar la dirección del norte. La determinación de la latitud se realizaba gracias a la ayuda del sextante, que permitía calcular la elevación de los astros. Ya en el siglo XVIII, el británico John Harrison desarrolló la navegación mediante cronómetros marinos, que infirió una mayor precisión en la determinación de la latitud, junto al uso del sextante.

Los sistemas de radionavegación propiamente dichos tuvieron su desarrollo más espectacular durante la Segunda Guerra Mundial, mediante el uso de transmisores terrestres que proporcionaban una fiabilidad razonable pero con áreas de cobertura limitadas. Los sistemas de radionavegación terrestres de mayor éxito han sido el Decca, el Omega y el Loran.

En los años más recientes, los científicos americanos y rusos han decidido desplazar los transmisores de radionavegación al espacio exterior, mediante el uso de satélites, aún a pesar del elevado coste que ésto supone: la construcción de un satélite de radionavegación y su puesta en órbita se cifra en unos 80 millones de dólares.

El sistema NAVSTAR GPS emplea satélites orbitales situados a 11.000 millas naúticas sobre la Tierra, proporcionando señales de navegación contínuas, precisas y fiables a multitud de usuarios de todo el mundo. El mantenimiento corre a cargo de presupuestos militares, pero las señales están disponibles gratuitamente para cualquier clase de usuarios civiles.

Los receptores NAVSTAR, muchos tan pequeños y compactos como calculadoras de bolsillo, se distribuyen a través de más de 50 empresas. Muchos de ellos son simples y fáciles de manejar, proporcionando una fiabilidad de entre 30 y 100 metros incluso en condiciones desfavorables. Los modelos civiles más baratos pueden adquirirse por unas 40.000 pesetas.

En la fig.1 se muestra un gráfico comparativo de la precisión de diversos sistemas de navegación. Como puede observarse, el GPS es el sistema más preciso desarrollado hasta la fecha (2001).

Page 97: Introducción a Las Telecomunicaciones

97

Fig.1. Comparativa de la precisión entre diversos sistemas de navegación.

Ventajas de los sistemas de radionavegación espaciales

El diseño de sistemas de radionavegación basados en transmisores terrestres tiene dos alternativas fundamentales en lo referente a utilización frecuencial: el uso de frecuencias bajas posibilita la reflexión de las ondas en la ionosfera, lo cual permite extender el área de cobertura utilizando un número pequeño de transmisores (es el caso del sistema Omega). Sin embargo, este sistema no es muy preciso debido a que estas señales no pueden modularse con mucha información, dado su limitado ancho de banda, y a que la ionosfera sufre continuos cambios a lo largo del día. La otra opción es la utilización de frecuencias más altas, que permiten un mayor ancho de banda pero que tienen el inconveniente de no ser reflejadas en la ionosfera, lo cual les da un alcance meramente visual y por tanto requieren la utilización de centenares de transmisores basados en tierra y en plataformas marinas para conseguir una cobertura total del globo terrestre.

La solución a este dilema es la utilización de transmisores de alta frecuencia instalados en satélites (fig.2), que permiten cubrir sustanciales zonas del globo terráqueo atravesando la ionosfera desde fuera hacia adentro. Así pues, las dos ventajas fundamentales de los sitemas de radionavegación vía satélite son:

Utilización de frecuencias altas y de un ancho de banda elevado, que permite transmitir mayor cantidad de información.

Posibilidad de conseguir cobertura global con una reducida constelación de satélites.

Page 98: Introducción a Las Telecomunicaciones

98

Fig.2. Satélite G.P.S.

Descripción del GPS

El G.P.S. (Global Positioning System) es un sistema de radionavegación espacial desarrollado por el Departamento de Defensa de los EE.UU. a partir del año 1973. Las primeras señales de test fueron emitidas por un satélite de pruebas lanzado en junio de 1977. Con el primer grupo de satélites (Bloque I), el sistema completo fue testeado experimentalmente y refinado, al mismo tiempo que se construían las estaciones de seguimiento terrestres. Con los resultados de las pruebas surgieron los satélites del Bloque II (año 1989). El GPS comenzó a ser completamente funcional a partir de 1994 y se diseñaron los satélites más modernos del Bloque IIR, destinados a reemplazar a los del Bloque II. Los satélites GPS de última generación, actualmente en proceso de diseño, se denominan Bloque III.

Actualmente forman parte del sistema una constelación de 28 satélites operativos (fig.3) y sus correspondientes estaciones terrestres. En el segmento espacial, formado por los satélites y las estaciones de control, se utilizan lógicamente comunicaciones bidireccionales. No obstante, en el segmento terrestre los usuarios finales únicamente disponen de receptores, sin necesidad de transmitir datos de ningún tipo hacia el satélite. Esta es una gran ventaja de cara a la miniaturización de los equipos receptores de GPS.

Fig.3. Constelación de satélites G.P.S.

El segmento de control está formado por cinco estaciones monitoras, situadas en Hawaii, Kwajalein, la Isla Ascensión, Diego García y Colorado Springs; tres antenas terrestres, situadas en la Isla Ascensión, Diego García y Kwajalein, y una estación de control maestra (MCS, Master Control Station), ubicada en la Base Aérea de Schriever en Colorado (EE.UU.). Las estaciones

Page 99: Introducción a Las Telecomunicaciones

99

monitoras realizan un seguimiento pasivo de los satélites, acumulando datos de telemetría que son procesados por la estación de control maestra, que a su vez se encarga de actualizar los datos de navegación que transmitirá cada satélite. La MCS envía estos datos a los satélites a través de las estaciones dotadas de antenas terrestres.

Funcionamiento del GPS

En este apartado se ofrece una breve descripción del los fundamentos del sistema GPS, comenzando con los aspectos funcionales y ofreciendo algunas explicaciones técnicas. El GPS se basa en cinco puntos fundamentales, que se describen a continuación:

Triangulación conociendo la distancia a tres satélites

Como con cualquier otro sistema de radiolocalización, si calculamos la distancia a tres transmisores de posición conocida, podemos triangular nuestra posición en cualquier lugar de la Tierra.

Así pues, como primera premisa es necesario que nuestro receptor G.P.S. conozca la posición exacta de los satélites de la constelación.

Supongamos que tomamos nuestra distancia respecto a un satélite y resulta ser de 18.000 km. Desde el punto de vista del satélite, nuestra posición estará en algún punto de una esfera de 18000 km. de radio alrededor de él (fig.4).

Fig.4. El conocimiento de la distancia a un satélite nos ubica en algún punto de una esfera en torno a el mismo.

Ahora hacemos la misma medida de cara a otro satélite, y es de 17000 km. Por tanto, nuestra posición estará en la intersección de la anterior esfera y otra actual de radio 17000 km alrededor de este satélite. La intersección de ambas esferas es una circunferencia (fig.5), luego con dos mediciones nos ubicamos en algún punto de dicha circunferencia.

Fig.5. El conocimiento de la distancia a dos satélites nos ubica en algún punto de una circunferencia.

Page 100: Introducción a Las Telecomunicaciones

100

Si además hacemos la misma medida con respecto a un tercer satélite y resulta ser de 20000 km, por ejemplo, precisaremos nuestra posición a la intersección de las tres esferas (fig.6). La intersección de 3 esferas da lugar a dos puntos, de los cuales uno de ellos será una solución sin sentido para nuestro receptor. Como se verá más adelante, en la práctica es necesaria una medida adicional respecto a un cuarto satélite para precisar la posición.

Fig.6. Triangulación utilizando tres satélites.

Forma de medir la distancia respecto a un satélite

Como ha quedado de manifiesto en el apartado anterior, resulta fundamental conocer la distancia a los satélites con una precisión lo más exacta posible para evitar errores. Para ello, nos valemos de la medida del tiempo que le cuesta llegar a una señal desde el satélite hasta nuestro receptor.

Es decir, mediremos el tiempo de propagación de la señal electromagnética suponiendo que, idealmente, viaja a la velocidad de la luz.

Estos tiempos son muy cortos, de alrededor de 1/11 de segundo, así que se se hace necesaria la utilización de relojes de precisión. En los satélites es posible montar relojes atómicos de elevada precisión, pero los de los receptores terrestres forzosamente serán más imprecisos, luego la deriva del reloj será otro factor a tener en cuenta.

La medición del retardo se hace de la siguiente forma: cada satélite transmite una señal especial, denominada "código pseudoaleatorio", que es distinta a la transmitida por el resto de satélites. El receptor terrestre incorpora un generador de señales pseudoaleatorias que se comparan con las señales recibidas, de forma que se pueda identificar al satélite transmisor. Una vez identificado, el tiempo que tarden en sincronizarse las señales transmitida por el satélite y generada por el receptor, será el tiempo de retardo de la señal entre el satélite y el receptor (fig.7). Conociendo la velocidad de la luz, se determina la distancia exacta al satélite.

Page 101: Introducción a Las Telecomunicaciones

101

Fig.7. Sincronización de las señales transmitida por el satélite y generada por el receptor.

Sincronización

Como acabamos de ver, tanto el satélite como el receptor necesitan sincronizar perfectamente sus relojes pseudo-aleatorios. Si utilizáramos relojes atómicos, el coste de los receptores se elevaría muchísimo.

Así, los satélites utilizan relojes atómicos extremadamente precisos (dos de cesio y dos de rubidio, con un error de ±1 seg. cada 300.000 años y una precisión superior a 0.1 partes por billón), mientras que en los receptores GPS se emplean relojes más imperfectos de cuarzo. Esto hace que la sincronización sea dificil y que el receptor compute realmente una "pseudodistancia" a cada uno de los tres satélites, introduciéndose una nueva variable: el error del reloj. En total se tienen 4 incógnitas a determinar: longitud, latitud, altitud y error de reloj. Si se consigue sintonizar a un cuarto satélite, los datos proporcionados por éste harán que se tenga un sistema de 4 ecuaciones con 4 incógnitas que permiten al sistema de procesamiento del receptor determinar todas las variables buscadas, con la ayuda de los elementos orbitales transmitidos por cada satélite, que permiten al receptor determinar la posición de los mismos:

Satélite 1: (X1 – Ux)2 + (Y1 – Uy)2 + (Z1 – Uz)2 = (R1 – CB)2

Satélite 2: (X2 – Ux)2 + (Y2 – Uy)2 + (Z2 – Uz)2 = (R2 – CB)2

Satélite 3: (X3 – Ux)2 + (Y3 – Uy)2 + (Z3 – Uz)2 = (R3 – CB)2

Satélite 4: (X4 – Ux)2 + (Y4 – Uy)2 + (Z4 – Uz)2 = (R4 – CB)2

Incógnitas:

Ux , Uy , Uz Latitud, longitud, altitud del receptor.CB error de sincronización de relojes.

Datos:

Xi , Yi , Zi Posición del satélite i, que el receptor determina resolviendo ecuaciones algebraicas y trigonométricas con los datos orbitales facilitados por el satélite en el instante de transmisión del pulso relevante.

Como puede observarse, la sincronización es la parte de mayor importancia en un sistema GPS, requiriéndose precisiones de varias billonésimas de segundo. Dado que las ondas electromagnéticas viajan aproximadamente a la velocidad de la luz, cada error de una billonésima de segundo en tiempo se traduciría en una imprecisión de por lo menos 1 pie en la localización del receptor.

Finalmente, reseñar que los receptores GPS computan la velocidad a partir de la variación de la posición respecto al tiempo, el desplazamiento Doppler de las frecuencias de transmisión de los satélites, o bien combinando ambos métodos.

Page 102: Introducción a Las Telecomunicaciones

102

Sistemas de coordenadas

La posición determinada por el GPS está referenciada a un sistema de coordenadas denominado ECEF (Earth-Centered, Earth-Fixed). Se trata de un sistema de coordenadas que gira con la Tierra. En él, el plano XY se sitúa en el plano ecuatorial de la Tierra, hallándose el eje X en la dirección del meridiano de Greenwich y el eje X situado a 90º al Este del eje X. El eje Z es perpendicular al plano XY en la dirección del Polo Norte geográfico. El origen de coordenadas corresponde con el centro de masas de la Tierra, suponiendo ésta esférica (ver fig.8).

Fig.8. Sistema de cordenadas ECEF.

No obstante, es sabido que la Tierra no tiene forma esférica sino que presenta un "achatamiento" por los Polos, dándole más bien el aspecto de un elipsoide de revolución, modelo que resulta más exacto que el esférico. En este modelo, las secciones paralelas al Ecuador son circulares, mientras que las secciones perpendiculares al mismo y que contienen al eje de revolución son elipsoidales. Las dimensiones del elipsoide de referencia vienen completamente definidas por dos parámetros (fig.9):

Page 103: Introducción a Las Telecomunicaciones

103

Fig.9. Parámetros del elipsoide de referencia.

Estos parámetros pueden aparecer relacionados con otros, como la excentricidad (e, eccentricity) o la planitud (f, flattening), que vienen definidos de la siguiente forma:

Aunque existen numerosos modelos cuyas diferencias radican básicamente en la situación del centro de la Tierra y en las dimensiones del elipsoide, el modelo físico de la Tierra que emplean las aplicaciones GPS es el World Geodetic System de 1984 (WGS-84), caracterizado por los siguientes valores:

a = 6378137.000 metrose2 = 0.00669437999014

Al conjunto formado por un sistema de coordenadas y un elipsoide de referencia se de denomina datum.

El siguiente paso es la conversión de coordenadas XYZ basadas en un sistema cartesiano como el descrito, a las coordenadas LLA (latitud-longitud-altura) con las que estamos comunmente familiarizados. En este proceso se ven implicadas complejas ecuaciones que normalmente son resueltas por el propio software de los recptores.

La representación sobre un mapa de las medidas realizadas con un GPS (y en coordenadas LLA) no presentarían mayor problema si no fuera porque los mapas actuales no emplean el elipsoide de referencia WGS-84. Ello se debe, además de a causas cronológicas, a que si bien este elipsoide es el que mejor representa la forma de la Tierra globalmente, no es el que mejor lo hace localmente. Este hecho da lugar a una importante conclusión: latitud, longitud y altura de un punto no son valores únicos, dependen del datum seleccionado. Así, por ejemplo, mientras en Europa occidental se emplea el European Datum de 1950 (ED 50), en Australia se emplea el Australian Geodetic Datum y en EE.UU. el North American Datum de 1983 (NAD 83). Este pequeño, en aparencia, detalle puede ser un grave problema, puesto que los errores cometidos pueden llegar a ser mayores que los asociados al propio método de navegación: errores de hasta 1.5 km dependiendo del lugar del mundo que se represente y en qué coordenadas, frente a la precisión del orden de metros del GPS.

Page 104: Introducción a Las Telecomunicaciones

104

Adicionalmente surge el problema de la proyección de las medidas tomadas en una superficie esférica o elipsoidal sobre una superficie plana como es un mapa. Aunque existen más de 250 proyecciones diferentes sobre un mapa, si la región en que se lleva a cabo la medida es suficientemente pequeña, el error introducido podrá considerarse despreciable (no así en áreas grandes). El problema de la proyección se resuelve matemáticamente mediante una transformación matricial.

Resumidamente y considerando que los ejes de rotación son los mismos entre diferentes sistemas (no siempre es así), los elipsoides diferirán en cinco parámetros: la posición del centro de coordenadas (determinada por tres coordenadas) y la longitud de los dos semiejes del elipsoide de referencia.

Para usuarios europeos, el proceso de conversión, en el que también se ven implicadas complejas ecuaciones, sería el reflejado en la fig.10. Es fundamental que los receptores realicen la conversión adecuada para el datum que se esté utilizando.

Datum x y z a e2

WGS-84 0 0 0 6378137.000 m 0.00669437999014

ED 50 - 84 m - 107 m - 120 m 6378388.000 m 0.00672267002233

Fig.10. Conversión de datum GPS a datum europeo.

Conocimiento de la posición de cada satélite

El Departamento de Defensa (DoD) de EE.UU. determinó las órbitas precisas para los satélites, de acuerdo con un plan general. Todos los receptores dispondrán de dicho plan (gracias a los mensajes de navegación) para conocer la posición exacta de cada satélite en todo momento.

Desde el control de misión, el DoD monitoriza constantemente la posición de los satélites utilizando radares precisos, determinando con precisión los denominados "errores de efemérides" debidos a la gravedad del Sol y la Luna, y a la presión de la radiación solar .

Una vez realizada esta monitorización, se transmite a cada satélite su posición exacta para que éste a su vez la incluya en sus señales de sincronización y en su código pseudo-aleatorio.

Fundamentos técnicos del GPS

Los fundamentos técnicos del sistema G.P.S. se basan en teoría avanzada de tratamiento de la señal. A continuación se ofrece una pequeña profundización en estos aspectos

La constelación de satélites GPS

Los satélites de la constelación GPS, llamados NAVSTAR, navegan en 6 planos orbitales con una inclinación de 55º respecto al Ecuador, a una altitud de 10,898 millas náuticas, donde cada satélite tiene una zona de visión directa del 38% de la Tierra (fig.11). Las frecuencias utilizadas son de

Page 105: Introducción a Las Telecomunicaciones

105

1227.6 y 1575.42 MHz. La constelación completa consta de 28 satélites activos actualmente (año 2001). Tanto los satélites como el equipamiento de apoyo basado en tierra son financiados por el Departamento de Defensa de EE.UU., pero el servicio está disponible gratuitamente para cualquier usuario civil.

Fig.11. Planos orbitales de la constelación GPS (año 1998, 24 satélites).

Un receptor GPS, ya sea terrestre, marítimo o aéreo, capta las señales de cuatro o más satélites NAVSTAR de forma simultánea o secuencial, para determinar sus coordenadas de posición tridimensionales: longitud, latitud y altitud. Una cadena de pulsos binarios viaja desde el satélite hasta el receptor en un tiempo de alrededor de 1/11 de segundo. El receptor estima el tiempo de viaje de dicho tren de pulsos restando el tiempo registrado por su reloj del tiempo indicado por el satélite cuando transmitió el pulso relevante. El tiempo obtenido se multiplica por la velocidad de la luz para estimar la distancia al primer satélite.

Señales utilizadas en el GPS

Cada satélite utiliza dos portadoras de microondas. La elevada frecuencia de las mismas permite la utilización de antenas pequeñas, lo cual las hace apropiadas para su instalación en equipos portátiles.

La portadora L1 se utiliza para transmitir la información de la posición. La portadora L2 se emplea para medir los retardos de propagación atmosféricos.

Modulándolas, se transmiten tres tipos de códigos de datos (ver fig.12):

El código C/A (coarse acquisition), de precisión baja, se transmite por la portadora L1 y consiste en un código pseudoaleatorio, similar al ruido eléctrico, que se repite cada milisegundo. Como resultado del ensanchamiento del espectro al utilizar una señal moduladora de este tipo, el ancho de banda resultante es de 1 MHz. Cada satélite transmite un código distinto, lo cual permite distinguirlos. La utilización de este código se denomina Servicio de Posicionamiento Estándar (SPS,Standard Positioning System) y ofrece una precisión temporal de 340 nanosegundos y una exactitud en la precisión de la posición de 100 metros horizontalmente y 156 metros verticalmente.

El código P(Y), de precisión elevada, se utiliza para modular las fases de las dos portadoras L1 y L2 y tiene un periodo muy largo, de 7 días. Este código puede cifrarse y sólo está disponible para usuarios autorizados, permitiéndoles alcanzar los mayores

Page 106: Introducción a Las Telecomunicaciones

106

grados de precisión en la determinación de su posición: 200 nanosegundos de precisión temporal, 22 metros en posición horizontal y 27.7 metros en posición vertical. La utilización de este código se denomina Servicio de Posicionamiento Preciso (PPS, Precise Positioning System).

Los datos de navegación se transmiten también por el canal L1. Consisten en información necesaria para el correcto funcionamiento del sistema, como los datos orbitales (efemérides) de los satélites, correcciones de reloj, modelos de corrección de errores de reloj y modelos de corrección de errores por propagación ionosférica y troposférica

Fig.12. Señales transmitidas dessde los satélites.

El receptor GPS de cada usuario genera réplicas de los códigos C/A y P que transmite cada satélite. Cuando "engancha" la señal de un satélite, realiza la correlación entre la señal interna y la señal recibida para determinar de qué satélite procede. Acto seguido, deshace el ensanchamiento del espectro y mediante un PLL procede a demodular los datos de navegación que el satélite transmite y a corregir la desviación de frecuencia producida por el efecto Doppler.

La combinación de las señales procedentes de cuatro o más satélites permite determinar la posición tridimensional al sistema de procesamiento del receptor, que finalmente presentará en pantalla datos sobre latitud, longitud y altitud geográficas.

Fuentes de error en el GPS

En realidad, hay muchísimos problemas que pueden afectar a estos cálculos ideales que hemos visto. A continuación se describen las posibles fuentes de error que pueden afectar al sistema y la forma que tiene éste de corregirlos:

La principal fuente de error es intencionada y se denomina Disponibilidad Selectiva o SA (Selective Availability). Consiste en la contaminación de las señales de telemetría que utilizan los usuarios no privilegiados y sirve como mecanismo de defensa ante elementos no autorizados que pretendan utilizar el GPS como sistema hostil para los EE.UU. y sus países aliados. Concretamente, se manipulan los datos de posición orbital de los satélites y/o la frecuencia de reloj del satélite. Supone una degradación de la precisión de entre 30 y 100 metros. Otra forma de protección es la variación mediante cifrado del código P descrito anteriormente. El código P cifrado pasa a denominarse código Y y resulta prácticamente imposible de imitar por otro transmisor que pretenda hacerse pasar por un satélite GPS. Esta medida recibe el nombre de Anti-spoofing (A-S). La disponibilidad selectiva fue oficialmente suprimida el 1 de mayo de 2000, pero puede ser reactivada por el Departamento de Defensa de EE.UU. en cualquier momento.

Page 107: Introducción a Las Telecomunicaciones

107

Retardo de propagación en la atmósfera. Hasta ahora, habíamos utilizado la velocidad de la luz para los cálculos, pero ésta sólo es constante en el vacío. Una señal GPS atraviesa varias capas no homogéneas de la atmósfera, produciendo un retardo adicional al de sincronización: la ionosfera está llena de partículas cargadas y su distribución en tamaño y densidad de carga es variable en función del la radiación solar, las fluctuaciones del campo magnético terrestre y otros factores. La velocidad de propagación de las ondas de radio en la ionosfera es por tanto función de la frecuencia utilizada y el instante de tiempo en el que se produce la transmisión. Dado que la información del GPS se transmite a través de dos portadoras distintas, es posible realizar una medición del retardo diferencial de recepción entre ambas y modelar un algoritmo corrector del efecto ionosférico. Por otro lado, el vapor de agua de la troposfera también influye en la radiación electromagnética, introduciendo un error adicional más dificil de compensar.

Propagación multicamino. Igualmente, también puede haber errores debidos a reflexión de las señales en diversos obstáculos cercanos al receptor. La suma de las señales directa y reflejadas degrada la señal digital, lo cual obliga a la utilización de sistemas de corrección de errores "multipath".

Errores de efemérides. Las posiciones oritales teóricas de los satélites pueden variar con el tiempo. Estos errores se denominan "errores de efemérides", y se solucionan monitorizando constantemente cada satélite, como hemos visto antes, y transmitiendo las correcciones oportunas desde el control de misión. Además, pueden aparecer errores de reloj no corregidos por el sistema de control de errores. Todos ellos añaden una imprecisión de aproximadamente 1 metro en la determinación de la posición. Para corregir estos errores existen varios algoritmos basados en datos experimentales, cuyos coeficientes se transmiten a través del mensaje de navegación para que el receptor pueda utilizarlos.

Atenuación de precisión debida a posición. Estos errores se deben a la propia posición de los satélites: si el receptor sintoniza satélites cercanos entre sí, las esferas interferentes de las que hemos hablado se intersectan en ángulos muy agudos, lo cual hace aumentar el área de error de posición. Dado que el receptor del usuario conoce las efemérides de los satélites gracias a la demodulación del mensaje de navegación, es posible calcular qué combinación de satélites visibles proporciona la mejor geometría en un momento dado. Este cálculo se traduce en un valor denominado PDOP (Position Dilution of Precision). Dado que los satélites no son geoestacionarios, el PDOP es variable. Las mejores geometrías proporcionan valores de PDOP bajos, considerándose buenos los valores de entre 4 y 6. Las posiciones determinadas con valores de PDOP superiores a 6 pueden ser consideradas como susceptibles de error. La solución es tomar satélites más separados entre sí, cuyas esferas se intersecten en ángulos casi rectos (fig.13). Otro parámetro similar pero que incluye un factor para contabilizar errores en tiempo es elGDOP (Geometric Dilution of Precision).

Fig.13. Influencia del ángulo de visibilidad de los satélites.

Page 108: Introducción a Las Telecomunicaciones

108

El ruido puede afectar a determinadas señales, resultando en errores de unos 15 metros en la posición de cada satélite. No obstante, la utilización de técnicas de espectro ensanchado mediante códigos pseudoaleatorios hacen estos errores poco probables.

Los errores más graves, de incluso varias centenas de kilómetros, se deben a fallos electrónicos en alguna parte del sistema.

Receptores GPS

Funcionalmente existen tres tipos de receptores GPS:

Receptores secuenciales o monocanal. Están dotados de un único canal radio y por tanto sólo pueden enganchar un satélite a la vez. Realizan un barrido secuencial entre 4 de todos los satélites visibles (los que ofrezcan mejor relación señal a ruido), parando al menos 1 segundo en cada canal disponible para recoger datos. El tiempo empleado en realizar el barrido secuencial introduce un pequeño error que hace que este tipo de receptores sean los más imprecisos, pero por otra parte los más baratos.

Receptores continuos o multicanal. El receptor está equipado con al menos 4 canales, que se utilizarán para sincronizar con las emisiones de otros tantos satélites de forma simultánea. Respecto a los anteriores, tienen la ventaja de realizar todas las medidas a la vez, lo cual reduce el error, y además de computar la posición de forma más rápida.

Receptores multiplexados. Se dispone de un único canal físico sobre el que se implementan varios canales lógicos por software, con los que se pueden sincronizar datos de todos los satélites visibles en un tiempo no superior a unos 20 milisegundos.

Cuando el receptor GPS de un usuario entra en funcionamiento, puede encontrarse en dos estados distintos:

Perdido. Los datos memorizados por el satélite (almanaque) la última vez que estuvo en funcionamiento tienen una fecha muy antigua. El receptor busca al satélite que le ofrezca una mejor relación señal a ruido y demodula su mensaje de navegación, consiguiendo de esta forma el almanaque y la referencia temporal. Esta situación puede llevar varios minutos.

Memorizado. El receptor comprueba que los datos que tenía almacenados en memoria son válidos y utiliza los mismos satélites que la última vez que fue empleado.

GPS diferencial

Para conseguir mayor precisión que el GPS normal, utilizaremos este sistema, capaz de realizar medidas con una precisión de alrededor de un par de metros en aplicaciones móviles, o incluso mejores en situaciones estacionarias. Con ello, el GPS se convierte en un sistema universal de medición con una granularidad muy fina.

Funcionamiento del GPS diferencial

El GPS diferencial requiere la colaboración de 2 receptores, uno estacionario y otro el del propio usuario. El receptor estacionario es la clave porque sirve como referencia local y sólida de las diferentes mediciones. La ubicación geográfica del receptor estacionario es conocida a priori y con una precisión muy alta.

Page 109: Introducción a Las Telecomunicaciones

109

Si los dos receptores están cerca el uno del otro (en unos pocos cientos de km) las señales que les llegan a ambos han realizado el mismo recorrido a través de la atmósfera, así que, prácticamente, tendrán los mismos errores.

Por tanto, tendremos un receptor de referencia que mida los errores temporales y provea de la información de corrección a los receptores de los usuarios en su radio de alcance, eliminando todos los errores, incluso el de "Disponibilidad Selectiva".

Para que dicho receptor corrija los errores temporales se pondrá en una localización que haya sido determinada con gran precisión y se fijará allí. Esta estación ataca estas ecuaciones del sistema descritas anteriormente "al revés", es decir, utiliza su posición conocida para determinar el tiempo y así evaluar el error en las mediciones. Partiendo de este error, transmite las correcciones a los receptores de los usuarios a través de otro canal, por ejemplo de V-UHF (fig.14).

Fig.14. Funcionamiento del GPS diferencial.

Fuentes de correcciones diferenciales

Hace años estas estaciones de referencia temporal del GPS eran establecidas por grandes compañías privadas. En la actualidad hay suficientes corporaciones públicas para conseguir estos servicios de forma gratuita.

A veces, en aplicaciones de tiempo real, estas estaciones transmiten sus correcciones vía radio al espacio circundante, de ahí que ahora los receptores se diseñen con radio incorporada.

En caso de que no ocurra así, para otras aplicaciones que requieran conservar todas sus medidas y el tiempo exacto de ellas, nos serviremos del GPS diferencial invertido. Con este sistema, a cada elemento concreto se le dota de un receptor GPS estándar, y un transmisor que envíe sus informaciones a una oficina de procesado, que estará dotada del correspondiente equipo para hacer las correcciones con el GPS diferencial.

Aplicaciones del GPS diferencial

Se puede llegar a precisiones de milímetros en tiempo real con el GPS diferencial, por lo que sus aplicaciones son múltiples. Los mejor implementados actualmente son: métodos de interferometría, diseño de caminos y carreteras a partir de herramientas de CAD, aplicaciones del GPS aumentado, etc.

Page 110: Introducción a Las Telecomunicaciones

110

La Administración Federal de Aviación (FAA, Federal Aviation Administration) de EE.UU. está desarrollando un plan denominado WAAS o Sistema de Aumentación, que es básicamente un sistema de GPS diferencial con cobertura para todo el continente americano.

Hasta ahora, el proceso de captación de señales y transmisión desde las bases a un centro de datos puede llevar unos minutos, que pueden ser demasiado tiempo, por ejemplo, para el aterrizaje de un avión.

Pensando en estos casos, la FAA asentó su propio sistema de monitorización que responde mucho más rápido. En realidad, calcularon que con 24 receptores de referencia desperdigados a lo largo de todos los EEUU podrían obtener datos de corrección para todo el país, pues cada uno de ellos monitorizaría un satélite GPS.

Las especificaciones de este programa ya han sido aprobadas y están funcionando desde Enero de 1997 para agencias gubernamentales norteamericanas.

Aplicaciones del GPS

La tecnología GPS actualmente se ha convertido en un recurso cuya utilización supera con creces los objetivos para los que fue diseñada. El GPS ha pasado de tener un uso exclusivamente militar a convertirse en un instrumento de uso común que permite hacer muchos trabajos más seguros y productivos. Las aplicaciones principales del sistema son:

Localización o determinación básica de la posición. Navegación o establecimiento de rutas entre puntos distintos. Seguimiento o monitorización de los desplazamientos de personas u objetos. Cartografía. El GPS se emplea en la creación de mapas de precisión. Fuente de sincronismo con precisiones superiores al microsegundo.

La primera y más obvia aplicación del GPS es la determinación de una posición geográfica en cualquier punto del planeta y bajo cualquier tipo de condición atmosférica. La determinación de la posición exacta puede llegar a ser crítica, por ejemplo, en la localización de accidentes de cualquier tipo. Por otro lado, las aplicaciones científicas en el campo de la geodesia y la topografía son amplísimas: medición de la altitud del terreno, desplazamiento de glaciares, localización de yacimientos de petróleo y gas, y un largo etcétera.

El GPS ha sido diseñado para proporcionar datos sobre el rumbo que lleva cualquier receptor móvil, ya sea marítimo, aéreo o terrestre, asegurando que no se desvía de su ruta y optimizando la densidad del tráfico. Todo ello en redundancia de una mayor seguridad y menor consumo de combustible. El uso está tan extendido que incluso se utiliza en competiciones deportivas y en control de flotas de camiones de transporte o de autobuses urbanos.

La combinación de posicionamiento y rumbo conocidos puede aprovecharse para el control de flotas en combinación con el tradicional packet-radio, mediante el sistemaAPRS (Automatic Position Reporting System) utilizado en estaciones de radioaficionado.

Otro uso muy extendido es por supuesto el militar, siendo utilizado para el establecimiento de objetivos y el guiado de misiles.

Page 111: Introducción a Las Telecomunicaciones

111

Por otro lado, dada la elevada precisión de las señales emitidas por los satélites GPS, éstas también se utilizan como fuente de sincronismo para diversas redes telemáticas, como la propia Internet, mediante protocolos específicos como el NTP (Network Timing Protocol).

El receptor GPS puede interconectarse con otros sistemas electrónicos o informáticos como giróscopos, odómetros, detectores de movimiento, alarmas, etc.

El complemento ideal de un receptor GPS es sin duda el Sistema de Información Geográfica (GIS): un programa de ordenador que proporciona una base cartográfica digital sobre la que establecer posiciones y rumbos gracias a los datos facilitados por el GPS.

En definitiva, el actual abaratamiento y minimización del tamaño de los receptores hacen de esta tecnología algo cada vez más común y útil en nuestra sociedad.

Fundamentos de Internet

Orígenes de Internet Tipos de redes

Modelo OSI y protocolos TCP/IP TCP/IP sobre radiopaquete Internet a través de módem telefónico Direcciones IP y dominios. Aprovechamiento del espacio de direccionamiento.

Arquitectura de Internet Acceso Tránsito Routing Redes privadas virtuales

Organisnmos reguladores Regulación de Internet en España Regulación de Internet a nivel mundial.

Clasificación de los códigos de países

Orígenes de Internet

En palabras de sus propios creadores, "Internet ha revolucionado el mundo de las comunicaciones y la informática como nunca nada lo había hecho antes. La invención del telégrafo, el teléfono, la radio y las computadoras fue el punto de partida para esta integración de capacidades sin precedentes. Internet es a la vez un mecanismo de comunicación global para la diseminación de información y un medio de colaboración e interacción entre las personas y sus computadoras, independientemente de su localización geográfica".

El primer registro conocido de lo que podría llegar a ser la interacción social a través de las redes de ordenadores, se debe a J.C.R. Licklider del Instituto de Tecnología de Massachussets (MIT) en los EE.UU., quien en agosto de 1962 describió su concepto de "Red Galáctica" en la que profetizaba la interconexión de ordenadores en cualquier parte del mundo a través de redes de comunicaciones. Unos meses más tarde, Licklider fue el jefe de proyecto DARPA (Defense

Page 112: Introducción a Las Telecomunicaciones

112

Advanced Research Projects Agency) sobre investigación de la aplicación de redes de computadoras en el campo militar.

Paralelamente, entre 1961 y 1964, otro investigador del MIT llamado Leonard Kleinrock desarrolló su teoría sobre las comunicaciones de datos mediante conmutación de paquetes, que mejorarían visiblemente los sistemas tradicionales de conmutación de circuitos, usados en la telefonía fija. Con su idea, serían los propios datos (bits) los que se encaminasen a través de las redes de comunicaciones, en lugar de realizar un encaminamiento físico de los circuitos, lo cual implicaría disponer de una capacidad de transmisión mucho más rápida.

En 1965, Lawrence G. Roberts, sucesor de Licklider en DARPA y seguidor de las nuevas teorías de Kleinrock, trabajando en colaboración con Thomas Merrill consiguió conectar a través de la línea telefónica convencional dos ordenadores situados en Massachussets y California, constituyendo a todos los efectos la primera red de área extensa (WAN, Wide Area Network) de la historia. Los experimentos mostraron la necesidad de aplicar la teoría de conmutación de paquetes de Kleinrock para mejorar las prestaciones del sistema y ya en 1966 Roberts desarrolló el concepto de la red de datos ARPANET (Advanced Research Projects Agency Netowrk), que sería mejorado con la colaboración de los investigadores ingleses Donald Davies y Roger Scantlebury.

A finales de 1968 se comenzó el desarrollo del elemento clave para implementar tecnológicamente las teorías de Kleinrock: un conmutador de paquetes denominado IMP(Interface Message Processor). En este desarrollo participaron un grupo de investigadores encabezados por Frank Herat, de la empresa BBN y Bob Kahn, a la vez que los equipos de Roberts en DARPA y Kleinrock en la Universidad de California optimizaban el diseño de la topología de la futura red ARPANET.

En septiembre de 1969 la BBN instaló el primer conmutador IMP de la red en la Universidad de California, al que se conectó una computadora. El segundo nodo se instaló en el Instituto de Investigación de Stanford y un mes más tarde se consiguió enviar el primer mensaje entre ambos. A continuación se instalaron nuevos nodos en las Universidades de Santa Bárbara y Utah, constituyendo el núcleo que al cabo de los años continuaría su expansión hasta constituir lo que hoy conocemos como Internet, con la implementación de nuevas tecnologías.

En diciembre de 1970, el equipo de S. Crocker en el Network Working Group concluyó el desarrollo del protocolo NCP (Network Control Protocol), que permitiría el desarrollo de aplicaciones para las computadoras de la red con la capacidad de interactuar entre ellas. El protocolo NCP sería implementado en el periodo 1971-1972. En este mismo año y en base a la necesidad de una comunicación rápida entre los distintos equipos que desarrollaban la red, se comenzó el diseño del email o correo electrónico, cuyo primer programa fue escrito por Ray Tomlinson, de la BBN.

Con la llegada de Kahn a DARPA en 1972 y sus estudios para el desarrollo de redes de conmutación de paquetes por radio (packet radio), surgió la necesidad de implementar un método de interconexión entre redes heterogéneas, ya fuesen vía radio terrestre, vía cable o vía satélite. Esto es lo que se conoce como "arquitectura abierta" y supondría un hito fundamental para el crecimiento de las redes originales. Se llegó a la conclusión de que se necesitaba un protocolo más potente que el NCP para realizar las comunicaciones y que, entre otras cosas, permitiese asignar identificativos a las máquinas de la red. Fue el nacimiento de los protocolos TCP/IP, fundamento de la Internet actual.

Tipos de redes

Como ya se ha dicho, Internet es la interconexión global de redes heterogéneas que utilizan protocolos TCP/IP para intercomunicarse. A continuación se ofrece una base clasificatoria que describe los diferentes tipos de redes existentes y que utilizan esta pila de protocolos.

Page 113: Introducción a Las Telecomunicaciones

113

Atendiendo a su cobertura geográfica, distinguimos tres tipos de redes:

LAN (Local Area Networks): Redes de área local. Normalmente se establecen dentro de un mismo edicifio, utilizando principalmente la tecnología Ethernet.

MAN (Metropolitan Area Networks): Redes de área metropolitana. Su área de cobertura es una ciudad completa. Suelen implementarse por los proveedores de servicios de internet para dar acceso a sus usuarios, o bien por organismos que disponen de varias LAN dentro de una misma ciudad con el fin de interconectarlas.

WAN (Wide Area Networks): Redes de área extensa. Su área de cobertura es regional, nacional o internacional. Se trata de redes con gran capacidad de transmisión y la interconexión de las mismas permite formar el gran backbone o esqueleto de Internet.

Con independencia de su área de cobertura geográfica, pueden considerarse dos grandes grupos de redes en función de su interconectividad:

Intranets. Redes corporativas privadas que utilizan protocolos TCP/IP. Se trata de redes bajo la gestión de un mismo organismo cuya finalidad es dar servicio de interconexión a sus máquinas, de forma aislada al resto de Internet o bien estableciendo redes privadas virtuales (VPN, Virtual Private Networks) a través de la misma. Habitualmente las intranets disponen de un mecanismo de salida al resto de Internet.

Internet. Red mundial que engloba a las redes públicas de tránsito o acceso y a las intranets que disponen de capacidad de interconexión hacia el exterior.

Modelo OSI y protocolos TCP/IP

Un protocolo son una serie de reglas y especificaciones, aceptadas por todos, que los servidores deben seguir para intercambiar información. Estos protocolos pueden describir detalles de bajo nivel de las interfaces ordenador-ordenador o por el contrario intercambios de alto nivel entre programas de asignación de recursos. Normalmente, en este proceso de comunicación intervienen diversos protocolos con una estructura jerárquica, que pueden describirse de forma cómoda mediante el modelo de interconexión de sistemas abiertos (OSI). En la figura 1 se describe una simplificación de este modelo, que consta de cinco capas:

Aplicación

Transporte

Red

Enlace

Física

Fig.1: Simplificación del modelo de interconexión de sistemas OSI.

La capa de aplicación está formada por los programas utilizados directamente por el usuario para realizar la comunicación a través de Internet. Estos programas utilizan distintos protocolos en función del tipo de comunicación, como pueden ser:

Page 114: Introducción a Las Telecomunicaciones

114

o SMTP (Simple Mail Transfer Protocol) y POP3 para el envío de correos electrónicos.

o FTP (File Transfer Protocol) para la transferencia de ficheros.o Telnet, para la gestión remota de máquinas.o SSH (Secure Shell), similar a Telnet pero incluyendo cifrado en la comunicación.o HTTP (Hyper Text Transfer Protocol), para la visualización de páginas web.

En esta capa también residen algunos protocolos de routing, cuya funcionalidad se explicará en el capítulo 3. De cara al usuario final, los programas utilizados en Internet y que usan la capa de aplicación como interfaz hacia los protocolos TCP/IP se dividen en dos grandes grupos: servidores, encargados de ofrecer algún servicio (por ejemplo, distribuir correo electrónico o alojar una web) y clientes, que permiten nuestra conexión a dichos servicios (por ejemplo, el programa con el que recibimos/enviamos correo o el propio navegador).

La capa de transporte se encarga de posibilitar más de una comunicación entre dos máquinas, mediante la utilización de puertos. De esta forma, desde una misma máquina podemos por ejemplo ver páginas con un navegador y enviar correos electrónicos al mismo tiempo. Esta capa también ofrece dos medios de comunicación: orientado a conexión, asegurando el establecimiento y el mantenimiento de la misma, y no orientado a conexión, haciendo que la comunicación sea más rápida. Los datos generados por la capa de aplicación se agrupan o encapsulan en estructuras llamadas segmentos. Los protocolos que funcionan en esta capa son:

o TCP (Transmission Control Protocol): proporciona un servicio orientado a conexión.

o UDP (User Datagram Protocol): proporciona un servicio no orientado a conexión

La capa de red se encarga de asegurar la comunicación entre extremos, proporcionado los mecanismos necesarios para la transmisión de los datos a lo largo de toda la red. Los segmentos generados por la capa de transporte se agrupan en estructuras de datos conocidas como datagramas o paquetes. En Internet, el protocolo de red utilizado es el IP (Internet Protocol), que además se encarga de asignar una dirección o identificativo único a cada máquina de la red (dirección IP), de forma que los paquetes lleguen siempre al destino adecuado.

La capa de enlace se encarga de asegurar la comunicación entre dos nodos consecutivos de la red. En esta capa, los datagramas se agrupan formando tramas. Todos los dispositivos de la red también tienen su propia dirección en esta capa, conocida como dirección MAC (Medium Access Control). Esta capa está íntimamente relacionada con la física y en ella existe una gran variedad de protocolos, como por ejemplo:

o Ethernet, usado en redes de área local (LAN).o X.25, usado en redes de área extensa (WAN), también incluye funcionalidades de

red. La variante AX.25 es usada en las comunicaciones con radiopaquete.o Frame Relay, considerado el sucesor de X.25.o LAP-D, capa de enlace utilizada en la RDSI.o PPP (Point-to-Point Protocol), usado por ejemplo en el acceso telefónico a redes.o ATM (Asynchronous Transfer Mode), usado en redes de banda ancha, también

incluye funcionalidades de red.o SDH/SONET (Synchronous Digital Hierarchy/Synchronos Optical Network),

estándar optimizado para redes de banda ancha, que también incluye funcionalidades de red.

Page 115: Introducción a Las Telecomunicaciones

115

La capa física está formada por los medios físicos de transmisión de datos: ondas de radio, fibra óptica, cables de cobre, etc. La unidad básica de información en esta capa es el bit (BInary digiT).

El flujo de datos en el proceso de comunicación queda de la siguiente forma: en la máquina origen el usuario genera la información en el nivel de aplicación, que seencapsula a través de las capas de transporte, red y enlace, para ser transmitida al destino a través del medio físico. Una vez en el destino, se produce un proceso dedesencapsulación hasta que los datos llegan al nivel de aplicación del destinatario.

La gran ventaja de los protocolos TCP/IP se traduce en la posibilidad de interconectar redes heterogéneas, es decir, que utilicen medios distintos de transmisión a nivel físico. De esta forma, por ejemplo, es posible interconectar una red de fibra óptica con una de radio.

En los apartados - Internet a través de módem telefónico - y - Direcciones IP y dominios -, se ofrecen dos ejemplos para entender mejor el proceso: una comunicación de Internet a través de radiopaquete y una comunicación de Internet a través de módem telefónico.

TCP/IP sobre radiopaquete

Una de las posibilidades que ofrece el radiopaquete es la de utilizar protocolos TCP/IP para interconectar sus redes con otras que utilicen estos mismos protocolos, como pueden ser redes corporativas privadas o la propia Internet. En la figura 2 se muestra el escenario de las comunicaciones empleando TCP/IP sobre radiopaquete:

Fig.2: Escenario de comunicaciones TCP/IP sobre radiopaquete.

Supongamos que el usuario del PC_1 quiere mandar un email al usuario del PC_2. En el nivel de aplicación intervendrán los protocolos de correo electrónico SMTP y POP3. A nivel de transporte y para dar fiabilidad a la comunicación, se utilizará TCP. En el nivel de red intervendrá IP, implementado por los propios PCs, por lo que cada uno de ellos deberá tener su propia dirección IP. En el nivel de enlace se utiliza AX.25, implementado por las TNCs, para asegurar las comunicaciones PC_1—PC_2 y PC_2—PC3. Finalmente, el medio físico son las ondas de radio.

Internet a través de módem telefónico

La forma más común de acceso a Internet es mediante la utilización de un módem telefónico, proceso conocido como "Acceso telefónico a redes". A continuación se describe toda la secuencia de conexión a Internet y de transmisión de datos, en base al escenario descrito en la figura 3 y tomando como ejemplo la descarga de una página web del servidor al PC_1:

Page 116: Introducción a Las Telecomunicaciones

116

Fig.3: Escenario de acceso a Internet mediante módem telefónico

El proceso se inicia con el establecimiento de la conexión a Internet. Para ello, el usuario configura su PC_1 de forma que el módem realice una llamada telefónica al servidor de acceso del proveedor de servicios (ISP) que tenga contratado. Una vez que este servidor contesta a la llamada telefónica, queda asegurado el nivel físico entre el usuario y su proveedor. A continuación, entre ambos se establece una conexión de enlace utilizando el protocolo PPP, a través de la cual el servidor de acceso asigna una dirección IP al PC_1. En este momento el PC_1 ya dispone de nivel de red y por tanto puede acceder a Internet.

Una vez establecida la conexión IP, el usuario introducirá en su navegador la dirección a la que se quiere conectar, cuyo nombre realmente se corresponde con la dirección IP del servidor web correspondiente. De la correspondencia entre nombres y direcciones IP se encarga el servicio de resolución de dominios o DNS (Domain Name System), de forma transparente al usuario.

Al usar un navegador, la transferencia de datos a nivel de aplicación utiliza el protocolo HTTP, que será encapsulado en el protocolo de transporte TCP y éste a su vez en el nivel de red IP. Los datagramas IP se encapsularán en tramas de nivel de enlace PPP para llegar por la línea telefónica física hasta el servidor de acceso, que realizará un proceso de desencapsulación únicamente hasta el nivel IP, de forma que pueda determinar la dirección IP de destino. A continuación los encapsula nuevamente y los pasa a los dispositivos de enrutamiento de Internet, conocidos como routers, que los harán llegar hasta el servidor web final. La página web descargada viajará siguiendo el proceso inverso hasta el PC_1, donde podrá ser visualizada por el usuario.

Direcciones IP y dominios

La dirección IP identifica unívocamente a cada máquina conectada a una red IP, como puede ser Internet. Se trata de un número binario de 32 bits y para una mejor interpretación suele traducirse a decimal agrupándose en cuatro octetos, como se muestra en la figura 4:

Dirección IP binaria 11000011111010111010010000000000

Separación en octetos 11000011.11101011.10100100.00000000

Traducción a decimal 195.235.164.200

Fig.4: Interpretación de direcciones IP

Cada datagrama o paquete IP que viaja por Internet con los datos transmitidos por los usuarios, incluye en sus campos las direcciones IP de origen y de destino, de forma que se pueda asegurar una comunicación bidireccional.

Pero las direcciones IP contienen más información aparte de la identificación unívoca de cada máquina o host dentro de Internet. También sirven para identificar subredes completas dentro de

Page 117: Introducción a Las Telecomunicaciones

117

Internet, mediante la utilización de una máscara de red. Así pues, nuestra dirección IP identifica tanto a nuestra propia máquina como a la red donde nos encontramos. La máscara de red es igualmente un número binario de 32 bits, que indica qué parte de la dirección IP identifica a la red y qué parte identifica a la máquina dentro de esa red. Las máscaras de red también se traducen de binario a decimal para una mejor interpretación, como se muestra en la figura 5.

Máscara IP binaria 11111111111111110000000000000000

Separación en octetos 11111111.11111111.00000000.00000000

Traducción a decimal 255.255.0.0

Fig.5: Interpretación de máscaras de subred

Para identificar a cada parte, basta con realizar la operación lógica "AND" entre la dirección IP y la máscara, como puede verse en el ejemplo de la figura 6. Tras realizar esta operación lógica obtenemos la dirección de red. La parte remanente identificará a la máquina dentro de esa red:

Dirección IP 195.235.164.200

Máscara de red 255.255.0.0

Dirección IP en binario 11000011111010111010010000000000

Máscara de subred en binario

11111111111111110000000000000000

Resultado de operación AND

11000011111010110000000000000000

Dirección de subred 195.235.0.0

Identificativo del host .164.200

Fig.6: Obtención de la dirección de red y del identificativo del host

Otra forma común de identificar a una máscara de red se realiza mediante la "notación de barra", indicando el número de bits destinados a la parte de red. Así pues, una máscara 255.255.0.0 equivale a /16 y una máscara 255.255.255.0 equivale a /24.

Tradicionalmente, en función de los bits reservados para la parte de red y los bits reservados para la parte de host o equipo, se habla de clases de direcciones, que engloban los rangos mostrados en la tabla 1.

Clase A 1.0.0.0 – 126.0.0.0

Clase B 128.0.0.0 – 191.255.0.0

Clase C 192.0.0.0 – 223.255.255.0

Clase D A partir de 224.0.0.0

Clase E A partir de 240.0.0.0

Tabla.1: Direccionamiento utilizando clases.

Page 118: Introducción a Las Telecomunicaciones

118

Las clases A, B y C engloban el direccionamiento público y privado comúnmente utilizado en Internet y en las intranets. La clase D se utiliza en aplicaciones de multicast, en las que existe comunicación entre un grupo de máquinas al mismo tiempo (por ejemplo, en el caso de la videoconferencia). La clase E es experimental.

Dentro de una red, además de las de todos los equipos contenidos en la misma, existen dos direcciones especiales: la que identifica a la propia red y la dirección debroadcast, usada para alcanzar a todos los equipos de la red y usada por determinados protocolos de control y gestión de red.

Actualmente, para realizar un mejor aprovechamiento del espacio de direccionamiento disponible, en lugar de clases se utilizan máscaras de longitud variable (VLSM,Variable Length Subnet Masks), de forma que las máscaras de red se diseñan limitando a lo estrictamente necesario la parte de la dirección destinada a hosts. Para ello, un subconjunto de bits de la parte de la dirección detinada a host se destina a lo que se conoce como subred, lo cual permite que dentro de una red grande podamos formar subredes más pequeñas que se ajusten al número estricto de hosts que necesitamos.

Pongamos, por ejemplo, el caso de un enlace punto a punto entre dos máquinas. Nos harán falta cuatro direcciones dentro de esta subred punto a punto: la dirección de la propia subred, la dirección de cada uno de los dos equipos y la dirección de broadcast. En caso de que utilizásemos una clase C (/24) para este caso, tendremos 32-24=8 bits para la parte de host, lo cual nos daría un total de 28-2=254 equipos (se resta 2 porque la dirección de red y la de broadcast no se asignan a ningún equipo concreto). Como sólo tenemos 2 equipos, estaríamos desaprovechando 252 direcciones. En su lugar, podemos usar VLSM con una dirección /30, lo cual nos da 32-30=2 bits para la parte de host y por tanto 22-2=2 direcciones de equipos dentro de la subred, que es precisamente lo que necesitamos.

Como regla general, puede determinarse el número de subredes dentro de una red mediante la fórmula 2m, donde m es el número de bits que se toman de la parte de hostpara realizar subredes. De la misma forma, el número de hosts dentro de cada subred viene dado por la fórmula 2n-2, donde n es el número de bits destinados a la parte dehost.

El manejo de direcciones IP, aunque sea en formato decimal, puede resultar bastante incómodo para los usuarios. Es por ello que en Internet se utiliza el sistema de nombres de dominio o DNS (Domain Name System), encargado de traducir las direcciones IP a nombres legibles y fácilmente utilizables por los usuarios finales. De la implementación de este servicio se encargan los servidores DNS (Domain Name Servers), que tienen una organización jerárquica dentro de Internet, de forma que las peticiones de traducción de dirección IP a nombre o a la inversa van pasando de pequeños servidores a grandes servidores hasta su ejecución. Esta arquitectura distribuída ofrece una gran rapidez en el servicio de traducción.

Por ejemplo, si desde un navegador queremos visualizar una determinada página web no emplearemos la dirección IP del servidor (ej: 195.235.164.200), sino el nombre de la máquina (ej: www.boe.es). El servidor DNS que tengamos configurado en nuestra máquina se encargará de realizar la traducción.

Los nombres de dominio se estructuran jerárquicamente, de forma que se puede identificar a una máquina dentro de una red dentro de un país u organización. Por ejemplo, el nombre www.proteccióncivil.es nos da la siguiente información:

www: identifica a un servidor World Wide Web.

Page 119: Introducción a Las Telecomunicaciones

119

proteccioncivil.es: identifica al dominio de la Dirección General de Protección Civil de España. El ".es" se considera dominio de primer nivel, en este caso identificando a una red española.

Existen dos tipos de dominio de primer nivel, siendo distintos los organismos encargados de regular su asignación (ver apartado - Organismos reguladores -):

Dominios genéricos: .com, .org, .net, .edu, .gov, .mil, .int, .info, etc. Los dominios .com, .net, .org y .info están disponibles internacionalmente. Los dominios .edu, .gov y .mil están reservados para instituciones de EE.UU., y el dominio .int se utiliza para registrar organizaciones establecidas por tratados internacionales entre gobiernos.

Dominios de código de país: .es, .co, .uk, .de, .fr, .it, .ar, .mx, etc. Se regulan específicamente en cada país concreto. Estos dominios también se denominan dominios geográficos y siguen el estándar ISO3166.

Aprovechamiento del espacio de direccionamiento

Como ya se ha indicado, una dirección IP consiste en un número de 32 bits, lo cual, considerando la operativa dirección + máscara de red y el actual crecimiento exponencial de Internet, implica un rápido agotamiento de las direcciones disponibles. Para paliar este hecho, se utilizan diversas técnicas, entre las que cabe destacar el uso del ya visto direccionamiento de subredes (VLSM), el direccionamiento privado en intranets con traducción de direcciones para salir al resto de Internet, y la asignación dinámica de direcciones IP (DHCP).

El direccionamiento privado es un rango reservado de direcciones para su uso en intranets, es decir, direcciones IP que no serán visibles de forma directa al resto de Internet y que por tanto pueden reutilizarse en intranets distintas. Los rangos reservados se muestran en la tabla 2, según la recomendación RFC-1918 (las RFC o Requests For Comments son documentos técnicos elaborados por los organismos públicos de control de Internet).

10.0.0.0 (clase A completa)

172.16.0.0 – 172.31.0.0

192.168.0.0 – 192.168.255.0

Tabla.2: Rangos de direccionamiento privado según RFC-1918.

Dentro de la intranet que utiliza direccionamiento privado habrá una máquina de propósito específico que realizará las funciones de proxy, es decir, traducción de direcciones IP públicas a privadas y viceversa (NAT, Network Address Translation), así como traducción de números de puerto UDP/TCP hacia dentro y hacia fuera de la intranet (PAT,Port Address Translation).

Finalmente, la mayoría de los ISP proveen a sus usuarios conmutados (no fijos, por ejemplo los que se conectan periódicamente a través de tarifas planas) de una dirección IP dinámica que es asignada en el momento de realizarse la conexión mediante el protocolo DHCP (Dynamic Host Configuration Protocol), y que "muere" en el momento de realizarse la desconexión, quedando por tanto reutilizable para su asignación a otro usuario.

Arquitectura de Internet

Page 120: Introducción a Las Telecomunicaciones

120

En este capítulo se va a describir la arquitectura global de Internet y el proceso de encaminamiento de los datagramas o paquetes IP para llegar desde su origen hasta su destino.

Acceso

La conexión de un usuario cualquiera a Internet se produce mediante una red de acceso, controlada y administrada por un Proveedor de Servicios de Internet (PSI o ISP,Internet Services Provider). El acceso en sí se puede producir mediante el empleo de tecnologías diversas, como la Red Telefónica Básica (RTB), la Red Digital de Servicios Integrados (RDSI), la Línea Asimétrica Digital de Abonado (ADSL, Asymetric Digital Subscriber Line) o líneas dedicadas tipo X.25, Frame Relay, etc. Por regla general, el precio del acceso es función del tiempo de conexión y de la velocidad de transmisión ofrecida. En la tabla 3 se muestra una comparación orientativa de las velocidades de acceso proporcionadas por algunas tecnologías actuales.

Tecnología Velocidad de acceso

RTB Hasta 56 kbps

RDSI 64-128 kbps

ADSL Hasta 2 Mbps

Frame Relay 64 kbps – 2 Mbps

X.25 300 bps – 2 Mbps

Tabla.3: Comparativa de velocidades de acceso de distintas tecnologías

El Proveedor de Servicios, una vez establecida la conexión, asigna una dirección IP a la máquina que se conecta, de forma que quede completamente visible para el resto de máquinas de Internet.

Tránsito

La red de acceso del ISP se conecta a los grandes backbones de tránsito de Internet, operados casi en su totalidad por compañías privadas. Estas redes ofrecen un servicio de interconexión global entre ellas y con otros ISP, alcanzándose de esta forma un mallado mundial. Entre las redes de acceso y tránsito existen tres tipos de relaciones, que definen la arquitectura general de Internet:

Clientes. Los pequeños ISP son clientes de los grandes proveedores, anunciándoles la información necesaria para alcanzar a los usuarios que acceden a través de sus redes.

Proveedores. Las grandes redes globales proveen a los ISP de un servicio de interconexión con otros ISP del mundo.

Peers. Algunos ISP de tamaño mediano y grande se interconectan directamente para intercambiar información de direcciones IP sin que intervenga un proveedor de tránsito. De esta forma se consigue una mayor rapidez al acceso de los contenidos dentro de una determinada zona geográfica, como un país o un continente. De la misma forma, los proveedores de tránsito mantienen una relación de "peering" entre ellos para el intercambio de información IP. Las relaciones de peering pueden ser mediante enlaces directos o mediante puntos de interconexión públicos (IX, Internet Exchanges).

En la figura 7 se muestra una visión general de la arquitectura de Internet y el tipo de relación entre las distintas redes que la componen.

Page 121: Introducción a Las Telecomunicaciones

121

Fig.7: Arquitectura de interconexión global de Internet

Cualquier red que se interconecte con otras para formar la Internet y que esté bajo un mismo dominio administrativo conforma lo que se denomina sistema autónomo (AS,Autonomous System), y se identifica con un número específico asignado por los organismos reguladores de Internet. En la figura 7, todos los ISP y proveedores se identificarían con su propio número de sistema autónomo.

Routing

El proceso de encaminamiento de los datagramas IP a través de Internet se conoce con el nombre de encaminamiento o routing, y corre a cargo de unas máquinas de propósito específico llamadas routers. Un router es un dispositivo con varios interfaces que maneja tablas de rutas, las cuales contienen información para alcanzar todos los destinos de Internet. Cuando un datagrama llega al router por uno de sus interfaces, se analiza la dirección IP destino, se consulta la tabla de rutas para identificar el próximo router en el camino hacia el destino, y se envía por el interfaz correspondiente. De esta forma, los datagramas van pasando de router en router a través de Internet, hasta llegar a su destino. La información de retorno puede seguir la misma ruta u otra distinta, hasta alcanzar nuevamente al origen.

Los routers tienen la capacidad de aprender nuevas rutas y de anunciarlas al resto de routers. Mediante la utilización de algoritmos de routing seleccionan las mejores para llegar a cada destino, en función de métricas como el número de saltos, el retardo o el ancho de banda de los enlaces.

Page 122: Introducción a Las Telecomunicaciones

122

Fig.8: Encaminamiento o routing de datagramas en Internet.

En la figura 8 se muestra un ejemplo simplificado en el que un usuario de cualquier parte del mundo conectado a su ISP (identificado como AS3) quiere acceder a la web www.proteccioncivil.es. Su ISP se conecta a un proveedor de tránsito AS1 que dispone de varios routers, estableciéndose la ruta óptima hacia el destino a través de los routers 3 y 2, de forma que se llega al sistema autónomo final AS2 donde se encuentra el servidor que aloja la web de destino.

En caso de fallo de alguno de los enlaces implicados en la ruta origen-destino, los routers recalcularían la ruta óptima a través de otros enlaces disponibles, de forma que la conectividad no se pierda. Gracias a este proceso y a la gran redundancia de enlaces existente, Internet es una red muy robusta ante todo tipo de escenarios de fallo. En el ejemplo de la figura 8, si falla el enlace directo entre el router 3 y el router 2, automáticamente los datagramas serían encaminados a través de la ruta router 3 – router 1 – router 2 para llegar al destino.

Las máquinas alojadas en subredes pequeñas disponen de información para alcanzar a las otras máquinas de su misma subred, y por regla general de una ruta por defectoa través de un router para alcanzar al resto de Internet. Los routers de los grandes backbones de tránsito suelen manejar información de redes en lugar de hosts específicos, de forma que las tablas de rutas sean más manejables. Actualmente (2002), un router de un backbone de tránsito maneja unas 110.000 rutas. El router es capaz de identificar a qué red pertenece la dirección IP del host de destino y realizar el encaminamiento apropiado hacia la misma. Dentro de la red de destino, otro router se encargará de realizar el encaminamiento hacia el host final.

Redes privadas virtuales

En ocasiones, una entidad que dispone de puntos de presencia (PoP, Point of Presence) en zonas geográficas distintas, requiere la interconexión de sus redes de forma privada y segura. Es posible realizar esta configuración mediante la implementación de redes privadas virtuales (VPN, Virtual Private Networks).

Una VPN, cuya topología típica se muestra en le figura 9, permite la interconexión de intranets distantes mediante la utilización de túneles seguros a través de Internet. Recibe el calificativo de

Page 123: Introducción a Las Telecomunicaciones

123

"virtual" porque se establece a través de caminos dentro de las redes de los ISP y proveedores de tránsito de Internet, cuyas rutas son dinámicas en función de las necesidades del routing, pero que de cara al usuario equivalen a un enlace punto a punto entre sus intranets distantes

Fig.9: Redes privadas virtuales (VPN).

La configuración de las VPN se realiza en los routers de la red del proveedor que ofrece este tipo de servicios, estableciéndose una serie de túneles virtuales a través de los mismos para asegurar la conexión entre PoPs. En las VPN el grado de seguridad puede ser máximo si se utilizan técnicas de cifrado en la transmisión de los datos.

Organismos reguladores

Actualmente la regulación de Internet se realiza a nivel nacional mediante organismos gubernamentales y a nivel internacional mediante organismos supranacionales participados por los organismos dependientes de cada país. Los ISP han de adaptarse a la normativa nacional de su país y a las reglas establecidas internacionalmente por los organismos competentes. Básicamente, la regulación afecta a los siguientes campos:

Asignación de direccionamiento IP público. Asignación de dominios. Establecimiento de políticas compatibles de routing. Mecanismos de regulación para la protección de los usuarios.

Regulación de Internet en España

En España, la asignación de nombres de dominio y del dominio de código de país ".es" está regulada por la entidad pública empresarial "RED.ES", antigualmente "Red Técnica Española de Televisión". Esta entidad está adscrita al Ministerio de Ciencia y Tecnología, a través de la Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información, y fundamentalmente cumple dos funciones:

Gestión del registro de nombres y direcciones de dominio de Internet bajo el código de país ".es", correspondiente a España.

Page 124: Introducción a Las Telecomunicaciones

124

Participación en los organismos internacionales de coordinación de la gestión de recursos de Internet.

El alta de dominios genéricos puede realizarse a través de diversas entidades de registro. Un listado de las mismas puede obtenerse en http://www.internic.net o enhttp://www.icann.org.

Regulación de Internet a nivel mundial

El organismo supranacional encargado de la administración, en el ámbito mundial, de los nombres y direcciones numéricas de Internet es el ICANN (http://www.icann.org). Asimismo, existen otros organismos regionales reguladores de las políticas de routing y de las redes IP, como:

RIPE (Réseaux IP Européens) para la región de Europa: http://www.ripe.net. ARIN (American Registry for Internet Numbers) para la región de

Norteamérica: http://www.arin.net. LACNIC (Latin American and Caribbean IP address Regional Registry) para la región de

Latinoamérica y el Caribe: http://www.lacnic.org. APNIC (Asia-Pacific Network Information Centre) para la región Asia-

Pacífico: http://www.apnic.net. AfriNIC (Africa Network Information Center) para la región de África: http://www.afrinic.org.

Otros organismos, como el IETF (Internet Engineering Task Force, http://www.ietf.org) se encargan de la elaboración de standards utilizables en Internet.

Clasificación de los códigos de países

Clasificación de los códigos de países

La lista siguiente recoge la clasificación alfabética de los códigos de los países. En cuanto a las normas que establecen los códigos que deben utilizarse y el orden oficial de enumeración. Para la denominación de los países se ha utilizado la forma preconizada por la Comisión Europea (nomenclatura toponímica internacional, anexo A5).

Código País

AD Andorra

AE Emiratos Árabes Unidos

AF Afganistán

AG Antigua y Barbuda

AL Albania

AM Armenia

AO Angola

AR Argentina

AT Austria

AU Australia

Page 125: Introducción a Las Telecomunicaciones

125

AX Islas Åland

AZ Azerbaiyán

BA Bosnia y Herzegovina

BB Barbados

BD Bangladesh

BE Bélgica

BF Burkina Faso

BG Bulgaria

BH Bahréin

BI Burundi

BJ Benín

BN Brunéi

BO Bolivia

BR Brasil

BS Bahamas

BT Bhután

BW Botsuana

BY Belarús

BZ Belice

CA Canadá

CD República Democrática del Congo

CF República Centroafricana

CG Congo

CH Suiza

CI Costa de Marfil

CK Islas Cook

CL Chile

CM Camerún

CN China

CO Colombia

CR Costa Rica

CS Serbia y Montenegro (1)

CU Cuba

CV Cabo Verde

CY Chipre

CZ Chequia

DE Alemania

DJ Yibuti

DK Dinamarca

DM Dominica

Page 126: Introducción a Las Telecomunicaciones

126

DO República Dominicana

DZ Argelia

EC Ecuador

EE Estonia

EG Egipto

EL Grecia

ER Eritrea

ES España

ET Etiopía

FI Finlandia

FJ Fiyi

FM Micronesia

FR Francia

GA Gabón

GD Granada

GE Georgia

GH Ghana

GM Gambia

GN Guinea

GQ Guinea Ecuatorial

GT Guatemala

GW Guinea-Bissau

GY Guyana

HN Honduras

HR Croacia

HT Haití

HU Hungría

ID Indonesia

IE Irlanda

IL Israel

IN India

IQ Iraq

IR Irán

IS Islandia

IT Italia

JM Jamaica

JO Jordania

JP Japón

KE Kenia

KG Kirguistán

Page 127: Introducción a Las Telecomunicaciones

127

KH Camboya

KI Kiribati

KM Comoras

KN San Cristóbal y Nieves

KP Corea del Norte

KR Corea del Sur

KW Kuwait

KZ Kazajstán

LA Laos

LB Líbano

LC Santa Lucía

LI Liechtenstein

LK Sri Lanka

LR Liberia

LS Lesotho

LT Lituania

LU Luxemburgo

LV Letonia

LY Libia

MA Marruecos

MC Mónaco

MD Moldova

MG Madagascar

MH Islas Marshall

MK (2) Antigua República Yugoslava de Macedonia

ML Malí

MM Myanmar

MN Mongolia

MR Mauritania

MT Malta

MU Mauricio

MV Maldivas

MW Malawi

MX México

MY Malasia

MZ Mozambique

NA Namibia

NE Níger

NG Nigeria

NI Nicaragua

Page 128: Introducción a Las Telecomunicaciones

128

NL Países Bajos

NO Noruega

NP Nepal

NR Nauru

NU Niue

NZ Nueva Zelanda

OM Omán

PA Panamá

PE Perú

PG Papúa Nueva Guinea

PH Filipinas

PK Pakistán

PL Polonia

PT Portugal

PW Palaos

PY Paraguay

QA Qatar

RO Rumanía

RU Rusia

RW Ruanda

SA Arabia Saudí

SB Islas Salomón

SC Seychelles

SD Sudán

SE Suecia

SG Singapur

SI Eslovenia

SK Eslovaquia

SL Sierra Leona

SM San Marino

SN Senegal

SO Somalia

SR Surinam

ST Santo Tomé y Príncipe

SV El Salvador

SY Siria

SZ Suazilandia

TD Chad

TG Togo

TH Tailandia

Page 129: Introducción a Las Telecomunicaciones

129

TJ Tayikistán

TL Timor Oriental

TM Turkmenistán

TN Túnez

TO Tonga

TR Turquía

TT Trinidad y Tobago

TV Tuvalu

TW Taiwán

TZ Tanzania

UA Ucrania

UG Uganda

UK Reino Unido

US Estados Unidos

UY Uruguay

UZ Uzbekistán

VA Santa Sede / Estado de la Ciudad del Vaticano

VC San Vicente y las Granadinas

VE Venezuela

VN Vietnam

VU Vanuatu

WS Samoa

YE Yemen

ZA Sudáfrica

ZM Zambia

ZW Zimbabue

(1) Tras la primera mención del nombre «Serbia y Montenegro» o del código ISO «CS», inclúyase la nota siguiente: «Incluido Kosovo, bajo los auspicios de las Naciones Unidas, en virtud de la Resolución 1244 del Consejo de Seguridad de 10 de junio de 1999.»

(2) El código ISO (MK) ha sido aceptado, acompañado de una nota con el siguiente texto: «Código provisional que no afecta en absoluto a la denominación definitiva del país, que se acordará tras la conclusión de las negociaciones actualmente en curso sobre este tema en las Naciones Unidas.»