Introducción a la Informática. Diplomatura Gestión y Administración Pública. Facultad Derecho

Capítulo 9. Redes y comunicaciones



Códgo QR. Redes y comunicaciones. IAGP
Introducción
Redes de ordenadores y sus tipos
Telefonía
Sistema de posicionamiento global

Presentación de resumen



¿Sabes que el programa LibreOffice.org Writer es un producto equivalente a MS-OpenOffice, pero gratuito?

Se puede descargar de http://es.libreoffice.org/.

También hay apuntes sobre él en esta web.

Ya he leído, cierra la ventana

9.1 Introducción

Este capítulo se dirige a usuarios de ordenadores sin conocimientos previos en redes y comunicaciones. No ofrece un tratamiento exhaustivo, sin embargo aporta una base suficiente sobre los conceptos generales y tecnologías habituales.

Durante el siglo XX se desarrollaron una gran variedad de redes de comunicaciones, hasta alcanzar la situación actual, en la que rodean la Tierra y se extienden por el espacio. Radio, televisión, teléfono e internet, permiten que miles de millones de personas estén en contacto, habitualmente salvando grandes distancias.

Enlaces recomendados:

Televisión Digital Terrestre (TDT)
11 mitos de la televisón en alta definición desmentidos

Aunque los primeros sistemas de comunicación de amplia difusuión, como el telégrafo , utilizaban un código telegrafo digital (código Morse) los desarrollos posteriores, necesarios para dar lugar a las redes de comunicación en el siglo pasado se dirigieron hacia la transmisión de voz e imagen de forma analógica. Con la amplia difusión de los ordenadores, la situación ha cambiado de nuevo, la información se envía en forma digital. La combinación de ordenadores y redes de comunicaciones (TIC) es una de las principales áreas de desarrollo en la actualidad, teniendo un impacto tan profundo en el estilo de vida de millones de personas como lo tuvieron la radio y el teléfono en su momento.

Un proceso cualquiera de comunicación está constituido por un EMISOR que envía INFORMACIÓN a través de un CANAL de transmisión, que es recibida por un RECEPTOR. Por tanto, se puede hablar de comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc.

La información no es transmitida tal como la emitimos, sino que se utilizan unos CÓDIGOS comprensibles por el emisor y el receptor, y que se comunican mediante SEÑALES físicas. Los códigos serán el lenguaje utilizado y las señales son las las ondas electromagnéticas, sonoras, luminosas, etc. La utilización de códigos y señales precisa que la información sea CODIFICADA en la transmisión y DECODIFICADA en la recepción.

El objetivo de un proceso de comunicación es que la información que se desea transmitir sea idéntica a la que se recibe. Si falla cualquiera de los elementos que intervienen (transmisor, canal de transmisión o receptor), se producen pérdidas de información; para intentar evitarlo, se repiten los mensajes en su totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) que permitan reconstruirla en caso de eror en el proceso. La comunicación suele ser en ambas direcciones alternativa o simultáneamente, convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puede extrapolar a la informática con la intervención de diferentes máquinas que comunicarán la información a diversos tipos de receptores.

Las principales razones de ser de las comunicaciones en informática son:
  • Necesidad de enviar y recibir datos.

  • Compartir recursos. No todos los usuarios de un sistema informático van a poder disponer de un sistema adecuado a sus necesidades, por lo que es útil compartir tanto los equipos como los programas.

  • Compartir carga. Consiste en distribuir el trabajo que supone el proceso de datos entre varios ordenadores (por ejemplo, en un banco en hora punta, el ordenador central puede pedir gestionar que otro le "ayude", distribuyendo así la carga de trabajo).
Estas necesidades han conducido al gran desarrollo de las redes de comunicaciones. Es posible conectar ordenadores y puestos de trabajo conocidos como terminales, que pueden ser "tonto" o "inteligente", el primero consiste en un monitor y un teclado, y el segundo suele ser un microordenador, se diferencian en que el terminal "inteligente" posee capacidad de proceso de información de forma autónoma. Dentro de los del primer tipo destacan los conocidos como Thin client o "cliente ligero" que es un ordenador cliente o un software de cliente en una arquitectura de red cliente-servidor que depende primariamente del servidor central para las tareas de procesamiento, y principalmente se enfoca en transportar la entrada y la salida entre el usuario y el servidor remoto, un ejemplo del segundo tipo y que es de utilidad para rentabilizar ordenadores personales en horarios fuera de uso, como por ejemplo los de las aulas de informática de una universidad, como el proyecto FORMIGA/GFLUXO en la universidad de Santiago de Compostela (Galicia), que los habilita para cálculo científico. Actualmente se está simulando mediante el método de Monte Carlo transistores MOSFET de silicio sobre un aislante, dispositivos de gran interés en electrónica digital.

Las redes se distinguen primeramente por la distancia existente entre sus terminales, clasificándose en:
  • WAN: Redes de Area Remota que interconexionan sistemas geográficamente dispersos.

  • LAN: Redes de Area Local que conectan sistemas próximos.

  • PAN: Redes de Area Personal, que conectan sistemas muy próximos.
Como medio físico o canal de comunicación se usan el aire o cables (par trenzado, coaxial o fibra óptica). No se puede hablar de que uno sea mejor que otro, sin considerar las circunstancias, sino de cuál es el más adecuado a cada necesidad y dependerá de las prestaciones, coste, fiabilidad de instalación y capacidad de integración con otros sistemas.

Se diferencian también por la velocidad de transmisión. Esta se mide en bits por segundo, magnitud frecuentemente confundida con baudios. El baudio (toman su nombre del ingeniero francés Jean Maurice Baudot) es una unidad de velocidad de señalización, o de modulación, igual al número de condiciones discretas o símbolos que se suceden en la línea, por segundo. La velocidad de transmisión en baudios coincide con la velocidad de transmisión en bit/s, sólo si cada símbolo representa un bit. Un baudio es el inverso del intervalo del pulso más corto de señalización medido en segundos.

Un modem a una velocidad de 2400 bit/s, mediante un sistema de modulación cuaternario por modulación de fase, transmite 1200 símbolos por segundo, y por lo tanto la velocidad de modulación es de 1200 baudios. Un sistema que no emplee bit de parada ni de arranque tiene una velocidad de transmisión en bit/s igual a la velocidad de modulación en baudios. Por ejemplo un sistema de transmisión de 5 bit, con un pulso de arranque de 13.5 ms y un pulso de parada de 19 ms, con una duración total par el carácter de 100 ms, tiene una velocidad de señalización o modulación de:

1/(13.5*10-3) = 74 baudios

y una velocidad de transmisión de:
5/(100*10-3) = 50 bit/s

En conexiones a internet el ancho de banda es la cantidad de información o de datos que se puede enviar a través de una conexión de red en un período de tiempo dado. El ancho de banda se indica generalmente en bits por segundo (bps), kilobits por segundo (kbps), o megabits por segundo (mbps). Es común denominar ancho de banda digital a la cantidad de datos que se pueden transmitir en una unidad de tiempo. Por ejemplo, una línea ADSL de 512 kbps puede, teóricamente, enviar 512000 bits (no bytes) por segundo. Esto es en realidad la tasa de transferencia máxima permitida por el sistema, que depende del ancho de banda analógico, de la potencia de la señal, de la potencia de ruido y de la codificación de canal.

Las líneas pueden ser de los tipos siguientes:
  • Líneas de banda estrecha (banda baja),

  • Líneas de banda de voz (banda media),

  • Líneas de banda ancha (banda alta).
El intercambio de información entre los distintos dispositivos tiene que estar regido por unos PROTOCOLOS, o lenguajes de diálogo que lo regulen. Consisten en un conjunto de normas comunes para establecer la comunicación tanto para el receptor como para el emisor. Al comienzo de la industria informática, cada fabricante intentaba diseñar una serie de procedimientos, con los cuales podía controlar la información y así monopolizar el mercado de las ventas de los distintos elementos que componen la informática. Con el paso del tiempo esta industria se ha extendido tanto, que surgió la necesidad de compatibilizar los procedimientos de la información, actualmente existen asociaciones de fabricantes de ordenadores, y organizaciones internacionales como por ejemplo ISO, que establecen unas recomendaciones sobre los procedimientos normalizados de comunicación, que van a gobernar ese intercambio de información. Un protocolo es pues, un conjunto de procedimientos normalizados o estandarizados que gobiernan el intercambio de comunicaciones, acuerdos o convenios que se adoptan para poder establecer una comunicación correcta; afectan a las frecuencias de las señales, reconocimiento de la conexión, código de recepción y emisión, control de errores, control de la sincronía, inicio de las operaciones, establecimiento de las rutas por las que circularán los mensajes, asegurar que los datos han sido recibidos, etc.

9.2 Redes de ordenadores y sus tipos

Una red de ordenadores es un conjunto de equipos informáticos y/o de comunicaciones que pueden almacenar y procesar datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores, terminales, impresoras, dispositivos de almacenamiento, teléfonos, máquinas industriales y cámaras, entre otros.

En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.

Como se ha visto las redes aportan beneficios, los más habituales son:
    A) Compartir información de forma flexible

    Una red de ordenadores permite a los usuarios compartir casi instantáneamente y sin esfuerzo la información. Por ejemplo, un editor de libros, escritores, asociaciones de editores y artistas pueden necesitar trabajar conjuntamente en una publicación. Mediante una red pueden compartir los mismos archivos electrónicos, cada uno desde su ordenador y transferir y copiar archivos. Estos pueden añadir material simultáneamente a los ficheros, o eliminar partes, sin interrumpir el trabajo de los demás. Las ventajas son evidentes, como por ejemplo con el programa Google docs, sienso un caso sencillo de la denominada computación en la nube o cloud computing.

    B) Libertad para elegir la herramienta adecuada

    Si se opta por un entorno de red abierto, esto añade otra dimensión a las capacidades de compartir información inherente a la red. Esto permite trabajar con el equipamiento que más satisfaga a las necesidades del usuario. Por ejemplo en una red abierta a los estándares internacionales, pueden estar trabajando unos usuarios bajo Windows, mientras que otros lo pueden estar haciendo simultáneamente bajo Linux, en estaciones de trabajo o desde otros PCs. Por ejemplo, si estamos en un ordenador bajo Windows y deseamos usar Linux, es suficiente con acceder a una virtualización del sistema operativo deseado, un caso real es el sistema EVA de la Universidad de Murcia, que nos permite acceder desde cualquier punto de internet a cualquier aula de informática o aplicación existente en la universidad, usando nuestro ordenador únicamente como una terminal.

    C) Reducción de costos al compartir equipamiento

    Una razón muy importante para disponer de una red de área local es el compartir equipamiento, lo cual implica grandes beneficios. Por ejemplo, en una red de veinte microordenadores, se puede disponer de una impresora láser en color, para todo el conjunto, por lo que el ahorro sería considerable frente a la opción de que los veinte equipos no estuvieran conectados en red, e incluso dado el coste de este tipo de impresoras sería económicamente inviable el que cada usuario tuviera una de estas impresoras. Lo mismo que con la impresora de alta calidad, se puede concluir de otros dispositivos, como por ejemplo un grabador holográfico, un escaner de alta velocidad o un sistema de fax. En una situación de red se puede compartir cada uno de estos equipos, mientras que aisladamente sería improbable el que dispusiera cada usuario de ellos.

    D) Uso flexible de la potencia de cálculo

    Una de las ventajas más claras de una red es la posibilidad de usar la potencia de un equipo de la red, distinto al que estamos trabajando. Por ejemplo si se han de realizar cálculos matemáticos o de ingeniería, se podrá acceder desde un punto de red, al equipo de dicho entorno que tenga potencia y rapidez suficiente para realizarlos en un tiempo razonable. Otra alternativa es el procesamiento paralelo, es decir resolver el problema de cálculo mediante el trabajo simultáneo de varios equipos de la red. Algunos programas son demasiado complicados para poder ejecutarse en microordenadores individuales, o tardarían mucho tiempo, pero mediante el procesamiento paralelo entre los diversos equipos de la red se aceleraría mucho el cálculo. Un ejemplo es el proyecto BOINC, para compartir ordenadores de forma desinterasada, y otro intento reciente que ha fracasado fue el buscador Wikia.

    E) Comunicación efectiva y fácil con todo el mundo

    Mediante las redes de área geográficas, se pueden interconectar redes de área local a escala mundial. De esta forma se puede transferir información, prácticamente de forma instantánea, a cualquier lugar, como por ejemplo los mensajes a través del correo electrónico.

Topología de red y tipos de redes

Datos frente a información, en el lenguaje ordinario se intercambian ambos términos, técnicamente no son lo mismo. Datos son entidades con un significado dado, son la forma de representar la información, pero no la información en sí misma, para propósitos habituales la información son datos decodificados en forma legible. Por ejemplo, los datos de un fichero se pueden decodificar y mostrar en una pantalla de ordenador o trasladarlos a una impresora.

¿Cómo se transfieren los datos en una red?, para transferir señales entre ordenadores se necesitan: un medio de transmisión para portar las señales y dispositivos para enviar y recibir las señales.
    A) Medios de transmisión de la red

    Las señales eléctricas se generan como ondas electromagnéticas (señales analógicas) o como una secuencia de pulsos de voltajes (señales digitales). Para propagarse, una señal debe viajar a través de un medio físico, el denominado medio de transmisión. Hay dos tipos de medios de transmisión, guiados y no guiados.

    Los medios guiados confinan las señales a un canal de transmisión estrecho en el que se puede predecir su comportamiento. Son habituales, los cables de par trenzado (como los telefónicos), cables coaxiales (como los de las antenas de televisión) y conducciones de fibra óptica. Un sistema poco común es transferir la información a através de las redes eléctricas (PLC), actualmente se usa dentro de una vivienda para poder conectarse a internet desde cualquier clavija.

    Una nueva tecnología conocida como BIG (Broadband in gas) surgió como resultado de un hallazgo casual, consecuencia de los esfuerzos de una distribuidora de gas, por encontrar un medio eficaz de prevenir y detectar fugas de gas en sus tuberías utilizando la transmisión de radio frecuencia sobre los tubos metálicos para localizar los puntos de huida del gas o aquellos que pudieran ser susceptibles de escapes. Los estudios que con este fin se realizaron desvelaron la posibilidad de introducir una señal portadora para otro tipo de información y con distinta finalidad, de forma inocua para el combustible que circula por el mismo conducto y susceptible de ser explotada comercialmente. Esquemáticamente, la transmisión de señal en BiG consiste en una estación emisora de señal radioeléctrica que se encarga de recibir la señal a transmitir, introducir dicha señal sobre la tubería de la conducción del gas, propagar la señal aprovechando las características conductivas del metal utilizado en la fabricación de las tuberías de gas y extraerla posteriormente, mediante un dispositivo final instalado en casa del abonado, normalmente colocado junto al contador. Experimentalmente se han logrado velocidad de hasta 6 Gbps.

    Los medios no guiados son partes del entorno natural, a través de los que se transmiten las señales bajo forma de ondas. Las frecuencias habituales se corresponden con el espectro de radioondas (VHF y microondas) u ondas de luz (infrarrojo). Un sistema novedoso, aunque con limitaciones es la transmisión de información a través de señales emitidas por luminarias de LEDs (diodos emisores de luz).

    Para planificar una red de ordenadores, se exige un medio de transmisión, o combinación de ellos, basándose en las circunstancias físicas, la construcción de la red y las prestaciones que se requieren de ella. Un objetivo habitual es guardar el coste al mínimo, sobre la base de las necesidades planteadas.

    B) Dispositivos de transmisión y recepción

    Una vez que se tiene un medio de transmisión, se necesitan los dispositivos que propaguen y reciban las señales a través del medio elegido. Estos pueden ser: adaptadores de red, repetidores, concentradores, transmisores diversos y receptores.

    Adaptadores de red

    Se fabrican de diversas formas, la más habitual es una placa de circuito impreso que se instala directamente en un zócalo de expansión, otros están diseñados para microordenadores portátiles, por lo que consisten en un dispositivo pequeño, que se conecta a la salida de impresora, a una ranura PCMCIA o a la interface USB, sin embargo los nuevos ordenadores lo llevan incluido en la placa base. Estos adaptadores se fabrican en diversas versiones, de forma que se puedan conectar a cualquier tipo de medio guiado. También se pueden conectar a dispositivos que puedan transmitir mediante medios no guiados, como las redes WIFI.

    Repetidores y Hubs

    Se usan para incrementar las distancias a las que se puede propagar una señal de red. Cuando una señal viaja a través de un medio encuentra resistencia y gradualmente se hace más débil y distorsionada. Técnicamente este proceso se denomina atenuación, así, si introducimos una señal eléctrica con una potencia P1 en un circuito pasivo, como puede ser un cable, esta sufrirá una atenuación y al final de dicho circuito obtendremos una potencia P2. La atenuación será igual a la diferencia entre ambas potencias. Sin embargo, la atenuación no suele expresarse como diferencia de potencias sino en unidades logarítmicas como el decibelio, de manejo más cómodo a la hora de efectuar cálculos.

    Puentes (Bridges)

    Permiten conectar una LAN a otra red con diferentes protocolos en los niveles físico y de enlace, pero siempre que en los niveles superiores usen los mismos protocolos.

    Pasarelas (Gateways)

    Se usan para conectar una LAN a otra red que utilice otros protocolos. Se emplean para conexión entre diferentes redes locales, o entre locales y ampliadas (WAN).

    Concentradores

    Se usan en redes para proporcionar un punto común de conexión para dispositivos. Todos los concentradores tienen repetidores

    Transmisores de microondas

    Los transmisores y receptores de microondas, especialmente satélites, se usan para transmitir señales a grandes distancias a través del espacio. En EE.UU. las principales bandas de microondas autorizadas para telecomunicaciones fijas están en el rango de frecuencias de dos a 40 GHz. Las licencias están concedidas para subrangos inferiores, por ejemplo el Gobierno Federal tiene una en el rango de 7.125 a 8.40 GHz, mientras que el rango de 10.550 a 10.680 está adjudicado a usuarios privados. A continuación se muestra un esquema del espectro electromagnético completo:

    Espectro Electromagnético. Apuntes Introducción a la Informática. UMU


    La siguiente figura muestra el proceso de transmisión que sufren las ondas en la atmósfera:

    Ondas en la atmósfera. Apuntes Introducción a la Informática. UMU

    Transmisores infrarrojos y láser

    Son análogos a los de microondas. También usan la atmósfera como medio, sin embargo sólo son válidos para distancias cortas, ya que la humedad, niebla, obstáculos y otros fenómenos ambientales pueden causar problemas de transmisión.
Modems

Un modem convierte señales digitales a analógicas (audio) y viceversa, mediante la modulación y desmodulación de una frecuencia portadora. Se usan para transmitir las señales a través de líneas telefónicas. Las prestaciones de velocidad se han ido mejorando paulatinamente, hasta los últimos comercializados de 56 kbaudios (actualmente un producto que casi no se usa). Una tecnología que soporta velocidades superiores y gran calidad es la denominada ISDN o RDSI (Red Digital de Servicios Integrados), que como su nombre indica usa líneas telefónicas digitales, hasta hace pocos años era el mejor sistema para conectarse a internet, actualmente ha quedado obsoleta. Este sistema consta de dos líneas de 64 k de velocidad que se pueden, mediante software, usar como una de 128 k, aunque como es lógico se paga la transmisión por las dos líneas (es decir cuesta el doble).

Una variante es la conocida como ADSL, (Asymmetrical Digital Subscriber Line), útil para el acceso a internet, pues permite la transmisión de información con una velocidad de hasta 8 Mb/s, y es interoperativa con el sistema RDSI. Algunas variantes recientes como ADSL2+ transmiten con velocidad teórica de hasta 20 Mb/s.


Enlaces recomendados:

Conexion internet con banda ancha, ADSL, ADSL2
Ahorrar en la factura telefónica gracias a la banda ancha (cable y ADSL)
Derechos del usuario de telecomunicaciones
Banda ancha para todos (2004)



Para líneas xDSL hay cuatro tipos principales de posibilidades:

- DSL asimétrico (ADSL), en el que las velocidades de transmisión son distintas según el sentido.

- DSL simétrico (SDSL), en el que las velocidades en ambos sentidos son análogas

- DSL de elevada relación de bits, (HDSL) es como el simétrico, pero con más velocidad (HDSL2)

- DSL de muy elevada relación de bits, (VDSL) es análogo a ADSL; pero al velocidad está en función de la red. Se alcanzan velocidades de hasta 60 Mb/s



C) Conectividad en distancias cortas

Las redes de área personal (PAN) como tecnología de tercera generación, significan un impulso al proceso de convergencia entre las industrias informática y de comunicaciones. Desde el momento en que los teléfonos móviles, conocidos como smartphones, se empiecen a utilizar masivamente como ordenadores (como ejemplo el Nokia E71) se producirá una reestructuración del mercado. Los sectores de GPS, telefonía móvil, ordenadores y en general procesadores, dejarán de ser independientes. Estas redes trabajan en una banda de frecuencias de microondas, que no precisa licencia, 2.4 GHz.

Las interferencias constituyen un problema en la tecnología radio en general, que se manifiesta activamente en LAN y también en distancias cortas o PAN por cuanto trabaja en la banda sin licencia IMS de 2.4 GHz, como los hornos de microondas tanto domésticos como industriales. En particular, es de gran relevancia la problemática ligada al efecto de las interferencias en sistemas de radio producidas por los hornos de microondas.

El dispositivo fundamental de un horno de microondas es, en lo que respecta a interferencias, el magnetrón de cavidades resonantes, es un tubo empleado típicamente como oscilador de potencia en el transmisor de los sistemas de radar. En este tubo, el flujo de electrones desde el cátodo al ánodo se controla por medio de un campo magnético creado por un sistema de bobinas o bien un imán permanente ubicado en el magnetrón. El comportamiento de un magnetrón se puede analizar con relativa facilidad mediante procedimientos gráficos que, en esencia, se reducen a dos tipos: diagrama que relaciona mutuamente la intensidad de campo magnético, la corriente en el magnetrón, la variación de frecuencia, y la tensión entre ánodo y cátodo, así como el rendimiento; y diagrama de Rieke, que proporciona la relación existente entre la impedancia (magnitud que establece la relación (cociente) entre la tensión y la intensidad de corriente) de carga y la frecuencia, por un lado, y el rendimiento, por otro

Estos magnetrones de hornos de microondas son equipos de pequeña potencia en comparación con los magnetrones utilizados en radar. Tipicamente, la potencia de salida de un magnetrón de horno de microondas está comprendida aproximadamente entre 650 y 3000 watios. Los hornos de microondas pueden emitir legalmente niveles significativos de fugas en las bandas ISM dentro de los límites establecidos por las normas de seguridad internacionales.

Cualquier utilización de sistemas de radio en estas bandas se debe basar, por tanto, mediante acuerdos con la industria de las comunicaciones. Un aspecto clave del tema de las interferencias en este contexto viene dado por el hecho de que magnetrones y hornos de microondas se diseñan para que funcionen en la región del diagrama de Rieke, donde tiene lugar la intersección de todas las lineas de frecuencia.

Un ejemplo de redes de corta distancia es el diseñado por el consorcio Bluetooth, que es un grupo de interés especial y promotor que agrupa a fabricantes en estos campos. Bluetooth es una tecnología desarrollada por Ericsson, que se aplica a todos los dispositivos que conforman el escenario inalámbrico, para usuarios: ordenadores, teléfonos y dispositivos de mano, como por ejemplo PDA (asistentes digitales personales).

El usuario, en el futuro, ya no utilizará un teléfono, un ordenador portátil o alguno de los dispositivos presentes en el mercado, sino un equipo comunicador (smartphone), como por ejemplo el Nokia E71, que incluye hasta un sistema GPS.

BLUETOOTH

La tecnología Bluetooth se elabora en un chip que se integra en los diferentes equipos que conforman el entorno inalámbrico actual, como ordenadores portátiles, periféricos (ratón, impresoras...), PDA o teléfonos móviles, así como el futuro, en el que se contemplan, además de estos equipos clásicos del ámbito de la comunicación y la informática, otros del ámbito de la domótica. Se tiene así lo que se conoce como productos Bluetooth.

El punto clave del chip es el transceptor, que ha de ser de muy pequeño tamaño (para no aumentar las dimensiones y poder integrarlo con facilidad en los productos) y de muy baja potencia. Otra parte del chip es el circuito integrado de radiofrecuencia. Este circuito integrado tiene capacidad de autorregulación, lo que confiere un factor de ahorro de potencia, característica que es consustancial a las tecnologías inalámbricas en distancias cortas. En concreto, en el chip Bluetooth el consumo es menor del 3% de la potencia que consume un teléfono móvil.

El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta un receptor a una distancia corta el transmisor del circuito integrado es capaz de alterar la potencia de su propia señal para adaptarla al nivel adecuado; cuando se interrumpe la transmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En este estado la verificación de conexión se realiza mediante una serie de señales cortas, es decir, se detectan, de forma periódica, los mensajes de búsqueda.

Bluetooth utiliza spread spectrum, en concreto frequency hopping (salto de frecuencia). Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de salto (hopping). En el transcurso de una conexión se produce una transición brusca o salto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. En sistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablando en términos generales, la dispersión o spread se obtiene a lo largo de la banda de frecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducido que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones. Para soslayar este factor se dispone de programas de corrección de errores cuya misión es el restablecimiento de los bits de error.

Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los posibles enlaces físicos son SC (Synchronous Connection Oriented) para voz y ACL (Asynchronous Connectionless Link) para paquetes de datos. Los paquetes ACL se utilizan únicamente para información en forma de datos, mientras que SCO utiliza paquetes que contiene solamente audio o bien una combinación de audio y datos. Los paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con el que se identifica el paquete, una cabecera dedicada a información de control y un campo de carga alternativo.

La codificación de voz se realiza mediante la técnica de modulación CVSD (Continuosly Variable Slope Delta) o modulación continua de inclinación delta, con lo que se consigue un buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Los mecanismos de seguridad consisten en esquemas de autenticación (el proceso de probar la identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y de encriptación basada en cifrado al nivel básico.

Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se ha conseguido crear y enlazar de forma ad-hoc hasta 10 picorredes, donde todos los equipos que se encuentran en una misma picorred aparecen sincronizados.

El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o más unidades o equipos que compraten un canal. Una unidad controla el tráfico y las otras funcionan como elementos subordinados. Las picorredes pueden, a su vez, enlazarse siguiendo una arquitectura tipica del escenario inalámbrico que se utiliza habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y que normalmente se crea de forma espontánea sin necesitar un punto de acceso como parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas. El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza mediante los protocolos que conforman las capas de banda base y de enlace.

Topología de una red

Por topología de una red se entiende la forma en la que se conectan electrónicamente los puntos de dicha red. Las topologías existentes son: bus, árbol y estrella, y sus posible combinaciones.

Se han de tener en cuenta una serie de factores al seleccionar como más adecuada una topología, se describen seguidamente:
  • Complejidad. Este factor afecta a la instalación y mantenimiento de todo el cableado
  • Respuesta. El tráfico que puede soportar el sistema
  • Vulnerabilidad. La susceptibilidad de la topología a fallos o averías
  • Aplicación. El tipo de instalación en el que es más apropiada la topología
  • Expansión. La facilidad de ampliar la red y añadir dispositivos para cubrir grandes distancias.
    A) Topología en BUS

    Todas las estaciones (nodos) comparten un mismo canal de transmisión mediante un cable (frecuentemente coaxial). Las estaciones usan este canal para comunicarse con el resto.



    Los factores de evaluación respecto a esta red son:
    • Aplicación. Se usan en pequeñas redes y de poco tráfico
    • Complejidad. Suelen ser relativamente sencillas
    • Respuesta. Al aumentar la carga la respuesta se deteriora rápidamente.
    • Vulnerabilidad. El fallo de una estación no afecta a la red. Los problemas en el bus son difíciles de localizar, aunque fáciles de subsanar.
    • Expansión. Es muy sencilla.

    Análisis comparativo

    Ventajas
    • El medio de transmisión es totalmente pasivo
    • Es sencillo conectar nuevos dispositivos
    • Se puede utilizar toda la capacidad de transmisión disponible
    • Es fácil de instalar

    Inconvenientes
    • El intefaz con el medio de transmisión ha de hacerse con dispositivos inteligentes
    • A veces los mensajes interfieren entre sí
    • El sistema no reparte equitativamente los recursos
    • La longitud del medio de transmisión no supera habitualmente los dos kilómetros


    B) Topología en Anillo

    Las estaciones se conectan formando un anillo (también puede ser un doble anillo). Ningún nodo controla totalmente el acceso a la red.



    Los factores de evaluación respecto a esta red son:
    • Aplicación. Es útil cuando se ha de asignar la capacidad de la red de forma equitativa, o cuando se precisen velocidades muy altas a distancias cortas, para un pequeño número de estaciones.
    • Complejidad. La parte física suele ser complicada.
    • Respuesta. Con tráfico muy elevado la respuesta permanece bastante estable, sin embargo el tiempo de espera medio es bastante elevado.
    • Vulnerabilidad. El fallo de una sola estación o de un canal puede hacer que no sea operativo el sistema completo. Un fallo es difícil de localizar y no es posible la reparación inmediata.
    • Expansión. Es bastante sencillo el añadir o suprimir estaciones.

    Análisis comparativo

    Ventajas

    • La capacidad de transmisión se reparte equitativamente
    • La red no depende de un nodo central
    • Se simplifica al máximo la transmisión de mensajes
    • Es sencillo enviar un mismo mensaje a todas las estaciones
    • El tiempo de acceso es aceptable, incluso con mucho tráfico
    • El índice de errores es muy pequeño.
    • Se pueden alcanzar velocidades de transmisión elevadas.

    Inconvenientes

    • La fiabilidad de la red depende de los repetidores
    • La instalación es bastante complicada.


    C)Topología en Estrella

    Todas las estaciones están conectadas por separado a un nodo central, no estando conectadas directamente entre sí.



    Los factores de evaluación respecto a esta red son:
    • Aplicación. Es la mejor forma de integrar servicios de datos y voz
    • Complejidad. Puede ser una configuración bastante complicada. Cada estación a su vez puede actuar como nodo de otras.
    • Respuesta. Es bastante buena para una carga moderada del sistema. Afecta mucho la potencia del nodo central.
    • Vulnerabilidad. Si falla el servidor central, se detiene la actividad de la red. El fallo de una sola estación no afecta al funcionamiento del sistema
    • Expansión. Es muy restringida. Es lógico, pues se ha de proteger el nodo central de sobrecargas.

    Análisis comparativo

    Ventajas
    • Es ideal si hay que conectar muchas estaciones a una
    • Se pueden conectar terminales no inteligentes
    • Las estaciones pueden tener velocidades de transmisión diferentes
    • Permite utilizar distintos medios de transmisión
    • Se puede obtener un elevado nivel de seguridad
    • Es fácil la detección de averías

    Inconvenientes
    • Es susceptible de averías en el nodo central
    • Es elevada en precio
    • La instalación del cableado es cara
    • La actividad que ha de soportar el servidor, hace que las velocidades de transmisión sean inferiores a las de las otras topologías.
Principales tipos de redes

Al hablar de "hardware" de red no hay más remedio que hablar de los desarrollos que existen en el mercado de ciertas normas creadas por el IEEE (Institute of Electrical and Electronics Engineers). Cada una de estas normas engloba toda una serie de características entre las que destacan la topología, velocidad de transferencia y tipos de cable. Para no entrar en temas excesivamente técnicos se describen dos: Ethernet y Token Ring.
    ETHERNET: Utiliza topología bus. Como su velocidad de transferencia es alta (las versiones más modernas alcanzan hasta los Gb/s) puede ser utilizada en redes medias e incluso grandes. Pero, debido a su método de acceso, las prestaciones pueden caer si el tráfico es muy intenso. Por ello es recomendable estudiar el tipo de aplicaciones que se van a utilizar en la red. Fue el primer hardware de red presentado en el mercado, siendo ahora el más popular. La mayoría de fabricantes de ordenadores tienen implementaciones sobre Ethernet y gracias a ello, la conectividad con esta red es muy fácil. Utiliza cable coaxial de dos tipos y en su versión más moderna (10 Base T), cable UTP.

    TOKEN RING:Fue desarrollada en la década de 1960 por Olof Söderblom, llegando a ser el estándar IEEE 802.5, hasta hace poco tiempo fue la red IBM por excelencia. Cuenta con versiones de 4 y 16 Mbit/s lo que la hacía hasta hace poco tiempo una de las más utilizada en redes grandes.posteriormente HSTR alcanzaba 100 Mbit/s. Utiliza topología en anillo aunque en realidad el cable se hace en estrella y es ideal para conectividad con equipos IBM. Actualmente casi no se usa.


Sistemas Operativos de red

Vistos los diversos niveles del estándar de redes OSI, se puede concluir que hay una complejidad elevada en las tareas de control de las comunicaciones en una red. El programa que realiza esta tarea se denomina sistema operativo de red, y ha de cumplir ciertos requerimientos:
  • Multitarea: Para atender las peticiones de muchos usuarios a la vez deben ser capaces de realizar varias tareas simultáneamente. De esta forma pueden realizar una lectura en disco al mismo tiempo que reciben otra petición a través de la red o imprimen un texto enviado por una estación de trabajo.

  • Direccionamiento: Deben ser capaces de controlar grandes capacidades de disco, ya que éstos van a ser utilizados por más de un usuario. Para controlar gran capacidad de disco duro, necesitaran gran cantidad de memoria que deben direccionar.

  • Control de acceso: Si desea que los datos de todos los usuarios no dañados por error de una de ellos, el sistema operativo de red deberá incorporar un sistema que permita a los usuarios acceder sólo a los datos imprescindibles para su trabajo en la red.

  • Seguridad de datos: El disco duro de un servidor de ficheros almacena muchos datos, muchos más que el de un PC aislado. Preservarlos justifica tener un sistema de seguridad que evite que un fallo de los componentes cause su perdida. Por ello los sistemas operativos de red tienen sistema de tolerancia de fallos que funcionan de forma automática y transparente para los usuarios.

  • Interface de usuario: Los usuarios deben seguir teniendo en su pantalla la misma apariencia que les ofrecía el entorno local. El acceso a los periféricos de la red debe ser transparente y de la misma forma que si estuviera conectado en su estación. Sólo con ello se conseguirá facilidad de uso en la red.
En el mercado a lo largo del tiempo han existido diversos sistemas operativos para red:
  • Linux está alcanzando gran difusión, siendo el sistema operativo más seguro. La gran mayoría de servidores de internet operan bajo él.

  • NETWARE (de Novell) dispone de diversas modalidades, hace unos años era el más difundido. Actualmente difunden el Suse Linux.

  • VINES ("Virtual Integrated NEtwork Service") de Banyan dirigido a entorno más amplios. Utilizaba en los servidores el sistema operativo UNIX. Actualmente es una empresa que ya no existe.

  • Windows, tiene un entorno fácil de manejar, aunque como todos los productos Microsoft, es poco fiable.
  • Appletalk para Mac fue una buena opcion, aunque actualmente no se usa, la diferencia con Linux radica en la licencia, mac es un sistema propietario.

9.3 Telefonía


El benedictino francés Dom Gauthey, en 1680, propuso a la Academia de Ciencias de París, un sistema de transmisión de la voz humana mediante tubos acústicos. En 1860 el alemán Phillipp Reis (1834-1874) inventó un aparato al que denominó "Teléfono" (del Griego "hablar a lo lejos") con el cual logró transmitir sonidos durante breves intervalos de tiempo.
Johann Philipp Reis, físico alemán

Reis inició su carrera profesional como empleado de una sociedad dedicada a la fabricación de colorantes. De formación autodidacta, tanto en el campo de la ciencia como en el de la fisica, llevó a cabo diversos trabajos experimentales que le condujeron a la conversión de oscilaciones acústicas en impulsos eléctricos. A la edad de 19 años inició sus estudios de matemáticas y fisíca, a la vez que desarrollaba sus trabajos. Más tarde ejerció como preceptor en Friedrichsdorf. En dicha población desarrolló un aparato gracias al cual no sólo fue capaz de transformar las ondas electromagnéticas en ondas sonoras sino que también le permitía transmitirlas hasta distancias de 100 m en forma de señales eléctricas. Bautizó su invento con el nombre de teléfono, en 1861 lo presentó ante la Sociedad Física de Frankfurt y en 1864 en la Universidad de Giessen. Sin embargo, su invención no despertó ningún interés.

En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez. Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediante máquinas electrostáticas, aunque no fue desarrollado comercialmente debido a problemas técnicos.

El 14 de Febrero de 1876, el americano de origen irlandés, Alexander Graham Bell (1847-1922) presentó una petición de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con un aparato similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci, aunque no dispuso de medios para su lanzamiento al mercado.

El receptor no presentó problemas, aunque sí el emisor. La razón es que el teléfono se basa en el principio de que una corriente contínua puede variarse por una resistencia que lo haga en función de las ondas acústicas que reciba (micrófono) lo que a su vez da lugar a la producción de las mismas en el receptor (un electroimán con una lámina fina). Fueron muchos los experimentos para lograr un micrófono eficaz, en 1878 Henry Hummings patentó uno que consistía en una cavidad parcialmente rellena de carbón que cerraba el circuito eléctrico, cuya resistencia y por tanto la intensidad que circula por el mismo es proporcional a la presión de las ondas sonoras, actualmente aún se sigue utilizando. Es de destacar que Tomas A. Edison (1847-1931) también contribuyó con inventos al desarrollo del teléfono, en 1892 fundó General Electric Company, la tan conocida empresa de tecnología y servicios.

Otros elementos básicos del teléfono son el timbre o campanilla y el marcador. El primero es un electroimán doble, con una armadura pivotante que soporta a un martillo que al vibrar golpea a una campana, fue descubierto por T. Watson y aún sigue en uso, el dial se inventó en el año 1896, por unos asociados de Strowger.

Los primeros teléfonos incluían su propia batería para alimentar el circuito, pero en 1894 se impuso la batería central con un voltaje de 48 V, en uso desde entonces. Al descolgar el auricular se produce el cierre del circuito y pasa por él una corriente continua, indicando a la central que se requiere servicio.

En España se estableció el teléfono en el año 1877 en Barcelona, traídos desde Cuba, allí se importaban directamente de EE.UU.Central telefónica antigua En 1884 el estado se hace cargo del monopolio, en 1924 se creó la Compañía Telefónica Nacional de España, actualmente privatizada y denominada Telefónica, que actualmente opera en muchos países bajo la marca comercial Movistar.

En las primeras centrales telefónicas las conexiones entre usuarios se realizaban directamente por los operarios de la central, lo cual era muy limitado, pues en cuanto crecía el número de abonados el número de conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas (EE.UU.), al creer que las llamadas eran desviadas hacia la competencia, por parte de los operadores, inventó un sistema automático para la selección del destinatario. Este principio se ha utilizado muchos años, hasta la aparición de las centrales electrónicas.
SISTEMA IBERCOM

Como ejemplo de un servicio que hasta hace poco tiempo fue considerado servicio avanzado de comunicaciones se puede citar el sistema Ibercom de Telefónica. Es un sistema de transmisión de voz y datos dirigido al sector institucional y empresarial, soportado por tecnología enteramente digital. Permite a los usuarios disponer de su propia red dentro del sistema Ibercom, haciendo uso exclusivo de ciertos elementos de transmisión y conmutación, creándose una red privada virtual (RPV).

La infraestructura básica de Ibercom está compuesta por dos partes, una es la de acceso cuya función es la de proporcionar las líneas de voz y datos a sus usuarios, denominada Red de Acceso Ibercom (RAI), pudiendo estar compuesta de varios Módulos de Red de Accesos Ibercom (MRAI) distribuidos, a los que se conectan todos los terminales correspondientes a los servicios de telecomunicación con los que se desee dotar cada dependencia, y otra, la de interconexión, que está incorporada en la porción de tránsito en las redes públicas, y a la cual se accede a través de un Centro Frontal (CF), que realiza el tránsito entre las RAI a él conectadas.

La central telefónica de la empresa que tenga este servicio, es una Ericsson MD110 (hasta hace poco tiempo se usaba en la Universidad de Murcia), que consta básicamente de unos módulos denominados Módulos de Interface de Línea (LIM) controlados por un microprocesador equipado con todos los elementos necesarios para el tratamiento de las llamadas pudiéndose conectar directamente dos de ellos o a través del Selector de Grupo (GS) en caso de sistemas mayores. Cada LIM puede funcionar como un sistema autónomo o como integrante de otro mayor, realizando la conmutación a un ritmo de 64.5 Mbps, y albergando unas 250 extensiones de voz y datos.

La conexión entre los RAI y el CF se realiza mediante uno o más enlaces MIC, a 2 Mbps, con cables trenzados, coaxiales, fibra óptica o radioenlaces.

Los servicios ofrecidos por Ibercom son:

- Plan privado de numeración (Abreviado)
- Rutas privadas
- Marcación directa entrante
- Función de operadora
- Gestión de red
- Tarificación especial
- Servicios de voz (Analógica y Digital)
- Servicio de datos
- Servicios de valor añadido
- Aplicaciones especiales



Algunas empresas de telefonía ofrecen servicios de voz a través de líneas dedicadas a internet, por ejemplo la telefonía en la universidad de Murcia funciona bajo la red de la operadora de cable Ono, es lo que se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no suele estar al nivel de las líneas convencionales de telefonía. Recientemente el Gobierno español reguló esta nueva modalidad de telefonía.

Telefonía móvil celular
    A) Introducción

    En la evolución de las redes de telecomunicación, una estrategia actual es dotar a los usuarios de movilidad, de forma que puedan establecer una comunicación desde cualquier lugar. Ello es posible mediante el empleo de las ondas de radio para establecer el enlace entre los elementos a comunicarse. Seguidamente se describe el concepto celular por ser la base de la mayoría de los sistemas de telefonía vía radio.

    Los sistemas celulares fueron creados por los laboratorios Bell (AT&T) hace más de cincuenta años. Un sistema celular se forma al dividir el territorio al que se pretende dar servicio, en áreas pequeñas o celdas (normalmente hexagonales), de menor o mayor tamaño, cada una de las cuales está atendida por una estación de radio. A su vez las células se agrupan en "clusters" o racimos, de forma que el espectro de frecuencias se pueda utilizar en cada célula nueva, teniendo cuidado de evitar las interferencias.

    Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada son configuraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 células. El número total de canales por célula se obtiene por la fórmula siguiente, N=(Nº total de canales)/(Claustro (4, 7, 12, 21)). Al ser menor el tamaño de las células mayor será el número de canales que soporte el sistema.

    La siguiente tabla muestra la primera generación de sistemas celulares analógicos


    Sistema
    País
    Nº Canales
    Espaciado (kHz)
    AMPS EE.UU.
    832
    30
    C-450 Alemania
    573
    10
    ETACS Reino Unido
    1240
    25
    JTACS Japón
    800
    12.5
    NMT-900 Escandinavia
    1999
    12.5
    NMT-450 Escandinavia
    180
    25
    NTT Japón
    2400
    6.25
    Radiocom-2000 Francia
    560
    12.5
    RTMS Italia
    200
    25
    TACS Reino Unido
    1000
    125

    Respecto a los sistemas digitales, los más difundidos son:

    UMTS, GSM y DCS-1800, en Europa, IS-54 e IS-95 en EE.UU. y PDC en Japón

    B) Sistema NMT

    Las primeras generaciones de este tipo de comunicaciones eran sistemas analógicos, tales como NMT, TACS, AMPS, etc., con una amplia difusión. Actualmente han surgido sistemas digitales, como GSM y UMTS en Europa, el DAMPS en EE.UU. y JDC y PHP en Japón.

    En España la "telefonía móvil automática" o TMA apareció en el año 1982 en la modalidad de 450 MHz, tomando como referencia el modelo nórdico NMT. Debido al éxito del mismo y a la saturación del espectro, Telefónica implantó la modalidad de 900 MHz.

    El sistema NMT (Nordic Mobile Telephony) surgió en los países escandinavos en 1981, es ideal para cubrir la mayor extensión de terreno con la menor inversión. La versión NMT 900 permite un mayor número de canales.

    C) Sistema TACS

    El sistema TACS 900 adaptado en Inglaterra el año 1985, deriva del sistema analógico AMPS americano desarrollado por los laboratorios Bell y comercializado en EE.UU en 1984. Con este sistema se obtiene unamejor calidad del servicio, al mismo tiempo que mejora la relación señal/ruido por tener una mayor anchura de canal. Además precisa de equipos más pequeños y baratos.

    El sistema TACS (Total Access Communications System) 900 conocido como TMA 900, es del mismo tipo que el anterior, analógico multiplexado en frecuencia, pero diferente por utilizar una tecnología mucho más avanzada y barata, dando mejor calidad de audio, así como una mejor conmutación al pasar de una a otra célula, ya que la señalización se realiza fuera de banda, al contrario que NMT, que lo hace dentro de ella, resultando casi imperceptible el ruido para el usuario, sin embargo sus estaciones base cubren un rango menor. Emplea la banda de frecuencia de los 900 MHz y cada MHz se divide en 40 semicanales de 25 kHz, por lo que resulta extremadamente útil, por su gran disponibilidad de canales, para cubrir áreas urbanas. Dispone de 1320 canales duplex, de los que 21 se dedican exclusivamente a control (señal digital) y el resto para voz (señal analógica)

    D) Sistema GSM

    El GSM (Groupe Spécial Mobile), surge del intento europeo de unificar los 10 sistemas diferentes existentes, en uno solo, el CEPT (año 1982). La principal ventaja de este sistema es que permite realizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfono se registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedando disponible para su utilización. Al ser criptografiadas todas las conversaciones, tiene ventaja, la mayor seguridad frente a escuchas (recientemente se ha logrado descriptografiar este tipo de comunicaciones). Otras ventajas son: su menor consumo de energía, las células más pequeñas y la utilización del espectro de forma más eficiente.

    La existencia de competencia por parte de otras operadoras, Vodafone, Orange (inicialmente Amena) y Yoigo, aparte de las "operadores móviles virtuales" (OMV) como Carrefour, Dia, Symio y EroskiMovil, ha dado lugar a que las tarifas hayan bajado bastante.

    E) Otras tecnologías

    Respecto a la tecnología más reciente, UMTS, en España la ofrecen las operadoras Vodafone, Orange, Movistar y Yoigo. El siguiente enlace es al Libro Blanco sobre UMTS.

    A la red GSM se le añadieron otras funcionalidades, antes de la implantación completa de UMTS. Nuevas tecnologías como HSCSD, GPRS y EDGE

    HSCSD (High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad, proporciona una velocidad de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Es parecida a la RDSI.

    GPRS (General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario que HSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita de un hardware específico para el enrutamiento a través de una red de datos.

    EDGE (Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en la comunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/s

    En la transición se emplean terminales capaces de acceder a ambas redes.

    Las empresas de desarrollo y creadoras de contenidos se volcaron en el desarrollo de aplicaciones WAP (páginas web accesibles desde la red celular) aunque la expansión es mucho menor de la esperada, posiblemente por las tarifas tan elevadas de la telefonía móvil. Además que la aparición de teléfonos GPRS y UMTS ha restado muchos usuarios a WAP.

    WAP acercó en sus comienzos a los usuarios a la utilización de servicios de internet, el posicionemiento en esta tecnología ayudó al éxito en el desarrollo de proyectos UMTS. Por lo tanto no hay que ver únicamente a WAP como una tecnología pasarela a UMTS sino que además es una introducción de todas las partes (usuarios, operadoras, empresas, etc..) a servicios móviles en redes.

    Nuevos negocios se podrán implementar para esta tecnología, que van desde los propios fabricantes de dispositivos, que desarrollan los nuevos teléfonos y dispositivos capaces de aprovechar el nuevo método de comunicación a los propios desarrolladores que se les abrirán nuevas posibilidades que hasta ahora son inpensables de creación de contenidos, aplicaciones. En España proximamente habrá una regulación para la televisión a través de los móviles celulares UMTS.

    Actualmente se está implantando la tecnología HSDPA (High Speed Downlink Packet Access) es la optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP 5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamente la capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soporta tasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) de tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la cuarta generación (4G o LTE que son competidoras de WIMAX), la futura integración de redes, ya disponible en algunas ciudades del norte de Europa a través de la operadora Telia-Sonera.

    Presentación sobre la telefonía móvil celular:



    La gran difusión de los teléfonos móviles, ha dado lugar a innovaciones, por ejemplo, mediante un conjunto de "chips" se puede convertir un móvil en un control remoto universal para aparatos electrodomésticos. Recientemente se han comercializado móviles con esta capacidad. Y otras dirigidas al mundo multimedia, actualmente son habituales los teléfonos con sistema deposicionamiento global (GPS), cámara fotográfica y prestaciones musicales avanzadas. Como consecuencia recientemente se han empezado a comercializar teléfonos con sistemas de almacenamiento masivo tipo SSD, que además incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristal líquido dual, (TFT en el interior y OLED en el exterior).

    Al concluir en muchos países las emisiones de televisión analógica, queda una banda del espectro electromagnético libre, que se puede dedicar a la telefonía móvil celular, principalmente para facilitar los accesos a internet desde el móvil. Por ejemplo en EE.UU., ha quedado libre la banda de los 700 MHz, que se espera sea dedicada a una nueva tecnología de comunicaciones móviles, conocida como LTE (cuarta generación), que será el siguiente paso en la mayoría de operadores de telefonía, adaptada por empresas como Teléfonica, Vodafone, Orange, T-Mobile, AT&T, Verizon, NTT Docomo.... También puede suponer un cambio importante en la electrónica de la telefonía móvil celular , al implantarse bajo semiconductores de arseniuro de galio (AsGa)

    F) Antenas y salud

    Respecto a la alarma creada por grupos ecologistas, sin ninguna base científica, sobre la rediación dañina y supuestamente productora de cáncer, no hay ninguna base científica que la soporte, y así ha sido reconocido por la Organización Mundial de la Salud (OMS). La radiación de la telefonía móvil celular es no ionizante, por lo tanto no puede romper los enlaces del ADN. En los siguientes enlaces se tiene información seria:

    Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud. (Fuente Magonia)



    El 19 de julio de 2007 la Unión Europea sacó su informe sobre radiación electromagnética por parte del comité de salud humana. Puede acceder a dicho informe en:

    http://ec.europa.eu/health/ph_risk/committees/04_scenihr/docs/scenihr_o_006.pdf

    En la web de ARP SAPC, hay un estudio monográfico denominado Antenas y Salud:

    http://www.arp-sapc.org/articulos/antenasindex.html

    Por otra parte, Ferrán Tarrasa dió una estupenda conferencia el 4 de mayo de 2007 denominada "Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en:

    http://www.slideshare.net/giskard/telefona-mvil-y-salud-desmontando-mitos

    El informe Moulder es muy completo y también descarta los efectois nocivos sobre la salud. http://www.um.es/docencia/barzana/FIS/Moulder-tef-celular.html


    Enlace recomendado: Teléfonos móviles como pluviómetros

    9.4 Sistema de posicionamiento global

    Introducción histórica

    Cuando la extinta Unión Soviética (U.R.S.S.) puso en órbita el primer satélite artificial de la Tierra, se observaba como un punto brillante, que se desplazaba lentamente entre los astros que servían de referencia para los navegantes. Pronto surgió una idea,pasar de la navegación estelar a la por satélite. Un grupo de científicos soviéticos, dirigidos por el académico V. Kotélnikov, ofrecieron utilizar el método Doppler para determinar los parámetros de las órbitas de los satélites.

    El tres de marzo de 1978, la U.R.S.S. puso en marcha el satélite Cosmos 1000, dando inicio al sistema de navegación cósmica nacional, Tsikada, destinado a localizar a los barcos en cualquier lugar del océano. Actualmente hay varios satélites con esta misión. Con este esquema de satélites, se pueden obtener datos, en el ecuador cada 72 minutos y en latitudes altas más a menudo, y en las latitudes norteñas, donde las órbitas se cruzan, ininterrumpidamente. En los barcos se instala un microprocesador, que se conecta al sistema de radionavegación tradicional El uso de este sistema, proporcionaba, hace unos años, el ahorro del orden de unos 25000 rublos al año, por barco, en la extinta U.R.S.S. Posteriormente se implantó el Sistema de Satélite de Navegación Global (SSNG), para la localización exacta de barcos, automóviles y otros objetivos.

    En el año 1986, la U.R.S.S. y los EE.UU., declararon a la Organización Marítima Internacional, que se podían explotar estos sistemas con fines pacíficos. De forma que EE.UU. ha desarrollado desde entonces, un sistema análogo al soviético, quedando completo el año 1995. Consta de 24 satélites, de los que tres son de reserva, situados en tres planos orbitales, a 20200 km de altura, con un ángulo de 120 grados, uno respecto al otro. Las señales de navegación se emiten en una banda de 1602.2 a 1615 MHz. Además estos satélites pueden servir a una cantidad ilimitada de usuarios. Actualmente este sistema está gestionado por el Ministerio de Defensa de EE.UU. En estos momentos se está implantando un sistema europeo, Galileo, que será totalmente libre en su uso.

    Este es el origen del Sistema de Posicionamiento Global "GPS", en amplio desarrollo actualmente, cuyo predecesor, el SSNG, puede seguir usándose, mediante un módulo adicional.

    A muchos navegantes y topógrafos acostumbrados a trabajar con los métodos tradicionales, la obtención de la posición con sólo pulsar un botón, les debe de parecer sorprendente. Existe actualmente una forma más avanzada del GPS, que optimiza aún más los límites de la precisión. Este avance se conoce como GPS diferencial "DGPS", y con él se puede medir fiablemente una posición hasta cuestión de metros, y en cualquier lugar del planeta. Actulamente Europa está desarrollando el sistema europeo Galileo, libre de cualquier interferncia militar.

    GPS Básico

    Se basa en 24 satélites en órbita a unos 20000 km de distancia. Éstos actúan como puntos de referencia a partir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es como una versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante una brújula desde las cumbres de los montes cercanos para situar un punto en el mapa.




    Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con gran precisión desde estaciones terrestres. Mediante una medición del tiempo de viaje de las señales trasmitidas desde los satélites, un receptor GPS en la tierra determina su distancia desde cada satélite. Con la medición de la distancia desde cuatro satélites y la aplicación de cálculos, el receptor obtiene, latitud, longitud, altitud, derrota y velocidad. Los buenos receptores tienen una precisión menor que 100 m, y efectúan más de una medida por segundo. Los receptores pueden hacerse con antenas muy pequeñas, de tal tamaño, que caben en la mano, de hecho actualmente la mayoría de teléfonos celulares tipo smartphone lo incorporan.

    Otra ventaja es que las señales GPS están al alcance de todos, gratuitamente sin necesidad de pagar tasas de licencia ni uso, pues los satélites son de EE.UU, de Rusia y proximamnete los europeos, con lo cual no tienen ninguna opción de sacar dinero a costa de este tipo de usuarios.

    GPS en tres pasos básicos

      Paso 1 Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con mucha precisión, constituyendo la base de todos los cálculos GPS.

      Paso 2 El tiempo de viaje de la señal da la distancia. Mediante una serie de mensajes codificados, un receptor en tierra determina el momento en que la marca de tiempo partió del satélite, así como el momento de llegada a su antena. La diferencia es el tiempo de viaje de cada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este proceso es donde hay errores, aunque se usan correcciones relativistas.

      Paso 3 Tres distancias fijan la posición. Se supone un receptor a 23000 km de un satélite. Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica que ha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y con un radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundo satélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es una circunferencia.

      Una tercera medición, añade otra esfera, que interceptal círculo determinado por las otras dos. La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su posición a sólo dos puntos en todo el universo.

      Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido. Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar que el reloj del receptor está sincronizado con la hora universal.

    GPS diferencial (DGPS)

    Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un par de metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el que sea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa.

    El DGPS opera mediante la cancelación de la mayoría de los errores naturales y causados por el hombre, que se infiltran en las mediciones normales con el GPS. Las imprecisiones provienen de diversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje de la señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúan en cada momento. Lo que se necesita es una forma de corregir los errores reales conforme se producen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozca exactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuesta con su posición conocida. La diferencia es el error de la señal GPS.

    No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que los receptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dos receptores operando simultáneamente. El de referencia permanece en su estación y supervisa continuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar las correcciones a sus mediciones, bien sea en tiempo real o en algún momento futuro.

    El concepto ya está funcionando algún tiempo y se ha utilizado ampliamente en la ciencia e industria. Hay una norma internacional para la transmisión y recepción de correcciones, denominada "Protocolo RTCM SC-104".

    ¿Por qué se necesita el DGPS?

    Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso. Dado que el mundo parece una jungla, hay multitud de oportunidades para que resulte perturbado un sistema basado en la radio. A continuación se describen los errores a los que hay que enfrentarse:

      Errores de los satélites

      Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de los satélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que están relativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre, pero aún así se desvían ligeramente de las órbitas predichas.

      La atmósfera

      La información se transmite por señales de radio y esto constituye otra fuente de error. La física puede llevarnos a creer que las señales de radio viajan a la velocidad de la luz, que es constante, pero eso sólo es en el vacío. Las ondas de radio disminuyen su velocidad en función del medio en que se propagan, así pues, conforme una señal GPS pasa a través de las partículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, se retrasa un poco, lo cual implica un valor erróneo de la distancia del satélite.

      Error multisenda

      Cuando la señal GPS llega a la Tierra se puede reflejar en obstrucciones locales antes de llegar al receptor. La señal llega la antena por múltiples sendas, primero la antena recibe la señal directa y algo más tarde llegan las desplazadas, produciendo ruido. Un ejemplo es en el caso de la TV cuando se ven imágenes múltiples solapadas.

      Error del receptor

      Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen de sus relojes o de ruido interno.

      Disponibilidad selectiva

      Mucho peor que las fuentes naturales de error es el que aporta intencionadamente el Departamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerza hostil utiliza la posición de GPS contra los EE.UU. Se introduce ruido en los relojes de los satélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos. Los receptores militares disponen de una llave física que desencripta los errores introducidos para así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m.

      El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usos militares y también proporciona una forma de verificar la fiabilidad de las mediciones momento a momento.

    Magnitud típica de los errores (en m)
    Precisión por satélite GPS
    DGPS
    Relojes de satélites
    1.5
    0
    Errores de órbitas
    2.5
    0
    Ionosfera
    5
    0.4
    Troposfera
    0.5
    0.2
    Ruido receptor
    0
    .3
    Multisenda
    0
    .6
    Dep. Defensa
    30
    0

    Precisión de posición
    GPS
    DGPS
    Horizontal
    50
    1.3
    Vertical
    78
    2
    3D
    93
    2.8


    ¿Cómo funciona el DGPS?

    Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo, empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor añadido, es decir uno que se desplaza y otro estacionario.

    Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dos receptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites, esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de las estaciones puede dedicarse a medir esos errores y facilitárselo a la otra.

    Se ha de ubicar el receptor de referencia en un punto cuya posición se haya determinado con exactitud, al recibir las señales GPS realiza los cálculos en sentido inverso al de un receptor. Emplea su posición para calcular el tiempo y así obtiene el error entre el teórico y el real. Todos los receptores de referencia han de facilitar esta información de errores a todos los receptores itinerantes de su zona con objeto de que corrijan sus mediciones. El receptor de referencia reconoce todos los satélites visibles y calcula los errores instantáneos. Luego codifica esta información en un formato estándar y lo transmite a los receptores itinerantes.

    Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPS posprocesado.

    También existe el DGPS invertido, por ejemplo, en una flota de camiones que informan periódicamente de su posición a una estación base. En lugar de enviar a los camiones las correcciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocen su posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el punto de poder ubicar el camión en el carril de la calle en que se encuentra.

      Aplicaciones de DGPS

      Servicio de guardacostas

      El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas de navegación. El huracán BOB que azotó la costa este de EE.UU. en 1991 destrozó o desplazó un gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiados en unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostas equipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaron las boyas de nuevo, en tan solo unos días.

      Aviación

      Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron al aterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía, sin las radiobalizas tradicionales.

      En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.

      Gestión de los recursos naturales

      La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de su conservación o por ventas a empresas madereras.

      El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con GPS desde helicópteros.

      Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonas para pesca, control de incendios.

      Exploración costera

      Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación, lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de referencia, y apartarse unos metros significa muchos millones de gasto de más. Para solucionar este problema usan el GPS.

      Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento topográfico de los puertos.

      Gestión transporte y flotas

      Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el resultado es una más estricta adhesión al horario y mejor supervisión.

      A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso al extremo de conocer el nombre de la calle. También se usa en los ferrocarriles

      Gestion de rutas en autobuses urbanos. A Coruña

      También se usa en coches, ya es habitual los dispositivos con pequeñas pantallas que incluso mediante voz van indicando la ruta óptima. Incluso algunos teléfonos móviles lo incorporan, como por ejemplo los Nokia 6710 navigator, E71 y N97.

      Gestion de rutas. GPS

      Agricultura

      El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos químicos.

      También se puede aplicar a la fumigación aérea.

      Transporte marítimo

      En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad.

      Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta la determinación de las zonas de pesca legal.

      Seguridad pública

      Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus efectivos.


    ¿Cómo solucionar la limitación de los 100 m de resolución?

    Como se ha comentado previamente, el sistema GPS para usos no militares tiene una limitación puesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya en normal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvo que se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso. Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazo de 10 años se eliminarían las restricciones militares, pero mientras tanto el error en demasiado grande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver esta falta de resolución, en EE.UU se ha propuesto un sistema aplicable a los autobuses que consta del siguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y un giróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamente calibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores están sujetos a error esta no es la solución perfecta. La empresa Andrew Corp., ha creado un sistema que combina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPS calibra los sensores para evitar errores acumulados. El factor más importante en la generación de errores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO, basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación. El sistema propuesto por esta empresa está aplicándose en diversas empresas de transporte urbano de EE.UU.

    El siguiente enlace es una página dedicada a GPS.


    Enlaces de interés:

    Telefonía, divulgación
    Comunicaciones móviles. Monografías.com
    Dep. Ingeniería de telecomunicaciones. Univ. Autónoma de México
    Electromagnetic Simulation of Mobile Phone Antenna Performance. Microwavw Journal. Jan 2008
    Le téléphone
    Telefonmuseum Hittfelder Bahnhof
    Todoteleco.com. Portal de telecomunicaciones




Share Subscribe


Capitulo previoInicio





Aquí puedes cambiar el tamaño y color del texto

Enlaces de interés


Fraudes en psicología


Escepticismo en España


Escepticismo
en América




Sugerencias

y consultas



Nombre: eMail:
Tel (opcional):

Consulta o sugerencia:

Protección de datos: los datos proporcionados sólo se utilizan para responder. No se almacena ninguna información