domingo, 14 de diciembre de 2014

Bibliografia




  • http://es.scribd.com/doc/215589760/Nuevas-tecnologias-inalambricas
  • http://upload.wikimedia.org/wikipedia/commons/e/e3/Fr_cir.PNG
  • http://es.wikipedia.org/?title=Modelo_TCP/IP
  • http://www.it.uc3m.es/jmoreno/cursos_verano/2003/4_redes4G.pdf
  • http://html.rincondelvago.com/redes-frame-relay.html
  • http://madaoradio.galeon.com/73.html
  • http://www.um.edu.ar/catedras/claroline/backends/download.php?url=L0FUTV9JbmcuX0FyZXMvMTExMi5wZGY%3D&cidReset=true&cidReq=IT002
  • http://html.rincondelvago.com/redes-frame-relay.html
  • http://madaoradio.galeon.com/62.html
  • http://es.wikipedia.org/wiki/Gesti%C3%B3n_de_tr%C3%A1fico
  • http://trevinca.ei.uvigo.es/~mdiaz/rdo01_02/tema12.pdf
  • http://10380054.blogspot.mx/2012/11/44-celdas-atm.html
  • http://www2.rhernando.net/modules/tutorials/doc/redes/atm.html
  • http://www.it.uc3m.es/jmoreno/cursos_verano/2003/4_redes4G.pdf
  • http://www.zonamovilidad.es/noticia/2430/Reportajes/La-necesidad-de-WiFi-4G.html
  • http://www.tyr.unlu.edu.ar/tyr/TYR-2005/TCPW.pdf
  • http://es.wikipedia.org/wiki/Red_de_sensores

6.2 Enrutamiento


Uno de los algoritmos de encaminamiento más conocido, es el llamado inundación, donde cada nodo envía la información que desea mandar a todos sus vecinos, sin considerar si estos ya la recibieron por otra ruta. Este comportamiento puede llevar rápidamente a provocar una implosión en la cantidad de mensajes ni bien la red se torne más compleja para reflejar situaciones del mundo real. Uno de los comportamientos que se puede pensar para limitar esta implosión es no enviar el mensaje al nodo del cual se recibió, no enviar un mensaje ya enviado con anterioridad, o alguna otra acción que acote la cantidad de mensajes enviados.
Otra técnica de encaminamiento habitualmente usada en los algoritmos, se basa en buscar un camino óptimo mediante el ajuste de algunas características, como ser cantidad de saltos, máximo ahorro de energía, máxima calidad de comunicación. 

Las redes de sensores inalámbricas deben manejarse con algoritmos que gasten lo menos posible de energía. En una red la mayor parte de la energía se consume durante la transmisión de datos de un nodo a otro y por lo tanto se buscan técnicas que minimicen la cantidad y el tamaño de los mensajes.

En estos algoritmos lo fundamental son los datos a transmitir. Por ese motivo se los califica como centrados en datos (DC). Sobre ellos es posible realizar algún procesamiento de las variables censadas aplicando agregación, limitando de esta forma, la información a transmitir para lograr algún ahorro de energía.

Otras redes trabajan con algoritmos centrados en direcciones, donde cada nodo tiene definido a que vecino dentro de la red, debe enviar los datos. Cuando tiene información para transmitir, lo hace sin analizar si el mensaje es significativo para los objetivos de la red. Por ejemplo, considerar si es correcto enviar un mensaje ya enviado, o si es posible que la transmisión dure menos tiempo, para mejorar la funcionalidad y lograr mayor performance. Estas redes no presentan en general restricciones de energía y por lo tanto el análisis sobre cantidad de mensajes enviados o consumo de potencia no es problema para ellas.

Unidad 6 Redes Inalámbricas de Sensores


6.1 Ejemplos de Redes de Sensores

Una red de sensores es una red de [Computadora [ordenadores]] pequeñísimos («nodos»), equipados con sensores, que colaboran en una tarea común.
Las redes de sensores están formadas por un grupo de sensores con ciertas capacidades sensitivas y de comunicación inalámbrica los cuales permiten formar redes ad hoc sin infraestructura física preestablecida ni administración central.
Las redes de sensores es un concepto relativamente nuevo en adquisición y tratamiento de datos con múltiples aplicaciones en distintos campos tales como entornos industriales, domótica, entornos militares, detección ambiental.
Esta clase de redes se caracterizan por su facilidad de despliegue y por ser auto configurables, pudiendo convertirse en todo momento en emisor, receptor, ofrecer servicios de encaminamiento entre nodos sin visión directa, así como registrar datos referentes a los sensores locales de cada nodo. Otra de sus características es su gestión eficiente de la energía, que les permite obtener una alta tasa de autonomía que las hace plenamente operativas.




Pasando de largo las aplicaciones militares, éstas tienen usos civiles interesantes como vemos a continuación:

  • Eficiencia energética: Red de sensores se utilizan para controlar el uso eficaz de la electricidad, como el caso de Japón y España.
  • Entornos de alta seguridad: Existen lugares que requieren altos niveles de seguridad para evitar ataques terroristas, tales como centrales nucleares, aeropuertos, edificios del gobierno de paso restringido. Aquí gracias a una red de sensores se pueden detectar situaciones que con una simple cámara sería imposible.
  • Sensores ambientales: El control ambiental de vastas áreas de bosque o de océano, sería imposible sin las redes de sensores. El control de múltiples variables, como temperatura, humedad, fuego, actividad sísmica así como otras. También ayudan a expertos a diagnosticar o prevenir un problema o urgencia y además minimiza el impacto ambiental del presencia humana.
  • Sensores industriales: Dentro de fábricas existen complejos sistemas de control de calidad, el tamaño de estos sensores les permite estar allí donde se requiera.
  • Automoción: Las redes de sensores son el complemento ideal a las cámaras de tráfico, ya que pueden informar de la situación del tráfico en ángulos muertos que no cubren las cámaras y también pueden informar a conductores de la situación, en caso de atasco o accidente, con lo que estos tienen capacidad de reacción para tomar rutas alternativas.
  • Medicina: Es otro campo bastante prometedor. Con la reducción de tamaño que están sufriendo los nodos sensores, la calidad de vida de pacientes que tengan que tener controlada sus constantes vitales (pulsaciones, presión, nivel de azúcar en sangre, etc.), podrá mejorar sustancialmente.
  • Domótica: Su tamaño, economía y velocidad de despliegue, lo hacen una tecnología ideal para domotizar el hogar a un precio asequible.




5.4.4 Control de Flujo en TCP



  • TCP  permite que el tamaño de la ventana varíe en el tiempo.
  • Cada reconocimiento, que especifica cuántos bytes han sido recibidos, contiene un campo llamado
  • ventana_receptor 
  • (WINDOW), que especifica cuántos bytes adicionales el receptor puede recibir (especifica el tamaño del buffer del receptor).
  • Un aumento en el valor del campo ventana_receptor  el emisor incrementa el tamaño de su ventana, por lo que transmite un mayor número debytes.
  • Una disminución en el valor del campo ventana_receptor  el emisor decrementa el tamaño de su ventana, disminuyendo así, el número de bytesa transmitir.
  • TCP  provee un mecanismo de Control de Flujo punto a punto.
  • Si el buffer del receptor comienza a llenarse, envía un tamaño de ventana menor.
  • En el caso extremo, un tamaño de ventana = 0 detiene la transmisión.
  • No controla explícitamente problemas de congestión.
  • Una buena implementación de TCP  (en particular, el esquema de ReTx) puede detectar y recuperarse de problemas de congestión, mientras que una mala lo empeora.



5.4.3 Control de congestión en TCP


El método utilizado por TCP para control de la congestión es el basado en la regulación del tráfico inyectado a la red. Esto supone que implementa funciones que le permiten estudiar cuándo es posible enviar más tráfico por el enlace, y cuándo se ha superado la capacidad del mismo y se debe disminuir la carga.
TCP emplea 4 algoritmos relacionados entre sí a los efectos de efectuar el control de congestión. Ellos son conocidos con slow start, congestion avoidance, fast retransmit y fast recovery.
Los algoritmos slow start y congestión avoidance, deben ser utilizados por la fuente TCP a los efectos de controlar la cantidad de tráfico inyectado en la red.


Para esto se cuenta con tres variables de estado del protocolo. Estas son cwnd (congestión window), que controla del lado de la fuente la cantidad de datos que se puede enviar sin haber recibido un ACK, rwnd (receiver’s advertised window) que indica la cantidad de datos que puede recibir el destino y ssthresh (slow start threshold) que indica en qué fase de control de congestión se encuentra el transmisor (slow start si es mayor que cwnd o congestion avoidance si es menor; de ser iguales, se puede utilizar cualquiera de los dos algoritmos). El mínimo de cwnd y rwnd gobierna la transmisión. El algoritmo slow start es utilizado al comienzo de una transmisión a los efectos de que TCP pueda testear la red y conocer su capacidad evitando congestionarla. También es utilizado en el momento de recuperación ante la pérdida de algún segmento, indicada por timeout. Luego del three-way handshake, el tamaño de la ventana inicial de envío (IW: initial window) debe ser menor o igual que 2 x SMSS1  bytes y no mayor a dos segmentos. El valor de ssthresh debería ser lo más alto posible al comienzo (por ejemplo, igual a rwnd) y deberá reducirse en caso de congestión. Durante la fase slow start se aumenta cwnd en a lo sumo SMSS bytes por cada ACK recibido de datos nuevos entregados al receptor. Esta fase culmina cuando cwnd alcanza a ssthresh o cuando se detecta congestión.
A partir de allí se inicia la fase de congestión avoidance donde cwnd se incrementa en un segmento por round-trip time (tiempo que transcurre entre que sale un segmento y llega el ACK asociado). Esta fase continúa hasta que se alcanza la congestión nuevamente.
Durante la fase de congestión avoindance, la actualización de la variable cwnd, se realiza con la siguiente fórmula:

Cwnd = cwnd + SMSS x SMSS / cwnd (1) calculándose cada vez que llega un ACK no duplicado.

Cuando el transmisor detecta la pérdida de un segmento, a partir del timer de retransmisión, el valor de ssthresh debe pasar a ser:

Ssthresh = max (FS / 2, 2 x SMSS) (2) siendo FS (Flight Size) la cantidad de datos enviados pero aún no reconocidos o ACKed. Al mismo tiempo, cwnd no puede ser mayor que LW (Loss Window) que vale 1 segmento y sin importar el valor de IW. Se identifica con LW al tamaño de cwnd luego de detectar, a través del timer de retransmisión, una pérdida.

Posteriormente se pasa a la fase de slow start hasta alcanzar el ssthresh y luego se seguirá con la fase congestión avoidance. Cuando se detecta la primera pérdida en una ventana de datos, mientras no se reparen todos los segmentos de dicha ventana, la cantidad de segmentos transmitidos en cada RTT no podrá ser mayor a la mitad de los segmentos salientes cuando la pérdida fue detectada. Luego que todos los segmentos fueran exitosamente retransmitidos, cwnd no podrá tomar un valor mayor a ssthresh y la fase siguiente será congestión avoidance. Pérdidas en dos ventanas de datos sucesivas o en retransmisiones indica congestión e implica que cwnd y ssthresh deben bajar dos veces.

El receptor TCP debería enviar inmediatamente un ACK duplicado si recibe un segmento fuera de orden. Con ello busca informar al transmisor el número de secuencia esperado. Las conclusiones a las que puede arribar el transmisor ante la llegada de ACK duplicados pueden ser varias. Primero, puede concluir que está ante la presencia de segmentos descartados; segundo, que por razones de tránsito en la red, los segmentos están llegando en desorden al receptor y tercero, que ocurre por duplicación de los segmentos o de los ACKs en la propia red. El receptor también debería enviar inmediatamente un ACK para aquel segmento que recibe y que se encuentra en el hueco del espacio de número de secuencia esperado de forma de colaborar con el transmisor.

El algoritmo fast retransmit debería ser utilizado para detectar y reparar pérdidas basado en la recepción de ACK duplicados. El algoritmo emplea la recepción de 3 ACK duplicados (4 ACKs idénticos) para concluir que un segmento se ha perdido. El transmisor envía el segmento que deduce se ha perdido sin esperar que expire el timer de retransmisión, sstresh toma el valor dado por la ecuación (2) y cwnd toma un valor dado por la ecuación:

Cwnd = ssthresh + 3 x SMSS (3) (lo que se conoce como inflado artificial de cwnd). Esto hace crecer cwnd en la cantidad de segmentos (ACK en este caso) que abandonaron la red. Un criterio similar seguirá por cada ACK duplicado recibido. Luego de ello, el algoritmo fast recovery gobierna la transmisión mientras no se reciban nuevos ACK duplicados. De ser posible (según los valores de cwnd y rwnd), se transmite un nuevo segmento y ante la llegada de un ACK de datos nuevos lleva el valor de cwnd al de ssthresh (lo que se conoce como desinflado de cwnd). El no pasar a la fase de slow start ante la pérdida del segmento se justifica en el hecho de que la llegada de ACK duplicado implica que quien lo envió recibió un segmento, por lo tanto, hay segmentos que están abandonando la red y por lo tanto dejan de consumir recursos en ella.

Estos algoritmos no se comportan adecuadamente ante pérdidas múltiples en un “single flight” de segmentos lo que motivó el desarrollo de un conjunto de implementaciones adicionales. Para calcular el RTO actual, el transmisor mantiene 2 variables de estado llamadas SRTT (smothed round-trip time) y RTTVAR (round-trip time variation). Mientras no se calcule un RTT, el mismo debe valer como máximo 3 segundos. Cuando se calcula el primer RTT (R), las variables tomarán los siguientes valores:

SRTT = RRTTVAR = R/2 RTO = SRTT + max (G, K x RTTVAR) donde K = 4 y G es la granularidad del reloj, medida en segundos.

Para el siguiente cálculo de RTT (R') los nuevos valores de las variables serán:

RTTVAR = (1 - β) x RTTVAR + β x |SRTT - R'| SRTT = (1 - α) x SRTT + α x R' donde los valores de α y β deberían ser 1/8 y ¼ respectivamente.

RTO = SRTT + max (G, K x RTTVAR) RTO no debería ser menor que 1 ni mayor que 60 segundos.

La toma de las muestras RTT se debe realizar utilizando el algoritmo de Karn. Ello implica que no debe hacerse utilizando segmentos retransmitidos (salvo que se utilice la opción timestamp) y que en caso de expirar, se debería retransmitir el primer segmento no ACKed y efectuar un backoff, pasando RTO a valer el doble y lanzarlo nuevamente. Se debe realizar como mínimo una medida por round-trip time de forma de evitar el efecto de aliasing2 en el cálculo de RTO para el caso de ventanas de congestión grandes.

5.4.2 El Problema de Movilidad con TCP


En la presente sección, presentaremos algunos de los problemas existentes en la implementación de conexiones TCP sobre enlaces Wireless. 
Los problemas existentes se basan en la incapacidad de TCP de discriminar cuándo la performance de la conexión ha disminuido debido a pérdidas en el enlace, común en las tecnologías wireless, y cuándo es debida a congestión en la red. El problema radica en que el transmisor no puede determinar con cierto grado de certeza qué ha motivado la pérdida de un segmento.
Cuatro aspectos inherentes a redes Wireless pueden afectar decisivamente la performance de TCP . Por un lado, la bit error rate (BER) del medio físico, que como ya mencionamos, puede ser del orden de 1x10-6 o peor. En segundo lugar debemos considerar que el ancho de banda disponible es en general menor al disponible en medio cableados. Una tercer componente es la posible movilidad de los componentes de la red lo que puede implicar cambios importantes en los tiempos de entrega de los segmentos. Finalmente, es común que el protocolo de capa de Enlace y en particular de la sub-capa MAC así como el protocolo de enrutamiento utilizado implique necesariamente tener un overhead asociado a la movilidad y al aumento en la probabilidad de pérdida de tramas o paquetes.
A los efectos de fijar ideas podemos considerar como ejemplo de protocolo de sub-capa MAC a la familia de estándares de IEEE para Wireless Local Area Network (WLAN) [26, 27, 28, 29, 30]. En ellos se especifica que para el envío de cada trama de datos en el modo de operación Distributed Coordination Function (DCF) se emplee un método de control de acceso al medio Denominado carrier sense multiple access with collision avoidance (CSMA/CA), protocolo que busca reducir la probabilidad de colisiones entre múltiples estaciones a través del evitado de las mismas. A los efectos de detectar portadora, además del mecanismo clásico de “escucha del medio” (detección física de portadora) se realiza una detección virtual de portadora utilizando four-way handshake, donde con dos tramas de control (RTS: Request To Send y CTS: Clear To Send) se reserva el medio, luego se envía la trama conteniendo los datos y posteriormente se espera una trama de control ACK que confirma su recepción. Lo anterior es una muestra clara del overhead involucrado, pero hasta aquí no hemos considerado la movilidad de las estaciones. Durante la misma, una estación móvil puede estar asociada a una estación base (BS) a través de la cual recibe las tramas que provienen por ejemplo de la red cableada y unos mili segundos después, deberá estar asociada a otra estación base a la cual la primera deberá enviar las tramas que tuviera almacenadas para dicha estación.




5.4.1 El protocolo TCP/IP


El modelo TCP/IP  es un modelo de descripción de protocolos de red desarrollado en los años 70 por  Vintén Cerf  y Robert E. Kahn. Fue implantado en la red  ARPANET, la primera red de área amplia, desarrollada por encargo de DARPA, una agencia del Departamento de Defensa de los Estados Unidos, y predecesora de la actual red Internet. EL modelo TCP/IP se denomina a veces como Internet Model, Modelo DoD o Modelo DARPA. El modelo TCP/IP, describe un conjunto de guías generales de diseño e implementación de protocolos de red específicos para permitir que un equipo pueda comunicarse en una red. 



TCP/IP provee conectividad de extremo a extremo especificando cómo los datos deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el destinatario. Existen protocolos para los diferentes tipos de servicios de comunicación entre equipos. TCP/IP tiene cuatro capas de abstracción según se define en el RFC 1122. Esta arquitectura de capas a menudo es comparada con el Modelo OSI de siete capas. El modelo TCP/IP y los protocolos relacionados son mantenidos por la Internet Engineering Task Force (IETF). Para conseguir un intercambio fiable de datos entre dos equipos, se deben llevar a cabo muchos procedimientos separados. El resultado es que el software de comunicaciones es complejo. Con un modelo en capas o niveles resulta más sencillo agrupar funciones relacionadas e implementar el software de comunicaciones modular. Las capas están jerarquizadas. Cada capa se construye sobre su predecesora. El número de capas y, en cada una de ellas, sus servicios y funciones son variables con cada tipo de red. Sin embargo, en cualquier red, la misión de cada capa es proveer servicios a las capas superiores haciéndoles transparentes el modo en que esos servicios se llevan a cabo. De esta manera, cada capa debe ocuparse exclusivamente de su nivel inmediatamente inferior, a quien solicita servicios, y del nivel inmediatamente superior, a quien devuelve resultados.

  • Capa 4  o capa de aplicación: Aplicación, asimilable a las capas 5 (sesión), 6 (presentación) y 7 (aplicación) del modelo OSI. La capa de aplicación debía incluir los detalles de las capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de representación, codificación y control de diálogo.
  • Capa 3 o capa de transporte: Transporte, asimilable a la capa 4 (transporte) del modelo OSI.
  • Capa 2 o capa de Internet: Internet, asimilable a la capa 3 (red) del modelo OSI.
  • Capa 1 o capa de acceso al medio: Acceso al Medio, asimilable a la capa 2 (enlace de datos) y a la capa 1 (física) del modelo OSI.  


5.4 4G (micro movilidad)


WiFi 4G multiplica por seis el ancho de banda de las redes de tercera generación y por cinco el número de usuarios por punto de acceso Según Gartner Group, a finales de 2011 el 70 por ciento de los adaptadores y servicios de red serán Inalámbricos. Asimismo, la cifra de negocio del mercado WLAN  para redes corporativas superará los 3.200 millones de dólares este año, de los que el 35 por ciento corresponderán a la zona EMEA.
En este contexto, aparece una nueva tecnología WiFi bautizada por Gartner como ‘WiFi de Cuarta Generación’, la cual supone un salto hacia adelante en el despliegue de redes inalámbricas y ofrece una respuesta altamente eficientes en entornos complejos como son las grandes corporaciones, Universidades y Escuelas, Aeropuertos, grandes Hospitales, administraciones públicas, Industria, etc.  
Los nuevos sistemas, que mantienen su compatibilidad con las redes WiFi existentes y están certificados por la WIFI Alliance, se basan en una arquitectura de celda única (single cell), que permite anchos de banda de hasta 300 Mbps, un número prácticamente ilimitado de usuarios, mayor cobertura y el acceso eficiente a aplicaciones que reclaman elevadas capacidades de tráfico como son las transmisiones multimedia y la Voz sobre IP.
WiFi 4GEl sistema single cell mantiene estable la conexión a la red incluso en situaciones de alta movilidad, elimina cualquier tipo de interferencias y requiere menos dispositivos de acceso para ofrecer una, incluso, mayor cobertura.


Lo que aporta

Entre las novedades de WiFi 4G destaca su soporte mejorado a todo tipo de dispositivos y aplicaciones: Smart PDA, Móvil, Voz, Vídeo y Datos. Asimismo, garantiza el suministro de gran ancho de banda para aplicaciones sensibles en tiempo real y la más Alta Calidad de Servicio (QoS) para usuarios con tráfico pesado, entornos de gran densidad (muchos usuarios accediendo a la red) y necesidades de alta movilidad. La nueva arquitectura ofrece seguridad punto a punto en entornos distribuidos, facilita la gestión simplificada para el control RF impredecible, garantiza la disponibilidad total de aplicaciones WLAN de misión crítica y cuenta con Soporte y Servicios 24x7x365.
Desde el punto de vista del usuario, WiFi 4G ofrece una experiencia interactiva independientemente del dispositivo, aplicación, densidad y movilidad. Y desde el punto de vista de las TI, se consigue una Infraestructura WLAN predecible, efectiva, segura y de alto rendimiento; una gestión RF simplificada, resolución de problemas acelerada, WiFi 4Gmenos inversión y mayor rentabilidad y escalabilidad sin límites.

Las claves

Frente a la arquitectura basada en micro celdas del WiFi de tercera generación, donde el dispositivo va conectándose y desconectándose a los distintos ‘hot spots’, el nuevo WiFi, como hemos dicho, utiliza una arquitectura ‘single cell’, donde todos esos  puntos de acceso trabajan en el mismo canal, de manera que el terminal no pierde nunca la conexión y, además, se eliminan las interferencias que producen los distintos puntos entre sí. La nueva arquitectura aumenta radicalmente el rendimiento –throughput-  y  permite conseguir densidades extremas.
“En una red WiFi 4G, añadir un punto de acceso es tan fácil como instalar una bombilla –aseguran los portavoces de Meru Networks-; gracias a la arquitectura single channel la red ofrece máxima potencia, mejor cobertura y movilidad total. Además, la red suministra una conexión dedicada por cada dispositivo, garantiza a cada usuario el servicio necesario y la Calidad de Servicio (QoS) por tipo de aplicación.  El WiFi 4G multiplica por seis el ancho de banda de las redes de tercera generación y por cinco el número de usuarios por punto de acceso, reduciendo radicalmente los costes de infraestructura.

Innovación en un Mercado Commodity 

Las Infraestructuras actuales basadas en Microcell WIFI se quedarán pronto obsoletas debido a la necesidad de mayor ancho de banda impuesta por aplicaciones más avanzadas y comunicaciones unificadas: WiFi 4Gvoz, vídeo y servicios avanzados.
El usuario corporativo demanda gran movilidad, con la evidente necesidad de calidad de servicio, crítico en entornos de alta densidad. Las infraestructuras basadas en Microcell funcionan perfectamente en entornos de baja demanda; pero, está claro que el mercado reclama la necesidad de dar el siguiente paso.
La propuesta desarrollada por Meru Networks  crea una celda virtual en un único canal, gestionada con la tecnología Air Traffic Control de Meru, donde los puntos de acceso actúan como un sistema coordinado, en lugar de individualmente. Así, todos los puntos de acceso  del mismo canal tienen el mismo BSSID así como dirección MAC wireless y el usuario o cliente sólo detecta un punto de acceso en un canal. A partir de ahí, el sistema ofrece una infraestructura controlada que se encarga de asignar el punto de acceso al usuario, sin interrupciones, y del balanceo de carga entre los puntos de acceso en función de las cargas de trabajo de la red. De la misma forma y mediante la característica Virtual Port la red se comporta exactamente igual que un Switch, en lugar de como un hub wireless, como ocurre en las redes WIFI de tercera generación

Las redes WLAN tradicionales operan a baja potencia para minimizar las interferencias
  • Requieren más Puntos de Acceso (APs), más despliegue de cable, más dispositivos PoE y más instalaciones físicas
  • La existencia de más APs hace necesarios surveys más largos y aumenta la interferencia
  • Los ajustes dinámicos de potencia causan comportamientos erráticos de los clientes, dispositivos lejanos a baja velocidad consumen ancho de banda


Las redes basadas en Virtual Cell trabajan a máxima potencia
  • Requieren menos APs, menos despliegue de cables y menos dispositivos PoE
  • No requieren de survey de canales ni tienen problemas de interferencia
  • Permiten clientes estables, gracias al uso exacto del ancho de banda




5.3.4 Clases de Servicio


ATM puede transportar cualquier tipo de información, y por lo tanto cuenta con mecanismos que le permiten manejar de manera diferente cada tipo de comunicación que viaja a través de su red. El mecanismo con que cuenta ATM Para diferenciar los tipos de información que transporta es la calidad de servicio (Q o S), el cual se ha dividido por la ITU-T en cuatro clases denominadas  A, B, C y D. Existe todo un compendio acerca de estas clases de servicios por lo tanto solo mencionare algunos detalles de cada uno de ellos como son: Los controladores de entrada (IC), el conmutador principal (SF) y los controladores de salida (OC) se encargan de ejecutar en hardware todas las funciones de procesamiento para cada celda. El procesador de control (CP) se necesita únicamente para funciones de alto nivel, como: establecer y liberar una conexión, distribuir el ancho de banda, mantenimiento y administración. Todas las entradas de los controladores están generalmente sincronizadas; así, todas las celdas entran por el SF alimentando sus encabezados. El SF opera sincrónicamente y típicamente durante cada ranura de tiempo; se puede transmitir una celda a través del SF desde cada controlador de entrada. En los controladores de entrada se analiza el encabezado para determinar el puerto de salida, utilizando la tabla de enrutamiento. En algunas construcciones, en esta etapa se agrega a la celda una etiqueta. En los controladores de entrada, de salida y en el conmutador principal (matriz de conmutación) se puede almacenar temporalmente las celdas. Dependiendo de donde se encuentre el almacenamiento principal, se cuenta con conmutadores de almacenamiento de entrada, de matriz o de salida. Aun cuando las interfaces del conmutador deber ser entandares, la arquitectura interna de este es un diseño libre para el fabricante, es decir, es de arquitectura propia. 

  • Clase A: Servicio de tasa constante orientado a conexión, con señal de reloj de extremo a extremo. 
  • Clase B: Servicio de tasa variable orientado a conexión con señal de reloj de extremo a extremo. 
  • Clase C: Servicio de tasa variable orientado a conexión pero sin necesidad de señal de reloj. 
  • Clase D: Servicio de tasa variable orientado a no conexión, sin la necesidad de señal de reloj.

5.3.3 Arquitectura de un Conmutador ATM


En la transmisión de información a través de una red ATM, el conmutador de acceso recibe el tren de bits de llegada y lo arregla en forma de celdas, agregando a cada una su encabezado y conmutándolas a través de la red hacia su destino. Cuando no hay información por  transmitir, el conmutador de acceso envía celdas vacías hasta que se tenga nueva información. Todas las celdas se conmutan a través de una conexión virtual preestablecida. La secuencia completa de todas las celdas en una conexión virtual se diseñan en cada conmutador ATM para simplificar la reconstrucción del tráfico original en el destino. El encabezado de cada celda contiene un identificador de canal virtual (VCI) para identificar la conexión virtual a la cual la celda pertenece. Generalmente, el VCI es local para cada puerto del conmutador y conforme cada celda atraviesa el conmutador este le cambia el VCI al valor asignado para el siguiente enlace de la conexión virtual. En el conmutador ATM (también llamado enrutador ATM) se dispone de un mínimo de varios circuitos de miles de celdas por segundo en cada puerto del conmutador. Cada puerto puede soportar una carga mínima de 50 Mbps, en tanto que las velocidades de 150 y 600 Mbps se han propuesto para un puerto y rangos de transmisión y ancho de banda de BISDN. El tamaño de los conmutadores propuestos va desde unos cuantos puertos hasta unos miles de ellos.  Arriba de 100 puertos, el conmutador se 5.3.3 Arquitectura de un conmutador ATM considera grande. La estructura general de un conmutador ATM se ilustra a continuación:
   
Los controladores de entrada (IC), el conmutador principal (SF) y los controladores de salida (OC) se encargan de ejecutar en hardware todas las funciones de procesamiento para cada celda. El procesador de control (CP) se necesita únicamente para funciones de alto nivel, como: establecer y liberar una conexión, distribuir el ancho de banda, mantenimiento y administración. Todas las entradas de los controladores están generalmente sincronizadas; así, todas las celdas entran por el SF alimentando sus encabezados. El SF opera sincrónicamente y típicamente durante cada ranura de tiempo; se puede transmitir una celda a través del SF desde cada controlador de entrada. En los controladores de entrada se analiza el encabezado para determinar el puerto de salida, utilizando la tabla de enrutamiento. En algunas construcciones, en esta etapa se agrega a la celda una etiqueta. En los controladores de entrada, de salida y en el conmutador principal (matriz de conmutación) se puede almacenar temporalmente las celdas. Dependiendo de donde se encuentre el almacenamiento principal, se cuenta con conmutadores de almacenamiento de entrada, de matriz o de salida. Aun cuando las interfaces del conmutador deber ser entandares, la arquitectura interna de este es un diseño libre para el fabricante, es decir, es de arquitectura propia.


5.3.2 Circuitos Virtuales


Frame Relay provee conectividad orientada a la capa de enlace. Esto puede ser definido como la comunicación que existe entre dos dispositivos, y esas conexiones se identifican con un identificador de conexión. Este servicio es implementado para utilizar los circuitos virtudes de Frame Relay que no son otra cosa que una conexión lógica entre los DTE a través de la conmutación de paquetes de red (PSN).

Los circuitos virtuales proveen comunicación bidireccional entre los DTE y son identificados únicamente por el identificador de conexión de datos-enlace (DLCI [data-layer conexión identifier]). El número de circuitos virtuales puede ser multiplexado en un simple circuito físico para transmitir a través de la red, estos circuitos virtuales pueden ser circuitos virtuales conmutados (SVC) ó circuitos virtuales permanentes (PVC).



Un circuito virtual (VC por sus siglas en inglés) es un sistema de comunicación por el cual los datos de un usuario origen pueden ser transmitidos a otro usuario destino a través de más de un circuito de comunicaciones real durante un cierto periodo de tiempo, pero en el que la conmutación es transparente para el usuario. Un ejemplo de protocolo de circuito virtual es el ampliamente utilizado TCP (Protocolo de Control de Transmisión).

Es una forma de comunicación mediante conmutación de paquetes en la cual la información o datos son empaquetados en bloques que tienen un tamaño variable a los que se les denomina paquetes. El tamaño de los bloques lo estipula la red. Los paquetes suelen incluir cabeceras con información de control. Estos se transmiten a la red, la cual se encarga de su encaminamiento hasta el destino final. Cuando un paquete se encuentra con un nodo intermedio, el nodo almacena temporalmente la información y encamina los paquetes a otro nodo según las cabeceras de control. Es importante saber que en este caso los nodos no necesitan tomar decisiones de encaminamiento, ya que la dirección a seguir viene especificada en el propio paquete.

5.3.1 Celdas ATM


Son estructuras de datos de 53 bytes compuestas por dos campos principales:
  • Header, sus 5 bytes tienen tres funciones principales: identificación del canal, información para la detección de errores y si la célula es o no utilizada. Eventualmente puede contener también corrección de errores y un número de secuencia.
  • Payload, tiene 48 bytes fundamentalmente con datos del usuario y protocolos AAL que también son considerados como datos del usuario.



Dos de los conceptos más significativos del ATM, Canales Virtuales y Rutas Virtuales, están materializados en dos identificadores en el header de cada célula (VCI Y VPI) ambos determinan el enrutamiento entre nodos. El estándar define el protocolo orientado a conexión que las transmite y dos tipos de formato de celda:

  • NNI (Network to Network Interface o interfaz red a red) El cual se refiere a la conexión de Switches ATM en redes privadas
  • UNI (User to Network Interface o interfaz usuario a red) este se refiere a la conexión de un Switch ATM de una empresa pública o privada con un terminal ATM de un usuario normal, siendo este último el más utilizado.



La cabecera de la celda ATM tiene los siguientes campos:


CFG (4 bits)

Control de flujo. Sólo tiene sentido en el enlace de acceso Usuario-Red. Se utiliza para asignar prioridades a las distintas celdas, según la información que transporten.


VPI (8bits) / VCI (16 bits)

Identificador de conexión virtual. Permite identificar los enlaces que debe atravesar una celda hasta llegar a su destino. Sólo tiene significado a nivel de enlace local, y cambia a cada paso por un nodo de la red.
Asociado a cada puerto entrante de un conmutador ATM hay una tabla de traducción o Header Translation Table (HTT) que relaciona un puerto de salida y una celda entrante mediante un nuevo identificador de conexión. Como resultado, las celdas de cada línea pueden ser conmutadas independientemente a gran velocidad.


El VPI (Virtual Path Identifier) 

Etiqueta segmentos de Trayectos Virtuales (VP). Un trayecto virtual es un canal de comunicación entre un origen y un destino a través de una red ATM. Sobre un VP se pueden multiplexar los Canales Virtuales o Virtual Channels (VC), que vienen identificados por el Identificador de Canal Virtual o Virtual Channel Identifier (VCI).

PT (2 bits)

Permite diferenciar entre la información de usuario, la de control y la de gestión.

Res. (1 bit)

Reservado para implementaciones futuras.

CLP (1 bit)

Es un campo de prioridad de pérdida. Si CLP=0 la prioridad es alta, y si CLP=1 es baja.

HEC (8 bits)

Control de error de la cabecera.

5.3 ATM


El Modo de Transferencia Asíncrona o Asynchronous Transfer Mode (ATM) es una tecnología de telecomunicación desarrollada para hacer frente a la gran demanda de capacidad de transmisión para servicios y aplicaciones. Con esta tecnología, a fin de aprovechar al máximo la capacidad de los sistemas de transmisión, sean estos de cable o radioeléctricos, la información no es transmitida y conmutada a través de canales asignados en permanencia, sino en forma de cortos paquetes (celdas ATM) de longitud constante y que pueden ser enrutadas individualmente mediante el uso de los denominados canales virtuales  y trayectos virtuales.



En la Figura se ilustra la forma en que diferentes flujos de información, de características distintas en cuanto a velocidad y formato, son agrupados en el denominado Módulo ATM  para ser transportados mediante grandes enlaces de transmisión a velocidades (bit rate) de 155 o 622 Mbit/s facilitados generalmente por sistemas SDH. En el terminal transmisor, la información es escrita byte a byte en el campo de información de usuario de la celda y a continuación se le añade la cabecera. En el extremo distante, el receptor extrae la información, también byte a byte, de las celdas entrantes y de acuerdo con la información de cabecera, la envía donde ésta le indique, pudiendo ser un equipo terminal u otro módulo ATM para ser encaminada a otro destino. En caso de haber más de un camino entre los puntos de origen y destino, no todas las celdas enviadas durante el tiempo de conexión de un usuario serán necesariamente encaminadas por la misma ruta, ya que en ATM todas las conexiones funcionan sobre una base virtual.

5.2.3 Gestion de Trafico


En telefonía la gestión de tráfico o gestión de redes una actividad de administración de la red telefónica cuyo objetivo es asegurar que el mayor número posible de llamadas telefónicas son conectadas a su destino.

Gestión de tráfico:

  • CIR (Commited Information Rate, Tasa de información comprometida). Caudal medio garantizado que la red se compromete a dar en una conexión. Este concepto se introduce para mejorar la reserva de recursos. Se mide en la capa de enlace.
  • Bc (Commited Burst Size, volumen de información comprometida). Es la máxima cantidad de datos (bits) que la red se compromete a transmitir durante un intervalo de tiempo definido Tc.          ß Bc = CIR * Tc
  • Be (Excess Burst Size, Volumen de información en exceso). La máxima cantidad permitida de datos que pueden exceder Bc durante el intervalo de tiempo Tc. El envió de estos datos (Be) no está garantizado. Aquellos datos que superen Bc + Be se descartan incondicionalmente.
  • Tc (Commited Rate measurement Interval). Intervalo de tiempo durante el cual al usuario solo se le permite transmitir Bc + Be. (Tiempo en el que el gestor de tramas –nodo- mide el tráfico sobre cada conexión lógica).
  • El caudal físico (Cf) de la línea de accesos también se contrata. Así el operador dimensiona la red en función de los parámetros contratados por sus abonados.
  • Cuando una trama se envía dentro de la región entre Bc y Bc+Be, el bit DE ese puesto a 1. En caso de congestión estas tramas son las primeras en descartarse en un gestor de tramas.
  • Propiedad: la suma de las CIR de un nodo, debe ser menor o igual que la velocidad de acceso por esa línea


5.2.2 Parametros de un Circuito


Frame Relay utiliza un circuito virtual (VC), que es una conexión lógica creada entre dos equipos terminales de datos (DTE) a través de la red del proveedor de servicio. 
El equipo del proveedor, al que se conecta el DTE, se llama DCE y se encarga de dar el reloj y los servicios de conmutación en la red. 

Cada circuito virtual se identifica con un identificador llamado DLCI. El DLCI del circuito tiene ámbito local, ya que los Switches de la red podrán conmutar el valor del DLCI a lo largo de todo el trayecto del circuito virtual. Cuando se contrata un servicio Frame Relay, para cada circuito virtual se especifica un CIR, que es la velocidad de transmisión de datos promedio máxima que la red se compromete a transportar bajo circunstancias normales, es decir, si transmites a una velocidad Superior a CIR los paquetes serán marcados como candidatos a ser descartados en caso de sobrecarga de la red. 
El estándar de señalización entre el router (DTE) y el Switch Frame Relay (DCE) se llama LMI y existen varios tipos, luego es necesario que el DCE y el DTE utilicen el mismo tipo para poder comunicarse. 



Una conexión Frame Relay necesita que, en un circuito virtual, el DLCI local este asociado (mapeado) a una dirección de nivel de red, por ejemplo dirección IP. 
Cuando una trama entra en la red el Switch realiza lo siguiente: 

  • Mira el valor de DLCI entrante. 
  • Consulta (en una tabla que mapea cada DLCI destino con un puerto) el valor correspondiente al DLCI del extremo remoto. 
  • Transmite la trama al puerto correspondiente incluyendo los dos valores de DLCI en la cabecera Frame Relay. 
  • Cuando la trama sale por el otro extremo, ya sale etiquetada con el DLCI destino al que es asignada a la entrada de la red. Este método permite tener múltiples DLCIs sobre un mismo puerto físico de un Switch. 


Flag: Tiene el mismo formato que en LAB-B (01111110), y también se utiliza para separar tramas. Cuando no hay tramas que transmitir, se generan guiones continuamente. 
Control: Llamamos campo de control a los bytes que siguen al Flag y que están por delante de los Datos de usuario: 

  • E.A.: Extended Address. Puesto que se permiten más de dos octetos en el campo de control, este primer bit de cada octeto indica (cuando está marcado con un '0') si detrás siguen más octetos o bien (cuando está marcado con un '1') si se trata del último del campo de control. Emplear más de dos bytes resulta bastante infrecuente y se utiliza en el caso de que la dirección de multiplexion (en el campo DLCI) supere los 10 bits. 
  • C.R.: Bit de Comando / Respuesta. No es un bit utilizado por la red, al igual que ocurría con el bit "Q" de X.25. Se introduce por compatibilidad con protocolos anteriores, como los del tipo HDLC. 
  • D.E.: Discard Eligibility .Las tramas que tienen este bit a "1" son susceptibles de descarte en situaciones de congestión. 
  • B.E.C.N.: Notificación de congestión en el sentido contrario a la transmisión. 
  • F.E.C.N.: Notificación de congestión en el sentido de la transmisión. 
  • D.L.C.I.: Los diez bits que quedan son el identificador de conexión de enlace de datos. Permite definir hasta 1024 circuitos virtuales. Ya habíamos avanzado que la función de multiplexion se realiza en el nivel 2, y con el D.L.C.I se identifica al canal lógico al que pertenece cada trama. Los números de canal lógico se asignan por contratación. 


La evolución tecnológica ha logrado mejorar la calidad de las líneas, permitiendo desplazar el control de los errores a los propios equipos situados en los extremos de la comunicación, que pueden interpretar las señales de control de flujos generadas por la red. 
Datos de Usuario: Esta información se mete en la trama y, en recepción, se pasa directamente al nivel superior. Su longitud máxima no está definida en el estándar de facto, pues no se pudo llegar a un acuerdo. Normalmente los operadores de redes FR la sitúan alrededor de 1600 bytes. 

Conviene destacar que el protocolo define también el orden de transmisión de los bits de la trama por línea. Este orden es, según se ha querido dar a entender con la figura 4.42 b), de izquierda a derecha (según están numerados los bits) y de arriba hacia abajo. La transmisión es en serie por la línea y un bit va detrás de otro. Un sistema final o intermedio que reciba una trama debe saber el significado de cada bit que le llega, y este significado depende del orden de ese bit dentro de su trama. 




Los sistemas pueden almacenar las tramas de formas diferentes. No olvidemos que la representación interna de la información dentro de un sistema puede tener diferentes significados, según el convenio que haya adoptado la implementación de esa máquina. Existen los convenios extremista mayor y extremista menor (Big-Endian y Little- Endian en inglés), y estos, a su vez pueden estar referidos a bits, bytes o palabras. El sistema debe tener esto en cuenta para operar adecuadamente con los bits que tiene almacenados, y al transmitir o recibir bits de tramas, hacerlo en el orden que establece el protocolo. 

Control de congestión de la información. El indicador de elegibilidad de descarte (DE) proporciona un mecanismo de prioridad de dos niveles, en el cual la más baja prioridad de tráfico es descartada primero en caso de congestión en la red. El bit forward éxplicit congestión notification (FECN) y el bit backward éxplicit congestión notification (BECN) notifican al usuario final de la congestión que hay en la red. 

El paquete Frame Relay consiste de un byte de flag, seguido de 2-4 bytes de dirección, 2 bytes de CRC, y un último byte de flag. 
Los bytes de flag al comienzo y al final de la trama son los mismos que usan LAP-B y LAP-D. El campo dirección esta descrito debajo. El campo información contiene los datos de usuario. La secuencia de control de trama (FCS) es generada usando el polinomio de 16-bit estándar de CCITT (CRC). 

La longitud del campo dirección es determinada por el bit de dirección extendida (E/A). Si el E/A bit es 0, sigue otro byte de dirección. El byte final de dirección tiene E/A puesto a 1. El bit mandato/respuesta (commando/response) (C/R) está definido para alineamiento con paquetes LAP-D, pero no es usado para Frame Relay. Los bits FECN y BECN son usados para notificar que hay congestión en la red. El bit de elegibilidad de descarte, DE, puede ser usado o por el usuario o por la red para proporcionar un mecanismo de prioridad a dos niveles. En caso de congestión las tramas con DE = 1 serán descartadas primero. El bit indicador de control/DLCI (D/C) determina si los seis bits de menor orden deben ser interpretados como bits DLCI de menor peso o como bits de control. 

La mayoría de los campos de dirección constan del identificador de conexión de enlace de datos (DLCI). El DLCI es equivalente al identificador de circuito virtual (VCI) usado en redes X.25. La dirección completa de 23 bit sirve como modo de direccionamiento global. Los modos más compactos de direccionamiento sirven para limitar la generalidad de la trama cabecera cuando el usuario no utiliza direccionamiento global; por ejemplo cuando un usuario solo conecta con otros usuarios locales dentro de una misma organización. Esto es análogo al uso de las extensiones cortas de teléfonos.

sábado, 13 de diciembre de 2014

5.2.1 Arquitectura de una Red Frame Relay

El FRL es un servicio orientado a la conexión para la transmisión de datos en frames de tamaño variable de hasta 8 Kbyte y velocidades de hasta 2 Mbps. Esta velocidad máxima es consecuencia a que el estándar fue especificado dentro de la ISDN, aunque no existe otro motivo que impida el soporte de velocidades superiores.

Una red Frame Relay proporciona los servicios y las facilidades para que los usuarios puedan conectarse con otros usuarios que también utilizan FRL. El servicio ofrecido está dividido en dos planos que utilizan el mismo medio físico.

Plano de control (C-plane): encargado de realizar las conexiones a lo largo de toda la red y sobre las que se transferirán los datos. El protocolo de señalización utilizado es el Q.933 una extensión del Q.931 utilizado en la ISDN, mientras que en el nivel de enlace utiliza el Q.922, también conocido como LAPF, con controles de error y de flujo que permitan el control completo de los mensajes de señalización.

Plano de usuario (U-plane): una vez establecida la conexión el FRL utiliza el Q.922 como protocolo de enlace para transferir información entre los usuarios aunque únicamente usa la denominadas funciones núcleo que no proporcionan ni control de errores ni control de flujo funciones que deberá implementar los equipos terminales de los usuarios.




El protocolo de enlace


Al observar el formato del Frame utilizado en la Q.922 reconocemos similitud con otros protocolos de nivel 2 (SDLC, LAPD, LAPB...) excepto en algo fundamental: no tiene campo de control, por lo que podemos empezar constatando lo que el LAPF no puede hacer:
Sólo existen frames de información que transportan datos.
No existen frames de señalización ya que no hay forma material de codificar mensajes especiales para el establecimiento o la liberación de conexiones.
Tampoco existen frames que permitan a la red ejecutar control de flujo, enviar ACKs, o pedir retransmisiones... ¡¡¡ ni siquiera existe un campo que permita numerar los frames!!!
Todas estas funciones deben ser implementadas en los equipos terminales tales como routers, bridges o controladoras de comunicaciones, que deberán disponer de los mecanismos necesarios para el secuenciamiento, el control de flujo, el envío de ACKs y la detección/recuperación de frames erróneos o duplicados, que permitan garantizar la integridad de los datos transmitidos.

El limitado conjunto de funciones núcleo del Q.922 utilizadas para la transferencia de información de los usuarios determinan las principales características de las redes Frame Relay:
  • La red detecta pero no recupera errores, los nodos de la red tienen capacidad de detectar errores y en determinados casos de eliminar frames, pero nunca recuperarlos.
  • La red da avisos de congestión, utilizando dos bits, FECN y BECN (Forward and Backward Éxplicit Congestión Notification) con los que la red informa si hay congestión en los nodos atravesados. El bit FECN indica que había congestión en el camino atravesado por el Frame, mientras que el bit BECN indica que había congestión para los frames que circulaban en la dirección opuesta. Ambos son indicaciones que invitan al generador de tráfico a reducir su velocidad de transmisión para bajar el nivel de congestión de la red. El FECN es útil cuando existen a mecanismos de ventana de nivel superior entre los usuarios finales mientras que el BECN se utiliza si se verifica tráfico en ambas sentidos.



Gestión de la red


Funciones de Management a través del LMI (Local Management Interface) permite la comunicación con la red que informa del estado de los Circuitos Virtuales Permanentes (PVC). Se está trabajando para que el LMI también sirva para el establecimiento de Conexiones Virtuales Conmutadas (SVC). Para realizar la comunicación entre el dispositivo de datos del usuario (DTE) y la red existe un DLCI reservado a través del cual se realizan las siguientes funciones:
  • Requerimientos que permiten al DTE preguntar a la red si continúa activa.
  • Requerimientos que permiten al DTE preguntar por las lista de DLCI definidos para su interface
  • Requerimientos que permiten conocer el estado de cada DLCI si está o no está congestionado.
  • En el futuro podrá ser usado para la gestión de más información de la red. En la actualidad los DTE no tienen la obligación de utilizar el LMI ya que sólo se utilizan PVC que tienen unas posibilidades más restringidas a la hora de gestionar los enlaces.



El Control de Admisión


Cuando se contrata un acceso FRL el primer parámetro a tener en cuenta es la Velocidad Máxima de Transmisión (Vt) que viene determinada por la calidad de la línea utilizada. Sin embargo para evaluar las posibilidades del acceso el parámetro clave es la clase de caudal o Committed Information Rate (CIR) que viene a ser la velocidad media de transmisión que la red se compromete a servir. El CIR se contrata para cada PVC o se negocia dinámicamente en caso de disponer de SVC. El Committed Burst Size (Bc) es el volumen de tráfico garantizado durante el Intervalo de Referencia (tc). Analíticamente:
Bc = CIR * tc

El límite máximo viene marcado por el tráfico en exceso o Excess Burst Size (Be), que indica el volumen de tráfico adicional que puede ser transmitido por encima del Bc.

El proceso de utilización es el siguiente:
Supongamos que un usuario a transmite frames a la velocidad máxima, Vt. Observar cómo el volumen de información transmitida se va acumulando. Mientras este volumen esté por debajo del Bc los frames enviados por el equipo del usuario serán aceptados por la red (frames 1 y 2).
Pero si continúa transmitiendo intensamente llegará un punto en el que el volumen de información transmitida superará Bc y a partir de ese momento las tramas del usuario serán marcadas con el bit DE (Frame 3) y pasarán a ser consideradas como tráfico de baja prioridad lo que significa que en caso de congestión en algún nodo de la red serán las primeras en ser descartadas.


Si el usuario persiste en transmitir puede llegar a superar el nivel Bc+Be punto a partir del cual ningún otra trama será admitida por la red y serán simplemente descartadas. Una vez agotado el intervalo tc los parámetros del tráfico acumulado son inicializados y se ejecuta de nuevo el mismo algoritmo

viernes, 12 de diciembre de 2014

5.2 Frame Relay


Frame Relay o (Frame-mode Bearer Service) es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducido por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos (“frames”) para datos, perfecto para la transmisión de grandes cantidades de datos. La técnica Frame Relay  se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un coste menor Frame Relay proporciona conexiones entre usuarios a través de una red pública,  del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión. Las conexiones pueden ser del tipo permanente, (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched  Virtual Circuit). Por ahora sólo se utiliza la permanente. De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red. El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz.  Al contratar un servicio Frame Relay, contratamos un ancho de banda determinado en un tiempo determinado. A este ancho de banda se le conoce como CIR (Commited Information Rate). Esta velocidad, surge de la división de Bc (Committed Burst ), entre Tc (el intervalo de tiempo). No obstante, una de las características de Frame Relay es su capacidad para adaptarse a las necesidades de las aplicaciones, pudiendo usar una mayor velocidad de la contratada en momentos puntuales, adaptándose muy bien al tráfico en ráfagas. Aunque la media de tráfico en el intervalo Tc no deberá superar la cantidad estipulada Bc. Estos bits de Bc serán enviados de forma transparente. No obstante, cabe la posibilidad de transmitir por encima del CIR contratado, mediante el Be (Excess Burst). Estos datos que superan lo contratado, serán enviados en modo best-effort, activándose el bit DE de estas tramas, con lo que serán las primeras en ser descartadas en caso de congestión en algún nodo.




Como se observa en la imagen, las tramas que superen la cantidad de Bc+Be en el intervalo, serán descartadas directamente sin llegar a entrar en la red, sin embargo las que superan la cantidad Bc pero no Bc+Be se marcan como descartables (DE=1) para ser estas las primeras en ser eliminadas en caso de congestión. Para realizar control de congestión de la red, Frame Relay activa unos bits, que se llaman FECN (forward éxplicit congestión notification), BECN (backward éxplicit congestión notification) y DE (Discard Eligibility). Para ello utiliza el protocolo LAPF, un protocolo de nivel de enlace que mejora al protocolo LAPD. FECN se activa, o lo que es lo mismo, se pone en 1, cuando hay congestión en el mismo sentido que va la trama. BECN se activa cuando hay congestión en el sentido opuesto a la transmisión. DE igual a 1 indica que la trama será descartable en cuanto haya congestión. Se utiliza el llamado Algoritmo del Cubo Agujereado, de forma que se simulan 2 cubos con un agujero en el fondo: Por el primero de ellos pasan las tramas con un tráfico inferior a CIR, el que supera este límite pasa al segundo cubo, por el que pasará el tráfico inferior a CIR+EIR (y que tendrán DE=1). El que supera este segundo cubo es descartado. En cada nodo hay un gestor de tramas, que decide, en caso de congestión, a quien notificar, si es leve avisa a las estaciones que generan más tráfico, si es severa le avisa a todos. Siguiendo el algoritmo anterior, podríamos descartar en el peor de los casos el tráfico que pasa a través del segundo cubo. Este funcionamiento garantiza que se cumplen las características de la gestión de tráfico. Por otro lado, no lleva a cabo ningún tipo de control de errores o flujo, ya que delega ese tipo de responsabilidades en capas superiores, obteniendo como resultado una notable reducción del tráfico en la red, aumentando significativamente su rendimiento. Esta delegación de responsabilidades también conlleva otra consecuencia, y es la reducción del tamaño de su cabecera, necesitando de menor tiempo de proceso en los nodos de la red y consiguiendo de nuevo una mayor eficiencia. Esta delegación de control de errores en capas superiores es debido a que Frame Relay trabaja bajo redes digitales en las cuales la probabilidad de error es muy baja.



5.1.3 Clases de Servicio


Servicio Garantizado sin Solicitud (UGS)
La capa de transporte divide los datos en unidades de un tamaño que se pueda administrar, denominadas segmentos. También asigna números de secuencia a los segmentos para asegurarse de que los hosts receptores vuelvan a unir los datos en el orden correcto. Luego la capa de red encapsula el segmento creando un paquete. Le agrega al paquete una dirección de red destino y origen, por lo general IP. El servicio UGS esta diseñado para soportar aplicaciones en tiempo real, que manejen paquetes de tamaño fijo generados periódicamente, como es el caso de T1/E1 y Voz sobre IP (sin supresión de silencios). En este servicio, la BS ofrece oportunidades de transmisión (grants) en forma periódica, cuyo tamaño también es fijo y lo suficientemente grande, como para soportar las tasas de transferencia que generan las aplicaciones de tiempo real, eliminando el uso de encabezados y la latencia de las peticiones. Los parámetros clave para este servicio son Máximum Sustained Traffic Rate, Máximum Latency, Tolerated Jitter y Request/Transmisión Policy, cuya explicación se podrá encontrar en el Apéndice A. Para un correcto funcionamiento, el parámetro Request/Transmisión Policy debe estar configurado a manera de no permitir a la SS realizar solicitudes de ancho de banda en el área de contención, ya que esta se encuentra constantemente recibiendo grants para el envió de su información. Los intervalos en los que la SS conceda los grants a la SS están limitados por el valor del parámetro Máximum Sustained Traffic Rate.
Servicio de Propuesta en tiempo real (rtPS)
rtPS esta diseñado para soportar aplicaciones en tiempo real que generen paquetes de tamaño variable y en forma periódica, tales como el video en formato MPEG (Moving Pictures Experts Group). En este servicio, la BS ofrece periódicamente oportunidades de solicitud de ancho de banda para cada SS, a fin de poder cumplir con los requerimientos de tiempo real y a la vez permitiendo a la SS especificar el tamaño del grant deseado, optimizando la eficiencia del transporte de información. Los parameters clave para este servicio son: Maximum Sustained Traffic Rate, Minimum Reserved Traffic Rate, and Maximum Latency y Request/Transmission Policy. Para que el servicio funcione correctamente, el parámetro Request/Transmission Policy debe estar configurado a manera de no permitir a la SS el uso de solicitudes en el área de contención (primeros 7 mini-slots del mapa). De esta forma, la SS solo hará peticiones de ancho de banda cuando la BS le asigne un espacio en el área de reservación. Por su parte, la BS podrá enviar oportunidades de solicitud de ancho de banda a la SS,
Servicio de Propuesta no en tiempo real (nrtPS)
El servicio nrtPS esta diseñado para soportar aplicaciones tolerantes al retraso (delay) que produzcan paquetes de tamaño variable y con requerimientos mínimos de tasa de transmisión, tales como FTP (File Transfer Protocol). Para ello la BS ofrece oportunidades de petición de ancho de banda a la SS en forma regular, lo que asegura que dichas peticiones tengan lugar incluso en periodos de congestión de la red. Estos intervalos de poleo pueden ser del orden de un segundo, o inferiores.
Servicio de mejor esfuerzo (BE)
Este servicio esta diseñado para soportar tráfico que no presente los requerimientos mínimos asociados a algún nivel de servicio, y por consiguiente pueda ser manejado en base al espacio disponible en el canal de comunicación. Los parámetros clave para este servicio son Máximum Sustained Traffic Rate, Traffic Priority y Request/Transmission Policy. Para un correcto funcionamiento, el parámetro Request/Transmission Policy debe estar configurado a modo de permitir a la SS realizar peticiones de ancho de banda en el área de contención. Esto permitirá a la SS realizar dichas peticiones tanto en el área de contención como en las oportunidades que le envié la BS en la zona de reservación.

5.1.2 Encapsulación.


El encapsulamiento es el proceso por el cual los datos que se deben enviar a través de una red se deben colocar en paquetes que se puedan administrar y rastrear. Las tres capas superiores del modelo OSI (aplicación, presentación y sesión) preparan los datos para su transmisión creando un formato común para la transmisión. La capa de transporte divide los datos en unidades de un tamaño que se pueda administrar, denominadas segmentos. También asigna números de secuencia a los segmentos para asegurarse de que los hosts receptores vuelvan a unir los datos en el orden correcto. Luego la capa de red encapsula el segmento creando un paquete. Le agrega al paquete una dirección de red destino y origen, por lo general IP. En la capa de enlace de datos continua el encapsulamiento del paquete, con la creación de una trama. Le agrega a la trama la dirección local (MAC) origen y destino. Luego, la capa de enlace de datos transmite los bits binarios de la trama a través de los medios de la capa física. Cuando los datos se transmiten simplemente en una red de área local, se habla de las unidades de datos en términos de tramas, debido a que la dirección MAC es todo lo que se necesita para llegar desde el host origen hasta el host destino. Pero si se deben enviar los datos a otro host a través de una red interna o Internet, los paquetes se transforman en la unidad de datos a la que se hace referencia. Esto se debe a que la dirección de red del paquete contiene la dirección destino final del host al que se envían los datos (el paquete). Las tres capas inferiores (red, enlace de datos, física) del modelo OSI son las capas principales de transporte de los datos a través de una red interna o de Internet. La excepción principal a esto es un dispositivo denominado Gateway. Este es un dispositivo que ha sido diseñado para convertir los datos desde un formato, creado por las capas de aplicación, presentación y sesión, en otro formato. De modo que el Gateway utiliza las siete capas del modelo OSI para hacer esto.




Si una computadora A quiere enviar datos a una computadora B, los datos deben ser empacados primero por un proceso llamado encapsulamiento. Este proceso puede pensarse como poner una carta dentro de un sobre, y poner las direcciones correctas del destinatario y el remitente para que sea entregada apropiadamente por el sistema postal El encapsulamiento envuelve los datos con la información de protocolo necesaria antes de transitar por la red. Así, mientras la información se mueve hacia abajo por las capas del modelo OSI, cada capa añade un encabezado, y un tráiler si es necesario, antes de pasarla a una capa inferior. Los encabezados y tráiler contienen información de control para los dispositivos de red y receptores para asegurar la apropiada entrega de los datos y que el receptor interprete correctamente lo que recibe.




  • Paso 1: los datos de usuario son enviados por una aplicación a la capa de aplicación. 
  • Paso 2: La capa de aplicación añade el encabezado (layer 7 Header) a los datos, el encabezado y los datos originales pasan a la capa de presentación
  • Paso 3: La capa de presentación recibe los datos provenientes de la capa superior, incluyendo el encabezado agregado, y los trata como solo datos, añade su encabezado a los datos, y los pasa a la capa de sesión 
  • Paso 4: la capa de sesión recibe los datos y añade su encabezado, lo pasa a la capa de transporte. 
  • Paso 5: la capa de transporte recibe los datos y añade su encabezado, pasa los datos a la capa inferior. 
  • Paso 6: la capa de red añade su encabezado y los pasa a la capa de enlace de datos.
  • Paso 7: la capa de enlace de datos añade el encabezado y un tráiler (cola) a los datos, usualmente es un Frame Check Sequence, que usa el receptor para detectar si los datos enviados están o no en error. Esto envuelve los datos que son pasados a la capa física. 
  • Paso 8: la capa física entonces transmite los bits hacia el medio de red.





5.1.1 Arquitectura de una Red WIMAX


Por otro lado, este incremento en las necesidades de ancho de banda, ha supuesto un rápido desarrollo de WDM (Wavelength División Multiplexing); tecnología que ofrece en la actualidad la posibilidad de transportar hasta 160 canales de 10 Gbps. sobre una única fibra óptica. En efecto, la red de transporte esta en estos momentos pasando por un periodo de transición, evolucionando desde las tradicionales redes ATM y SONET/SDH basadas en la Multiplexacion en el tiempo con WDM utilizado estrictamente para incrementar la capacidad de la fibra óptica, hacia una red fotonica basada en la Multiplexacion en frecuencia óptica; realizando no solo el transporte, sino también la Multiplexacion, encaminamiento, supervisión y protección en la capa óptica. Las ventajas de una red totalmente óptica son, entre otras, una menor complejidad, una mayor transparencia respecto a las señales transportadas, un mayor ancho de banda y mayores distancias de transmisión. 

La IEEE define solo la física (PHY) y Media Access Control (MAC) en las capas 802,16. Este enfoque ha funcionado bien para las tecnologías como Ethernet y WiFi, que se basan en otros órganos, como el IETF (Internet Engineering Task Force) para establecer las normas para la capa superior de protocolos como TCP / IP, SIP, VoIP y IPSec. En el mundo móvil inalámbrica, organismos de normalización, tales como el 3GPP y 3GPP2 establecer normas en una amplia gama de interfaces y protocolos, ya que no solo requieren airlink interoperabilidad, pero también entre los proveedores interinstitucional para la interoperabilidad de la red de itinerancia, de múltiples proveedores de acceso redes, e Interamericano de facturación de la compañía. Los vendedores y los operadores han reconocido este problema y han formado nuevos grupos de trabajo para elaborar modelos de referencia estándar de red para abrir entre las interfaces de red. Dos de ellos son el WiMAX Fórum del Grupo de Trabajo de la Red, que se centra en la creación de más alto nivel de especificaciones para la creación de redes fijas, nómadas, portátiles y móviles WiMAX sistemas más allá de lo que se define en el estándar IEEE 802,16, y el Proveedor de Servicio de Grupo de Trabajo que ayuda a Escribir les da prioridad a las necesidades y para ayudar a impulsar la labor de la Red GT. 
El WiMAX móvil de extremo a extremo la arquitectura de la red se basa en un All-IP plataforma, todos los paquetes de tecnología sin legado circuito de telefonía. Ofrece la ventaja de la reducción de costo total de propiedad durante el ciclo de vida de despliegue de una red WiMAX. El uso de All-IP significa que un núcleo común de la red se puede utilizar, sin la necesidad de mantener los paquetes básicos de circuitos y redes, con todos los gastos generales que va con ella. Otro beneficio de All-IP es que se sitúa a la red sobre el rendimiento de la curva de crecimiento de los procesadores de propósito general y de los dispositivos informáticos, a menudo denominados "Ley de Moore". Los avances en el tratamiento informático se producen mucho más rápido que los avances en las telecomunicaciones, porque los equipos de uso general de hardware no se limitan a los equipos de telecomunicaciones ciclos, que tienden a ser largo y engorroso. El resultado final es una red que se realiza continuamente en cada vez mayores de capital y la eficiencia operativa, y se aprovecha de la 3 ª parte de la evolución de la comunidad de Internet. Esto se traduce en menor costo, alta escalabilidad, y el rápido despliegue de redes ya que la funcionalidad es principalmente todos los servicios basados en software. 
Con el fin de desplegar con éxito los sistemas comerciales y operativos, se necesita el apoyo más allá de 802,16 (PHY / MAC) especificaciones de la interfaz de aire. El principal de ellos es la necesidad de apoyar a un conjunto básico de funciones de redes como parte del total de extremo a extremo la arquitectura del sistema WiMAX. Antes de profundizar en algunos de los detalles de la arquitectura, la primera nota que algunos principios básicos que han guiado el desarrollo de la arquitectura WiMAX.



Apoyo a los Servicios y Aplicaciones: El de extremo a extremo la arquitectura incluye soporte para: a) de voz, multimedia y otros servicios por mandato reglamentario servicios tales como los servicios de emergencia y la interceptación legal, b) El acceso a una variedad de independiente Application Service Provider (ASP ) En las redes de un agnóstico forma, c) el uso de comunicaciones móviles, la telefonía VoIP, d) Apoyo a la comunicación con los diversos medios de comunicación y el interfuncionamiento pasarelas que permitan la entrega de titular / legado traducido servicios sobre IP (por ejemplo, sobre IP SMS, MMS, WAP), el acceso a WiMAX Redes y e) Apoyo a la entrega de Broadcast IP Multicast y servicios a través de redes de acceso WiMAX. 
WiMAX Fórum participantes de la industria han identificado un modelo de referencia de Red WiMAX (MRN), que es una representación lógica de la arquitectura de red. El manejo de los recursos naturales se identifica entidades funcionales y puntos de referencia sobre el que se consigue la interoperabilidad entre entidades funcionales. La arquitectura se ha desarrollado con el objetivo de proporcionar apoyo unificado de la funcionalidad necesaria en una gama de modelos de despliegue de red y el uso de los escenarios (que van desde fijo ¬nómadas - portátiles - simple movilidad - plenamente a los abonados móviles). 
La intención del manejo de los recursos naturales es permitir múltiples opciones para la aplicación funcional de una determinada entidad, y, sin embargo, lograr la interoperabilidad entre las diferentes realizaciones de las entidades orgánicas. La interoperabilidad se basa en la definición de protocolos de comunicación y tratamiento de datos plano funcional entre las entidades para lograr una solución global extremo a extremo, la función, por ejemplo, la seguridad o la gestión de la movilidad. Por lo tanto, las entidades funcionales a ambos lados de un punto de referencia representan una colección de control y el avión portador puntos finales. 
Servicio de conectividad de red (CSN) se define como un conjunto de funciones de red que proporcionan los servicios de conectividad IP a los suscriptores WiMAX (s). Una CSN puede comprender los elementos de la red tales como routers, proxy AAA / servidores, bases de datos de usuarios y de dispositivos de puerta de enlace Interconexión de redes. Una nota puede ser desplegada como parte de una red WiMAX Green Field proveedor de servicios (NSP) o como parte de un titular WiMAX NSP. 
La red de especificaciones para sistemas basados en WiMAX se basa en varios principios básicos de la arquitectura de la red, incluidos los que figuran a continuación. 

La arquitectura WIMAX también permite que tanto los servicios de IP y Ethernet, en un estándar de red móvil IP compatible. La flexibilidad y la interoperabilidad WiMAX apoyo de la red proporciona a los operarios con múltiples proveedores de bajo costo de implementación de una red WiMAX incluso mezclados con un despliegue de la ASN distribuidos y centralizados en la red. The WiMAX network has the following major features: La red WiMAX tiene las siguientes caracteristicas principales: 



Seguridad


La arquitectura WiMAX de punto a punto de la red se basa en un marco de seguridad que es agnóstico a la ASN operador tipo y topología y se aplica de forma conjunta en Green Field interconexión y el despliegue de modelos y escenarios de uso. En particular, existe apoyo para: a) Fuerte dispositivo de autenticación mutua entre el MS y la red de WiMAX, basado en el estándar IEEE 802,16 marco de seguridad, b) Todos los mecanismos de autenticación comúnmente desplegadas y autenticación en el país y visito operador de la red sobre la base de una hipótesis coherente y Marco de autenticación extensible, c) la integridad de datos, reproducción de protección, confidencialidad y no repudio usando longitudes de claves aplicables, d) Uso de MS iniciado o terminado los mecanismos de seguridad, tales como redes privadas virtuales (VPNs), e) Norma garantizar mecanismos de gestión de dirección IP entre La MS / SS y visito su casa o NSP. 


Movilidad


La arquitectura WiMAX de punto a punto de la red tiene una amplia capacidad de apoyo a la movilidad y entrega. El programa: a) Incluir o vertical entre la tecnología de la entrega-por ejemplo, a Wi-Fi, 3GPP, 3GPP2, DSL o MSO - cuando dicha capacidad esta activada en el modo multi-MS, b) Apoyo IPv4 o IPv6 basado en la gestión de la movilidad. Dentro de este marco, y en su caso, deberá tener en cuenta la arquitectura de MS con múltiples direcciones IP simultaneas y conexiones IPv4 y IPv6, c) Apoyo a la itinerancia entre el PEN, d) Utilizar mecanismos de apoyo a la entrega sin fisuras de hasta velocidades de los vehículos que cumplan bien definidos (Dentro de WiMAX Fórum) límites de la interrupción del servicio. Algunas de las capacidades adicionales en apoyo de la movilidad incluyen el apoyo de: i) estática y dinámica de las configuraciones de la dirección de su casa, ii) la dinámica de cesión de la Casa de agente en el proveedor de servicios de red como una forma de optimización de ruta, así como en el hogar IP Red como una forma de equilibrio de carga y iii) la dinámica de cesión de la Casa de Agente basado en políticas. 


Escalabilidad, Extensibilidad, y la Cobertura del Operador de Selección   
           
La arquitectura WiMAX de punto a punto de la red tiene un buen soporte para escalable, extensible y flexibilidad en la operación de selección de operador. En particular se ocupara de: a) permitir a un usuario seleccionar manualmente o automáticamente a disposición de los PAN y los programas de jeringuillas y agujas, b) Habilitar ASN CSN y diseños de sistemas que fácilmente escala hacia arriba y hacia abajo - en términos de cobertura, alcance o capacidad, c) Acomode un Variedad de topologías ASN - incluyendo hub-and-habla, jerárquica, y / o multi¬hop interconecta, d) Acomode una variedad de enlaces de backhaul, tanto alámbricas e inalámbricas con diferentes características y rendimiento de latencia, e) Apoyo a la infraestructura de despliegue incremental, f ) Apoyo introducción gradual de los servicios de propiedad intelectual que, a su vez, con escala creciente número de usuarios activos y concurrentes servicios IP por usuario, g) Apoyo a la integración de las estaciones base de cobertura y la capacidad de diferentes - por ejemplo, el pico, las micro, macro y de las estaciones de base y E) El apoyo y la integración flexible de la descomposición de la ASN ASN funciones en los despliegues de red, a fin de permitir el uso de los sistemas de balanceo de carga para el uso eficiente del espectro radioeléctrico y los recursos de la red. 


La Interoperabilidad de Múltiples Proveedores

Otro aspecto clave de la arquitectura de su red WIMAX es el apoyo de la interoperabilidad entre equipos de diferentes fabricantes dentro de un ASN y todo ASNs.
Esta interoperabilidad incluirá la interoperabilidad entre: a) BS y vuelta dentro de un equipo de ASN, y b) Diversas ASN elementos (posiblemente de diferentes proveedores) y CSN, con mínima o ninguna degradación en la funcionalidad o capacidad de la ASN. 


Calidad de Servicio


La Red WIMAX Architecuture ha dispuesto para el apoyo de los mecanismos de QoS. En particular, se permite el apoyo flexible de utilización simultánea de un conjunto diverso de los servicios IP. La arquitectura soporta: a) los niveles de QoS diferenciada - de grano grueso (por usuario / terminal) y / o de grano fino (por el flujo de servicios por usuario / terminal), b) Admisión de control, c) la gestión de ancho de banda y d) Aplicación de Políticas definidas por distintos operadores para QoS-sobre la base de su SLA (incluida la aplicación de políticas por usuario y grupo de usuarios, así como factores como la ubicación, la hora del día, etc.) Se hace un uso extenso de la norma IETF mecanismos para la gestión de la política de definición y aplicación de políticas entre los operadores.