UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS INGENIERIA DE TELECOMUNICACIONES

Tamaño: px
Comenzar la demostración a partir de la página:

Download "UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BASICAS TECNOLOGIAS E INGENIERIAS INGENIERIA DE TELECOMUNICACIONES"

Transcripción

1 UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA INGENIERIA DE TELECOMUNICACIONES REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES II PABLO ANDRES GUERRA GONZALEZ (Director Nacional) REMBERTO CARLOS MORENO HERAZO Acreditador VALLEDUPAR Julio de 2012

2 ASPECTOS DE PROPIEDAD INTELECTUAL Y VERSIONAMIENTO El presente módulo fue diseñado en el año 2011 por el Ing. Pablo Andrés Guerra González, tutor de la UNAD, ubicado en el CEAD Valledupar, es Ingeniero electrónico, especialista en sistemas de telecomunicaciones, se ha desempeñado como tutor de la UNAD desde el 2003 hasta el año 2011.

3 INTRODUCCIÓN El curso Redes y Sistemas Avanzados de Telecomunicaciones 2, es de tipo metodológico, electivo del programa ingeniería de Telecomunicaciones, su metodología es educación a distancia y corresponde a dos (3) créditos académicos. Las redes tanto de conmutación como de transporte y acceso, evolucionan en el tiempo para aportar mayor capacidad y conectividad, a la vez que ofrecen una mayor fiabilidad y seguridad. Así, la banda ancha es necesaria para soportar los servicios avanzados multimedia que incorpora voz, datos e imágenes y que requiere grandes velocidades de transmisión para que sus cualidades no se vean alteradas y la información llegue sin demora a su destino. Con el objetivo de facilitar el estudio del curso, el material se estructura en tres unidades. En la primera unidad se describe las Redes de alta velocidad. En la segunda el control de congestión y calidad de servicio en las redes de alta velocidad y la tercera unidad se dedica a las Redes de Transporte óptico y las redes de acceso.

4 UNIDAD 1 REDES DE ALTA VELOCIDAD INDICE DE CONTENIDO CAPITULO 1RED INTERNET LECCION 1 Descripción de internet LECCION 2 Redes de acceso LECCION 3 ISP y troncales internet LECCION 4 Retardo LECCION 5 Internet en Colombia CAPITULO 2. INTERCONEXIÓN DE REDES LECCION 1 Arquitectura LECCION 2 Opciones para el transporte de IP LECCION 3 Router LECCION 4 Encaminamiento IP LECCION 5 GIGA Ethernet CAPITULO 3 REDES ATM LECCION 1 Frame Relay LECCION 2 Estructura de las celdas y las redes ATM LECCION 3 Arquitectura y modelos de capas ATM LECCION 4 Conexión y encaminamiento ATM LECCION 5 Capas de adaptación ATM UNIDAD 2 CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA VELOCIDAD CAPITULO 1CONTROL DE CONGESTIÓN LECCION 1 Trafico de datos LECCION 5 Congestión y prestaciones de red LECCION 2 Control de congestión LECCION 3 Control de la congestión TCP LECCION 4 Control de la congestión en FRAME RELAY CAPITULO 2 CALIDAD DE SERVICIO LECCION 1TEcnicas para mejorar la calidad de servicio LECCION 2 Servicios integrados LECCION 3 Servicios diferenciados LECCION 4 QoS en FRAME RELAY LECCION 5. QoS en ATM CAPITULO 3 SOPORTE PARA CALIDAD DE SERVICIO (QoS) LECCION 1 IPv6 LECCION 2 RSVP

5 LECCION 3 MPLS LECCION 4 RTP LECCION 5 MULTIDIFUSION UNIDAD 3 REDES DE TRANSPORTE OPTICO Y ACCESO CAPITULO 1. REDES SDH LECCION 1 PDH LECCION 2 Modelos de capas SDH LECCION 3 Multiplexación SDH LECCION 4 Elementos de red SDH LECCION 5 Capa física SDH CAPITULO 2 REDES DWDM LECCION 1 Principios de operación LECCION 2 Amplificadores LECCION 3 Topologías LECCION 4 Multiplexores ópticos LECCION 5 Conexiones cruzadas LECCION 1 xdsl LECCION 2 HFC LECCION 3 FTTX LECCION 4 GPON LECCION 5 FTTH - WDM CAPITULO 3 REDES DE ACCESO

6 Nombre de la Unidad Introducción UNIDAD 1 REDES DE ALTA VELOCIDAD En esta unidad iniciamos con la descripción de la red Internet como tema integrador del curso, arquitectura de las redes IP/Ethernet y por último las redes Frame Relay y ATM, constituidos por nodos internos interconectados entre sí por enlaces de muy alta capacidad. Estos nodos realizan varias funciones, entre las que cabe destacar el encaminamiento de flujos de paquetes de alta velocidad o el aprovisionamiento de circuitos o caminos ópticos de gran capacidad. Justificación La necesidad de redes de más y más capacidad viene provocado por un incremento del número de sistemas y aplicaciones de banda ancha accesibles al usuario como consecuencia de la facilidad de acceso a internet de altas prestaciones y a la constante aparición de nuevas aplicaciones multimedia sustentada por el protocolo de Internet IP. Intencionalidades Formativas PROPÓSITOS Proporcionar una descripción práctica de la red Internet a través del modelo TCPIP y los dispositivos de interconexión. Estudiar el funcionamiento de Frame Relay a través de la arquitectura de red. Definir las redes ATM a través del mecanismo básico de funcionamiento de la capa ATM, examinando los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios. Estudiar las redes LAN de alta velocidad a través de la arquitectura GEthernet OBJETIVOS Estudiar el modelo TCPIP en dispositivos de interconexión para describir el la red Internet. Examinar la arquitectura de una red de conmutación de paquetes mediante el estudio de Frame Relay. Examinar los mecanismos básicos de funcionamiento de la capa ATM y los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios para describir las redes ATM. Describir las redes LAN GEthernet y dispositivos de interconexión.

7 COMPETENCIAS El estudiante utiliza el modelo TCPIP en dispositivos de interconexión para diseñar redes Internet. El estudiante describe la arquitectura de una red de conmutación de paquetes Frame Relay. El estudiante describe y explica los mecanismos básicos de funcionamiento de la capa ATM y los servicios ofrecidos por ATM, así como el uso de AAL para la implementación de dichos servicios para describir las redes ATM. El estudiante describe LAN GEthernet y utiliza dispositivos de interconexión en el diseño de redes. METAS Al finalizar el curso: El estudiante evalúa y selecciona la red y los componentes más adecuados para la implementación de una red de alta velocidad. El estudiante utiliza efectivamente la información proporcionada por las especificaciones técnicas de los fabricantes y la obtenida a través de buscadores en Internet. El estudiante describe, explica y discute con otros compañeros las opciones de elección de un diseño y socializarla. Denominación de capítulos CAPITULO 1 RED INTERNET CAPITULO 2. INTERCONEXIÓN DE REDES CAPITULO 3 REDES ATM

8 Introducción CAPITULO 1: RED INTERNET Internet no tiene una estructura real, pero existen varios backbone principales. Estos se construyen a partir de líneas y routers de alta velocidad. Conectados a los backbone hay redes regionales (de nivel medio), y conectadas a estas redes regionales están las LAN de universidades, empresas y proveedores de servicios de Internet de nivel inferior. Los ISPs son empresas que conectan usuarios finales a Internet. Estas empresas pueden prestar sus servicios en un solo municipio o en varios, requiriendo para este último caso servicios de conectividad nacional. Para la prestación de su servicio en Colombia, deben contar con una licencia de valor agregado otorgada por el ministerio de comunicaciones. Adicional a lo anterior, los ISPs pueden prestar entre otros los siguientes servicios: Buzones de , hosting, co-location, redes privadas virtuales (VPN), conexión internacional a otros ISPs. Lección 1: Descripción de internet Internet público es una red de computadores que conecta millones de dispositivos informáticos o sistemas terminales a través del mundo. Los sistemas terminales se conectan entre sí mediante una red de enlaces de comunicaciones, y dispositivos de conmutación de paquetes. Existen muchos tipos de enlaces de comunicaciones, los cuales están formados de diferentes tipos de medios físicos, como cable coaxial, de cobre, fibra óptica y ondas de radio. Los distintos enlaces pueden transmitir los datos a diferente velocidad y la velocidad de transmisión de un enlace se mide en bits/segundo. Cuando un sistema terminal tiene que enviar datos a otro sistema terminal. El emisor segmenta los datos y añade bits de cabecera a cada segmento, formando un paquete. Los paquetes de información resultantes se envían entonces a través de la red hasta el sistema terminal receptor, donde vuelven a ser ensamblados para obtener los datos originales. Un conmutador de paquetes toma el paquete que llega de uno de sus enlaces de comunicación de entrada y lo reenvía a uno de sus enlaces de comunicaciones de salida. Los dispositivos de conmutación de paquetes más utilizados actualmente en Internet son los routers y switches de la capa de enlace. Ambos tipos reenvían los paquetes a sus destinos finales. Los switches de la capa de enlace normalmente se emplean en las redes de acceso, mientras que los routers suelen utilizarse en el núcleo de la red. La secuencia de enlaces de comunicaciones y conmutadores de paquete que atraviesa un paquete desde el sistema terminal emisor hasta el sistema terminal receptor se conoce como ruta a través de la red.

9 Los sistemas terminales acceden a Internet a través de proveedores de servicios de Internet (Internet Services Provider; ISP), incluyendo proveedores residenciales como son las compañías telefónicas o de cables locales; los proveedores de universidades; los proveedores corporativos y los ISP que proporcionan acceso inalámbrico (WIFI) en aeropuertos, hoteles, cafés y otros lugares públicos. Cada ISP es una red de conmutadores de paquetes y enlaces de comunicación. Los ISP proporcionan diferentes tipos de acceso a la red para los sistemas terminales, incluyendo acceso a través de modem de 56 Kbps, acceso a través de banda ancha residencial (como modem por cable o DSL), acceso mediante LAN de alta velocidad, y acceso inalámbrico. Los ISP también proporcionan acceso a Internet a los proveedores de contenido, conectando sitios web directamente a Internet. Internet es todo lo que conecta a los sistemas terminales entre sí, por lo que los ISP que proporcionan el acceso a los sistemas terminales también tienen que estar interconectados entre ellos. Estos ISP de nivel inferior se interconectan a través de los ISP de nivel superior nacionales e internacionales. Un ISP de nivel superior consiste en routers de alta velocidad interconectados a través de enlaces de fibra óptica de alta velocidad. La red de cada ISP, sea de nivel superior o inferior, se administra de forma independiente, ejecuta IP y se ajusta a determinados convenios de denominación y de asignación de direcciones. Los sistemas Terminales, los conmutadores de paquete y otros elementos de Internet, ejecutan protocolos que controlan el envío y la recepción de información en Internet. TCP (protocolo de control de transmisión) e IP (protocolo Internet) son los dos protocolos más importantes en Internet. El protocolo IP especifica el formato de los paquetes que son enviados y recibidos entre routers y sistemas Terminales. Los protocolos más importantes de Internet se conocen colectivamente como TCP/IP.

10 Normalmente, cada sistema (por ejemplo, un servidor o una estación de trabajo) o sistema intermedio (por ejemplo un router) está asociado a una única dirección. Esa dirección por lo general es una dirección de nivel de red. En la arquitectura TCPIP, esta dirección se denomina dirección IP, o simplemente dirección Internet. La dirección del nivel de red se utiliza para encaminar los paquetes a través de la red o redes hasta el sistema destino, cuya dirección vendrá indicada en la dirección del nivel de red destino del paquete. Una vez que los datos llegan al destino, deberán cederse a algún proceso o aplicación dentro del sistema. Normalmente, el sistema destino podrá procesar varias aplicaciones y cada aplicación podrá servir a varios usuarios. A cada aplicación, y probablemente, a cada usuario concurrente de la aplicación se le asigna un identificador único, denominado en la arquitectura TCPIP puerto. En cualquier red, todas las interfaces de cada dispositivo conectado deberán tener una única dirección. Como por ejemplo la dirección MAC en una red IEEE 802. Estas direcciones hacen posible que las redes encaminen las unidades de datos (por ejemplo las tramas MAC) y las hagan llegar al sistema destino. Este tipo de dirección se denomina direcciones del punto de conexión en la red. La figura muestra varios ejemplos de conexiones. La conexión lógica entre el router y la estación B se lleva a cabo en el nivel de red. Por ejemplo, si la red 2 es una red de conmutación de paquetes, entonces esta conexión lógica debería ser un circuito virtual. En niveles superiores, muchos protocolos de transporte, como, por ejemplo TCP proporcionan conexiones lógicas entre los usuarios del servicio de transporte. De esta manera, TCP puede establecer una conexión entre dos puertos de diferentes sistemas. Otro concepto relacionado es el modo de direccionamiento. En la mayoría de los casos, una dirección alude a un único sistema o puerto, en estas circunstancias el modo de direccionamiento se denomina unidestino (unicast), ahora bien, es igual posible que una dirección aluda a más de una entidad o puerto. Este tipo de direcciones identifican simultáneamente a varios destinos. Una dirección que identifique a varios usuarios puede ser de tipo difusión (broadcast) cuando aluda a todas las entidades dentro de un dominio, o puede ser de tipo multidestino (multicast) cuando se refiera a un subconjunto específico de entidades. En general, una entidad es cualquier cosa capaz de enviar y recibir información, y un sistema es un objeto físico que contiene a una o más entidades- Internet público (es decir, la red de redes global discutida anteriormente) es la red a La que normalmente uno se refiere como la Internet. Existen también muchas redes privadas, como redes corporativas o de gobierno, cuyos host no pueden intercambiar mensajes con host externos a la red privada (a menos que los mensajes pasen a través de los llamados cortafuegos, que restringen el flujo de mensajes a y desde la red). Estas redes privadas se conocen frecuentemente como intranets. Ya que utilizan los mismos tipos de host, routers, enlaces y protocolos que Internet público. Debido a la importancia de los protocolos en Internet, es importante que todo el mundo

11 esté de acuerdo en que hacen todos y cada uno de ellos, siendo aquí donde entran en juego los estándares. Los estándares son desarrollados por el Internet Engineering Task Force (IETF). Los documentos estándares de IETF se llaman RFC (solicitudes de comentarios). Las solicitudes RFC comenzaron como solicitudes de comentarios generales (de ahí su nombre) para resolver los problemas de arquitectura a los que se enfrentaba el precursor de Internet. Las solicitudes RFC, aunque no son estándares formalmente, han evolucionado hasta el punto de que son citadas como tales. Las RFC tienden a ser completamente técnicas y detalladas Definen protocolos como TCP, IP, HTTP (para la Web) y SMTP (para estándares abiertos de correo electrónico). Hay más de solicitudes RFC diferentes. Lección 2: Redes de acceso El acceso a la red se puede clasificar aproximadamente en tres categorías: Acceso residencial: conecta sistemas Terminales del hogar a la red. Acceso de empresa: conecta sistemas Terminales de una empresa u organización educativa a la red. Estas categorías no son cerradas: por ejemplo, algunos sistemas Terminales de empresa pueden utilizar tecnología de acceso del tipo acceso residencial, y viceversa. Las descripciones siguientes están pensadas para mantener los casos comunes. Acceso residencial. El acceso residencial se refiere a la conexión de un sistema Terminal de hogar (normalmente un PC, pero quizá una televisión Web o algún aparato Internet) a un router de borde. Una forma predominante de acceso residencial es el modem telefónico sobre una línea telefónica analógica en un proveedor de servicios de Internet ISP. El modem doméstico convierte la salida digital del PC en un formato analógico de transmisión sobre la línea telefónica analógica. Esta línea telefónica está formada por pares de cables de cobre trenzados, y es la misma línea que se utiliza para las llamadas telefónicas ordinarias. En el otro extremo de la línea telefónica, un modem en el ISP convierte otra vez La señal analógica en digital para la entrada en el router del ISP. Por tanto, el acceso a red es simplemente un par de modems a lo largo de una línea telefónica punto a punto. Conceptualmente semejante a los modems telefónicos, DSL es una nueva tecnología de modem que corre también sobre líneas de teléfono de par trenzado. Pero, restringiendo la distancia entre el usuario y el modem del ISP, DSL puede transmitir y recibir datos a tasas mucho más elevadas. Las tasas de datos son normalmente asimétricas en las dos direcciones, con una tasa más elevada desde el router ISP al hogar que desde el hogar hasta el router ISP. DSL utiliza multiplexado por división de frecuencia, como se ha descrito en la sección previa. En particular. DSL divide los enlaces de comunicación entre el hogar y el ISP en tres bandas de frecuencia sin solapamiento:

12 Un canal de descarga de alta velocidad, en la banda de 50 khz a 1 MHz Un canal de descarga de velocidad media, en la banda de 4 khz a 50 khz Un canal de teléfono ordinario de dos direcciones, en la banda de O a 4 khz. El tamaño actual de ancho de banda hacia arriba y hacia abajo disponible para el usuario es una función de la distancia entre el modem del hogar y el del ISP, del ancho de la línea de par trenzado, y del grado de interferencia eléctrica. De hecho, a diferencia de los modems telefónicos, los ingenieros han diseñado DSL para distancias cortas entre modems residenciales y del ISP, consiguiendo tasas sustancialmente más altas que las del acceso telefónico. Mientras que DSL y los modems telefónicos utilizan las líneas de teléfono ordinarias, las redes de acceso HFC son extensiones de la red de cable ordinaria utilizada para la difusión de la televisión por cable. En un sistema de cable tradicional, un cable head end difunde a través de la red de distribución de cable coaxial y amplificadores a los hogares. La fibra óptica conecta el cable head end a las uniones de nivel a nivel del vecindario, desde las que se utiliza el cable coaxial tradicional para llegar a las casas y apartamentos individuales. Como DSL, HFC requiere modems especiales, llamados modems de cable. Las empresas que proporcionan acceso a Internet mediante cable necesitan que sus usuarios compren o alquilen un modem. Normalmente, el modem de cable es un dispositivo externo, y se conecta al PC del hogar mediante un puerto Ethernet 10-BaseT. Los modems de cable dividen la red HFC en dos canales, uno hacia arriba y otro de descarga. Como en DSL., el canal hacia abajo reserva normalmente más ancho de banda, y por lo tanto una tasa de transmisión más rápida. Sin embargo, con HFC (y no con DSL), estas tasas se comparten entre los hogares, como discutiremos más adelante. Acceso a empresas En empresas o campus universitarios, se utiliza normalmente una red de área local (LAN) para conectar un sistema Terminal a un router de borde. Sin embargo, la tecnología Ethernet es actualmente con mucho la tecnología predominante de acceso en las redes de las empresas. Ethernet opera a 1OMbps o 100 Mbps (y ahora incluso a 1 Gbps y 10 Gbps). Utiliza o par trenzado o cable coaxial para conectar un número de sistemas Terminales con otros y con un router de borde. El router de borde es el responsable de encaminar los paquetes que tienen destino fuera de la LAN. Como HFC, Ethernet utiliza un medio compartido, por lo que los usuarios Terminales comparten la tasa de transmisión de la LAN. Más recientemente, la tecnología compartida de Ethernet ha ido migrando hacia la tecnología de Ethernet conmutado. Ethernet conmutado utiliza múltiples segmentos Ethernet de par trenzado conectados a un switch para permitir que el ancho de banda total de un Ethernet será entregado a diferentes usuarios en la misma LAN simultáneamente.

13 Lección 3: ISP y troncales internet Los sistemas Terminales (PC del usuario, PDA, servidores Web, los servidores de correo electrónico, etc.) se conectan a Internet a través de la red de acceso de un ISP local. El ISP puede proporcionar cableada o inalámbrica mediante una variedad de tecnologías de acceso, entre las que se incluyen DSL, cable, FTTH, WiFi, celular y WiMAX. Observe que el ISP local no tiene que usar una compañía telefónica ni una compañía de cable: puede ser por ejemplo, una universidad (que proporciona acceso a Internet a los estudiantes, al personal y a las facultades) o una empresa (que proporciona acceso a sus empleados). Pero la conexión de los usuarios finales y de los proveedores de contenido a los ISP locales es solo una pequeña parte del problema de conectar los cientos de miles de redes que conforman Internet. Internet es una red de redes y entender esta afirmación es fundamental para resolver este rompecabezas. En Internet público, los ISP de acceso situados en la frontera de Internet están conectadas al resto de Internet a través de una jerarquía de niveles de proveedores de servicios de Internet (ISP), como se ve en la Figura. Los ISP de acceso se sitúan en el nivel inferior de la jerarquía. En el nivel superior de la jerarquía esta un número relativamente pequeño los llamados ISP de nivel 1. De muchas formas, un ISP de nivel 1 es igual a cualquier red (está formado por enlaces y routers, y está conectado a otras redes). Sin embargo estos ISP presentan otras características que los hacen especiales. La velocidad de enlace son frecuentemente de 622 Mbps o más elevadas, y los ISP de nivel 1 de mayor tamaño disponen de enlaces en el rango de 2,5 a 10 Gbps; en consecuencia, sus routers deben ser capaces de reenviar paquetes a velocidades extremadamente altas. Lo ISP de nivel 1 también se caracterizan por lo siguiente: Están conectado directamente a cada uno de los demás ISP de nivel 1. Están conectados a un gran número de ISP de nivel 2 y otras redes cliente. proporcionan cobertura internacional. Los ISP de nivel 1 también se conocen como redes troncales de internet. Por regla general, un ISP de nivel 2 tiene cobertura regional o nacional y lo que es más importante, solo está conectado a unos pocos ISP de nivel 1 (véase la figura). Por tanto, para alcanzar gran parte del Internet global, un ISP de nivel 2 tiene que enrutar su tráfico a través de uno de los ISP de nivel 1 a los que está conectado. Se dice que un ISP de nivel 2 es un cliente de los ISP de nivel 1 a los que está conectado, y el ISP de nivel 1 se dice que es un proveedor del cliente. Muchas grandes empresas e instituciones de gran tamaño conectan sus redes empresariales directamente a un ISP de nivel 1 o de nivel 2, convirtiéndose así en un cliente de dicho ISP. Un ISP proveedor factura al ISP cliente un precio, que depende normalmente de la velocidad de transmisión del enlace que los conecta. Una red de nivel 2 puede elegir también conectarse directamente a otras redes de nivel 2, en cuyo caso el tráfico puede fluir entre las dos redes sin tener que pasar por una red de nivel 1. Por debajo de los ISP de nivel 2 están los ISP de nivel inferior, que se conectan al Internet a través de uno o más lsps de nivel 2. En el extremo inferior de la jerarquía se encuentran los ISP de acceso. Para complicar aún más las cosas, algunos

14 proveedores de nivel 1 son también proveedores de nivel 2 (es decir, están integrados verticalmente), vendiendo el acceso a Internet directamente a los usuarios y proveedores de contenidos, así como a los ISP de nivel inferior. Cuando dos ISP están conectados directamente entre sí, se dice que son colegas (peer) entre ellos. Dentro de la red de un ISP, los puntos en los que el ISP se conecta a otros ISP (sea de nivel inferior, superior o del mismo nivel dentro de la jerarquía) se conocen como puntos de presencia (POP, Point of Presence). Un POP es simplemente un grupo de uno o más routers de la red del ISP en los que los routers de otros ISP o de las redes que pertenecen a los clientes del ISP pueden conectarse. Un proveedor de nivel 1normalmente tiene muchos POP dispersos sobre las diferentes localizaciones geográficas dentro de la red, con múltiples redes y otros ISP conectados a cada POP. Normalmente cuando una red cliente tiene que conectarse al POP de un proveedor, alquila un enlace de alta velocidad de un proveedor de telecomunicaciones de una tercera empresa y conecta directamente uno de sus routers a un router ubicado en el POP del proveedor. Además, dos ISP pueden disponer de varios puntos de conexión entre iguales, conectándose entre sí en múltiples pares de POP. Además, para conectar cada uno de los demás a los puntos privados entre colegas, los ISP se interconectan, a menudo a los puntos de acceso a red (Network Access Points. NAP), cada uno de los cuales puede pertenecer y ser dirigido por alguna de las empresas de telecomunicaciones o por un proveedor de troncal de Internet. Los NAP intercambian grandes cantidades de tráfico sobre muchos ISP. Sin embargo, cada vez más, los ISP de nivel 1 están prescindiendo de los NAP y se están interconectando directamente a puntos colegas privados. La tendencia es a interconectarse entre sí directamente para los ISP de nivel 1, y para los ISP de nivel 2 conectarse con otros del mismo nivel y con ISP de nivel 1 en los NAP. Como los NAP organizan y conmutan enormes volúmenes de tráfico, son en sí mismos complejas redes de conmutación de alta velocidad, concentradas frecuentemente en un único edificio. A menudo, un NAP utiliza tecnología de conmutación de alta velocidad ATM en el núcleo del NAP, montando IP en el extremo superior de ATM. Resumiendo, la topología de Internet es compleja, estando formado por docenas de ISP de nivel 1 y de nivel 2 y miles de ISP de nivel inferior. Los ISP son diversos en cuanto a su cobertura, abarcando algunos múltiples continentes y océanos, y estando otros limitados a pequeñas regiones del mundo. Los ISP de nivel inferior se conectan a ISP de niveles superiores, y éstos se conectan (normalmente) a puntos colegas privados y NAP. Los usuarios y los proveedores de contenidos son usuarios de los ISP de nivel inferior, y éstos son usuarios de ISP de nivel superior. Lección 4: Retardo Vamos a considerar ahora qué es lo que le puede suceder a un paquete cuando va desde su origen hasta su destino. Recuerde que un paquete comienza en un host (el origen), pasa a través de una serie de routers, y finaliza su viaje en otro host (destino). Mientras un paquete va desde un nodo (host o router) hasta el nodo subsiguiente (host

15 o router) a lo largo de su recorrido, el paquete sufre diferentes tipos de retardos en cada nodo a lo largo del recorrido. Los más importantes de estos retardos son: el retardo de proceso nodal, el retardo de cola, el retardo de transmisión, y el retardo de propagación; estos retardos se acumulan conjuntamente para dar un retardo nodal total. Tipos de retardo Vamos a explorar estos retardos en el contexto de la Figura Como una parte de su ruta Terminal-a-Terminal entre la fuente y el destino, un paquete se envía desde el nodo anterior a través del router A al router B. Nuestro objetivo es categorizar el retardo nodal en el router A. hay que tener en cuenta que el router A tiene un enlace externo hacia el router B. Este enlace está precedido por una cola (conocida también como búfer). Cuando el paquete llega al router A desde el nodo anterior, el router A examina la cabecera del paquete para determinar el enlace exterior para el paquete, y dirige entonces el paquete hacia el enlace. En este ejemplo, el enlace exterior para el paquete es uno que lo dirige hacia el router B. Un paquete se puede trasmitir en un enlace si no se está transmitiendo en ese momento otro paquete en el enlace y si no hay otros paquetes precedentes en la cola; si el enlace está ocupado o hay otros paquetes encolados por el enlace, el paquete nuevo que llega se añadirá a la cola. A B Procesamiento Transmisión Nodal Encolado (esperando Propagación Por la Transmisión) Figura 1.18 El Retardo Nodal en el Router A Retardo de procesamiento El tiempo requerido para examinar la cabecera del paquete y determinar hacia donde debe dirigirse es parte del retardo de procesamiento. El retardo de procesamiento puede incluir también otros factores, como el tiempo necesario para comprobar los errores a nivel de BIT que han ocurrido durante la transmisión de los bits del paquete desde el nodo anterior al router A. Los retardos de procesamiento en los routers de elevada velocidad están típicamente en el orden de los microsegundos o menos. Después del procesamiento nodal, el router dirige el paquete a la cola que precede al enlace hacia el router B.

16 Retardo de cola En la cola, el paquete experimenta un retardo de cola mientras espera para ser transmitido en el enlace. El retardo de cola de un paquete específico dependerá del número de paquetes que hayan llegado anteriormente y que están encolados y esperando para la transmisión sobre el enlace. El retardo de un paquete dado puede variar significativamente de un paquete a otro. Si la cola está vacía y ningún otro paquete se está transmitiendo actualmente, entonces el retardo de cola de nuestro paquete es cero. Por otro lado, si el tráfico es pesado y otros muchos paquetes están esperando para ser transmitidos, el retardo de cola será largo. Retardo de transmisión Suponiendo que los paquetes se transmiten de la forma primero en llegar primero en ser servido, como es normal en las redes de conmutación de paquetes, nuestro paquete sólo puede ser transmitido después de que todos los paquetes que han llegado antes hayan sido transmitidos. Indicamos la longitud del paquete por L bits, y a la tasa de transmisión del enlace desde el router A al router B por R bits/seg. La tasa R se determina por la tasa de transmisión del enlace al router B. Por ejemplo, para un enlace Ethernet de 10 Mbps, la tasa es R =10 Mbps; para un enlace Ethernet de 100 Mbps. la tasa es R = 100 Mbps. El retardo de transmisión (también llamado retardo de almacenar y reenviar,) es L/R.. Retardo de propagación Una vez que un BIT es empujado al enlace, necesita propagarse al router B. EI tiempo necesario para propagarse desde el comienzo del enlace hasta el router B es el retardo de propagación. El BIT se propaga a la velocidad de propagación del enlace. La velocidad de propagación depende del medio del enlace (es decir, fibra óptica, cable de cobre de par trenzado, etc.) y está en el rango de: 2*10 s metros/seg a 3*10 s metros/seg que es igual o un poco menos que la velocidad de la luz. El retardo de propagación es La distancia entre dos routers dividida por la velocidad de propagación. Es decir, el retardo de propagación es d/s, donde d es la distancia entre el router A y el router B, y s es la velocidad de propagación del enlace. Comparación de los retardos de transmisión y propagación Los principiantes en el campo de las redes de computadores tienen, a veces, dificultad para comprender la diferencia entre retardo de transmisión y de propagación. La diferencia es sutil pero importante. El retardo de transmisión es la cantidad de tiempo que precisa el router para enviar el paquete es una función de la longitud del paquete y de la tasa de transmisión del enlace, pero no tiene nada que ver con la distancia entre los dos routers. El retardo de propagación, por el contrario. Es el tiempo que precisa un

17 BIT para propagarse desde un router hasta el siguiente; es una función de la distancia entre los dos routers, pero no tiene nada que ver con la longitud del paquete o la tasa de transmisión del enlace Retardo de cola y pérdida de paquetes El componente más complicado e interesante del retardo nodal es el retado de cola d cola. De hecho, el retardo de cola es tan importante e interesante en las redes de computadores que se han escrito miles de trabajos y numerosos libros sobre él. El retardo de cola puede variar de un paquete a otro. Por ejemplo, si diez paquetes llegan a una cola vacía al mismo tiempo, el primer paquete transmitido no sufrirá retardo de cola, mientras que el último sufrirá un retardo de cola relativamente grande (mientras espera a que se transmitan los otros nueve paquetes). Cuando se caracteriza el retardo de cola, normalmente se utilizan medidas estadísticas, como el retardo promedio, la varianza del mismo, y la probabilidad de que el retardo de cola supere un valor determinado. Cuándo es grande y cuándo es insignificante el retardo de cola? La respuesta a esta pregunta depende en gran medida de la tasa a la que llegue el tráfico a la cola, de la velocidad de transmisión del enlace, y de la naturaleza del tráfico que llega (es decir, de si el tráfico llega periódicamente o llega a rachas). Pérdida de paquetes Una cola que precede a un enlace tiene una capacidad limitada, aunque la capacidad de la cola depende fundamentalmente del diseño y coste del switch. Como la capacidad de la cola es finita, los retardos de paquetes no se aproximan realmente a infinito cuando la intensidad de tráfico se aproxima a 1. En lugar de esto, un paquete puede encontrar una cola llena cuando llega. Si no hay lugar para almacenar el paquete, un router lo abandonará, es decir, el paquete se perderá. Desde un punto de vista de sistema Terminal, esto parecerá como un paquete introducido en el núcleo de la red que no ha emergido nunca de la misma en su destino. La fracción de los paquetes perdidos aumenta a medida que aumenta la intensidad de tráfico. Por tanto, las prestaciones de un nodo se miden con frecuencia no sólo en función del retardo, sino también de la probabilidad de pérdida de paquetes. Un paquete perdido puede ser retransmitido en un contexto Terminal-a-Terminal, bien por la aplicación, bien por el protocolo de la capa de transporte. Retardo Terminal-a-Terminal Hasta este momento, nuestra discusión se ha enfocado en el retardo de nodo, es decir, el retardo en un único router. Vamos a finalizar nuestra discusión considerando brevemente el retardo desde la fuente hasta el destino. Para conseguir una base sobre este concepto, supongamos que hay N-1 routers entre la máquina origen y la máquina destino. Supongamos también que la red no está congestionada (es decir, que los retardos de cola son despreciables), que el retardo de proceso en cada router y en la

18 máquina origen es d proc que la velocidad de transmisión hacia fuera de cada router y de la máquina origen es de R bits/seg, y que la velocidad de propagación de cada enlace es d prop, Los retardos de nodo se acumulan, y dan un retardo Terminal a Terminal de: d end-end= N (d proc + d trans + d prop ) donde, una vez más d trans =L/R, donde L es el tamaño del paquete. Retardo y rutas en Internet Para tener un primer conocimiento sobre el retardo en una red de computadores, podemos utilizar el programa de diagnóstico Traceroute, Traceroute es un programa sencillo que puede correr en cualquier máquina Internet. Cuando el usuario especifica un nombre de máquina destino, el programa en la máquina origen envía múltiples paquetes especiales hacia el destino. A medida que esos paquetes siguen su camino hacia el destino, pasan a través de una serie de routers. Cuando un router recibe uno de estos paquetes especiales, envía un mensaje corto al origen. Este mensaje contiene el nombre y la dirección del router. De forma más concreta, supongamos que hay N-1 routers entre el origen y el destino. Entonces, el origen enviará N paquetes especiales a la red, cada uno diseccionado al destino final. Hay N paquetes especiales, marcados de 1 a N con el primero marcado con 1 y el último con N y. Cuando el router n-ésimo recibe el n-ésimo paquete, señalado como n, el router destruye el paquete y envía un mensaje hacia el origen. Y cuando la máquina de destino recibe el N-ésimo paquete, el destino lo destruye también y devuelve, de nuevo, un mensaje de vuelta al origen. El origen registra el tiempo que transcurre desde que envía un paquete hasta que recibe el correspondiente mensaje de vuelta; también registra el nombre y dirección del router (o máquina de destino) que devuelve el mensaje. De esta forma, el origen puede reconstruir la ruta seguida por los paquetes que fluyen desde el origen hasta el destino, y el origen puede determinar los retardos de ida y vuelta para todos los routers que intervienen. Traceroute en realidad repite el experimento descrito tres veces, de modo que el origen en realidad envía 3 N paquetes hacia el destino. RFC 1393 describe Traceroute en detalle. Lección 5: Internet en Colombia En la actualidad el servicio portador en Colombia presenta dos tipos de operadores: los que cuentan con una infraestructura de telecomunicaciones desarrollada específicamente para este fin, por ejemplo ISA, y los que contando con redes para la prestación de otros servicios de telecomunicaciones utilizan sus excesos de capacidad para operar como red portadora de datos. A continuación se presenta una descripción sobre los diferentes elementos que constituyen la cadena de valor para el acceso Internet, dentro de los cuales se encuentran los usuarios, los ISP y los prestadores de servicio portador nacional e internacional.

19 Los usuarios de Internet se pueden clasificar en dos categorías: Usuarios conmutados: aquellos que acceden al servicio a través de líneas telefónicas conmutadas. Usuarios dedicados: aquellos que acceden a la red a través de enlaces dedicados mediante diferentes medios como cable de cobre, microondas, satélite o fibra óptica. Proveedores de acceso a Internet ISP Los proveedores de servicio de acceso a Internet son las empresas encargadas de brindar el servicio de conexión a internet a los usuarios. Estas empresas pueden prestar su servicio en un solo municipio o en varios, requiriendo para este último caso servicio de conectividad nacional. Para la prestación de su servicio, deben contar con una licencia de valor agregado otorgado por el ministerio de comunicaciones. Adicional a lo anterior, los ISP pueden prestar entre otros los siguientes servicios: Buzones de . Hosting: el hosting es el procedimiento de almacenamiento de las páginas web, las cuales se colocan en un servidor remoto. Dentro de este servidor se puede contar adicionalmente con funcionalidades como administración de cuentas de correo, control de estadísticas, y manejadores de base de datos. Co-location: el servicio de co-location suministra la conexión a la red y el espacio físico para que las empresas alojen sus servidores en un centro de datos de Internet que permite un alto nivel de conectividad gracias a la implementación de últimas tecnologías, ancho de banda y garantía de seguridad para sus sistemas. Redes privada virtuales VPN Conexión internacional a otros ISP Para la prestación de estos servicios, un ISP debe contar con los siguientes recursos: Infraestructura de acceso o Equipos de acceso: incluye servidores de acceso remoto para usuarios conmutados y enrutadores para usuarios dedicados. o Canales de acceso: líneas telefónicas, canales de alta velocidad y enlaces de última milla. Conectividad o Nacional: enlaces con otros municipios este parámetro aplica para aquellos ISP que poseen presencia en dos o más ciudades en el ámbito nacional. o NAP: intercambio de información con otros ISP o Internacional: conectividad con la red mundial Internet. Sistema de información: servidores web, DNS, , gestión, etc. Recurso Humano: técnico, administrativo y operativo. La interconexión de estos elementos se presenta en la siguiente gráfica:

20 Operadores del servicio portador Nacional e Internacional Dentro del servicio portador se debe considerar los siguientes elementos: o Equipos de acceso: equipos de transmisión, conmutación, enrutamiento, multiplexación, concentración, gestión y control o Medios de transmisión: enlaces de radio, estaciones satelitales, fibras ópticas, cables de cobre. o Sistemas de gestión de red o Recurso Humano: técnico, administrativo y operativo. El esquema global de interconexión entre los diferentes elementos se presenta en la siguiente gráfica: PORTADOR NACIONAL GESTION DE RED NIVEL NACIONAL TRAFICO INTERNACIONAL TRAFICO NACIONAL NAP OTRAS CIUDADES NIVEL INTERNACIONAL GESTION DE RED En el país existen dos grandes redes de propiedad de Internexa y Telefónica Telecom, las cuales están conformadas por anillos de fibra óptica, complementados con enlaces de microondas y conexiones satelitales. Además de lo anterior, algunos operadores de valor agregado y los operadores de larga distancia poseen redes que utilizan para su propia operación, y en algunos casos para la prestación del servicio portador nacional. Estas redes están constituidas por infraestructura propia de dichos operadores, la cual se integra en algunos casos con infraestructura arrendada a los dos grandes operadores mencionados inicialmente. En la actualidad el servicio de portador internacional es prestado por 16 operadores - - el mercado se distribuye principalmente en 4 de ellos - - principalmente a través de cable de fibra óptica, y en algunos casos puntuales a través de enlaces satelitales o sistemas de microonda para enlaces fronterizos con los países vecinos.

21 CAPITULO 2: INTERCONEXIÓN DE REDES Introducción Los sistemas Terminales, los conmutadores de paquete y otros elementos de Internet, ejecutan protocolos que controlan el envío y la recepción de información en Internet. TCP (protocolo de control de transmisión) e IP (protocolo Internet) son los dos protocolos más importantes en Internet. El protocolo IP especifica el formato de los paquetes que son enviados y recibidos entre routers y sistemas Terminales. Los protocolos más importantes de Internet se conocen colectivamente como TCP/IP. Lección 1: Arquitectura TCP/IP La mayoría de los modelos de protocolos describen un stack de protocolos específicos del proveedor. Sin embargo, puesto que el modelo TCP/IP es un estándar abierto, una compañía no controla la definición del modelo. Las definiciones del estándar y los protocolos TCP/IP se explican en un foro público y se definen en un conjunto de documentos disponibles al público. Estos documentos se denominan Solicitudes de comentarios (RFCS). Contienen las especificaciones formales de los protocolos de comunicación de datos y los recursos que describen el uso de los protocolos. Las RFC (Solicitudes de comentarios) también contienen documentos técnicos y organizacionales sobre Internet, incluyendo las especificaciones técnicas y los documentos de las políticas producidos por el Grupo de trabajo de ingeniería de Internet (IETF). Existen dos protocolos muy empleados EN LA CAPA DE TRANSPORTE: TCP: Transmission Control Protocol (TELNET Telecommunications Network, FTP File Transfer Protocol, rlogin remote login, etc.). UDP: User Datagram Protocol : (SNMP ( Simple Network Management Protocol ), TFTP (Trivial File Transfer Protocol ), video, etc.)

22 Pero sólo el primero garantiza la fiabilidad de la conexión extremo a extremo, dado que recordamos que IP en sí no garantiza la transmisión y reorganización fiable extremo a extremo, pues eso corresponde al nivel de transporte. Protocolo de datagramas de usuario (UDP) UDP es un protocolo simple, sin conexión, descrito en la RFC 768. Cuenta con la ventaja de proveer la entrega de datos sin utilizar muchos recursos. Las porciones de comunicación en UDP se llaman datagramas. Este protocolo de la capa de Transporte envía estos datagramas como "máximo esfuerzo". Entre las aplicaciones que utilizan UDP se incluyen: Sistema de nombres de dominios (DNS), Streaming de vídeo, y Voz sobre IP (VoIP). Protocolo de control de transmisión (TCP) TCP es un protocolo orientado a la conexión, descrito en la RFC 793. TCP incurre en el uso adicional de recursos para agregar funciones. Las funciones adicionales especificadas por TCP están en el mismo orden de entrega, son de entrega confiable y de control de flujo. Cada segmento de TCP posee 20 bytes de carga en el encabezado, que encapsulan los datos de la capa de Aplicación, mientras que cada segmento UDP sólo posee 8 bytes de carga. Ver la figura para obtener una comparación. Las aplicaciones que utilizan TCP son: Exploradores Web, , y Transferencia de archivos Los servicios basados en TCP y UDP mantienen un seguimiento de las varias aplicaciones que se comunican. Para diferenciar los segmentos y datagramas para cada aplicación, tanto TCP como UDP cuentan con campos de encabezado que pueden identificar de manera exclusiva estas aplicaciones. Estos identificadores únicos son los números de los puertos. En el encabezado de cada segmento o datagrama hay un puerto de origen y destino. El número de puerto de origen es el número para esta comunicación asociado con la aplicación que origina la comunicación en el host local. El número de puerto de destino es el número para esta comunicación asociado con la aplicación de destino en el host remoto.

23 Los números de puerto se asignan de varias maneras, en función de si el mensaje es una solicitud o una respuesta. Mientras que los procesos en el servidor poseen números de puertos estáticos asignados a ellos, los clientes eligen un número de puerto de forma dinámica para cada conversación. Cuando una aplicación de cliente envía una solicitud a una aplicación de servidor, el puerto de destino contenido en el encabezado es el número de puerto que se asigna al daemon de servicio que se ejecuta en el host remoto. El software del cliente debe conocer el número de puerto asociado con el proceso del servidor en el host remoto. Este número de puerto de destino se puede configurar, ya sea de forma predeterminada o manual. Por ejemplo, cuando una aplicación de explorador Web realiza una solicitud a un servidor Web, el explorador utiliza TCP y el número de puerto 80 a menos que se especifique otro valor. Esto sucede porque el puerto TCP 80 es el puerto predeterminado asignado a aplicaciones de servidores Web. Muchas aplicaciones comunes tienen asignados puertos predeterminados. El puerto de origen del encabezado de un segmento o datagrama de un cliente se genera de manera aleatoria. Siempre y cuando no entre en conflicto con otros puertos en uso en el sistema, el cliente puede elegir cualquier número de puerto. El número de puerto actúa como dirección de retorno para la aplicación que realiza la solicitud. La capa de Transporte mantiene un seguimiento de este puerto y de la aplicación que generó la solicitud, de manera que cuando se devuelva una respuesta, pueda ser enviada a la aplicación correcta. El número de puerto de la aplicación que realiza la solicitud se utiliza como número de puerto de destino en la respuesta que vuelve del servidor. La combinación del número de puerto de la capa de Transporte y de la dirección IP de la capa de Red asignada al host identifica de manera exclusiva un proceso en particular que se ejecuta en un dispositivo host específico. Esta combinación se denomina socket. Eventualmente, los términos número de puerto y socket se utilizan en forma indistinta. En el contexto de este curso, el término socket hace referencia sólo a la combinación exclusiva de dirección IP y número de puerto. Un par de sockets, que consiste en las direcciones IP y los números de puerto de origen y de destino, también es exclusivo e identifica la conversación entre dos hosts. Por ejemplo, una solicitud de página Web HTTP que se envía a un servidor Web (puerto 80) y que se ejecuta en un host con una dirección IPv4 de Capa será destinada al socket :80. Si el explorador Web que solicita la página Web se ejecuta en el host y el número de puerto dinámico asignado al explorador Web es , el socket para la página Web será : La Autoridad de números asignados de Internet (IANA) asigna números de puerto. IANA es un organismo de estándares responsable de la asignación de varias normas de direccionamiento.

24 Existen distintos tipos de números de puerto: Puertos bien conocidos (Números del 0 al 1 023): estos números se reservan para servicios y aplicaciones. Por lo general, se utilizan para aplicaciones como HTTP (servidor Web), POP3/SMTP (servidor de ) y Telnet. Al definir estos puertos conocidos para las aplicaciones del servidor, las aplicaciones del cliente pueden ser programadas para solicitar una conexión a un puerto específico y su servicio asociado. Puertos Registrados (Números 1024 al 49151): estos números de puertos están asignados a procesos o aplicaciones del usuario. Estos procesos son principalmente aplicaciones individuales que el usuario elige instalar en lugar de aplicaciones comunes que recibiría un puerto bien conocido. Cuando no se utilizan para un recurso del servidor, estos puertos también pueden utilizarse si un usuario los selecciona de manera dinámica como puerto de origen. Puertos dinámicos o privados (Números del al ): también conocidos como puertos efímeros, suelen asignarse de manera dinámica a aplicaciones de cliente cuando se inicia una conexión. No es muy común que un cliente se conecte a un servicio utilizando un puerto dinámico o privado (aunque algunos programas que comparten archivos punto a punto lo hacen). Utilización de los dos protocolos TCP y UDP Algunas aplicaciones pueden utilizar los dos protocolos: TCP y UDP. Por ejemplo, el bajo gasto de UDP permite que DNS atienda rápidamente varias solicitudes de clientes. Sin embargo, a veces el envío de la información solicitada puede requerir la confiabilidad de TCP. En este caso, el número 53 de puerto conocido es utilizado por ambos protocolos con este servicio. Enlaces Se puede encontrar una lista actual de números de puertos en El modelo TCP/IP describe la funcionalidad de los protocolos que forman la suite de protocolos TCP/IP. Esos protocolos, que se implementan tanto en el host emisor como en el receptor, interactúan para proporcionar la entrega de aplicaciones de extremo a extremo a través de una red. Un proceso completo de comunicación incluye estos pasos: 1. Creación de datos a nivel de la capa de aplicación del dispositivo final origen.

25 2. Segmentación y encapsulación de datos cuando pasan por la stack de protocolos en el dispositivo final de origen. 3. Generación de los datos sobre el medio en la capa de acceso a la red de la stack. 4. Transporte de los datos a través de la internetwork, que consiste de los medios y de cualquier dispositivo intermediario. 5. Recepción de los datos en la capa de acceso a la red del dispositivo final de destino. 6. Desencapsulación y rearmado de los datos cuando pasan por la stack en el dispositivo final. 7. Traspaso de estos datos a la aplicación de destino en la capa de aplicación del dispositivo final de destino. Mientras los datos de la aplicación bajan al stack del protocolo y se transmiten por los medios de la red, varios protocolos le agregan información en cada nivel. Esto comúnmente se conoce como proceso de encapsulación. La forma que adopta una sección de datos en cualquier capa se denomina Unidad de datos del protocolo (PDU). Durante la encapsulación, cada capa encapsula las PDU que recibe de la capa superior de acuerdo con el protocolo que se utiliza. En cada etapa del proceso, una PDU tiene un nombre distinto para reflejar su nuevo aspecto. Aunque no existe una convención universal de nombres para las PDU, en este curso se denominan de acuerdo con los protocolos de la suite TCP/IP. Datos: el término general para las PDU que se utilizan en la capa de aplicación. Segmento: PDU de la capa de transporte. Paquete: PDU de la capa de Internetwork. Trama: PDU de la capa de acceso a la red. Bits: una PDU que se utiliza cuando se transmiten físicamente datos a través de un medio. Durante el proceso de encapsulación, se agregan identificadores de dirección a los datos mientras bajan al stack del protocolo en el host de origen. Así como existen múltiples capas de protocolos que preparan los datos para transmitirlos a sus destinos, existen múltiples capas de direccionamiento para asegurar la entrega. El primer identificador, la dirección física del host, aparece en el encabezado de la PDU de Capa 2, llamado trama. La Capa 2 está relacionada con la entrega de los mensajes en una red local única. La dirección de la Capa 2 es exclusiva en la red local y representa la dirección del dispositivo final en el medio físico. En una LAN que utiliza Ethernet, esta dirección se denomina dirección de Control de Acceso al medio (MAC). Cuando dos dispositivos se comunican en la red Ethernet local, las tramas que se intercambian entre ellos contienen las direcciones MAC de origen y de destino. Una vez que una trama se recibe satisfactoriamente por el host de destino, la información de la dirección de la Capa

26 2 se elimina mientras los datos se desencapsulan y suben el stack de protocolos a la Capa 3. Los protocolos de Capa 3 están diseñados principalmente para mover datos desde una red local a otra red local dentro de una internetwork. Mientras las direcciones de Capa 2 sólo se utilizan para comunicar entre dispositivos de una red local única, las direcciones de Capa 3 deben incluir identificadores que permitan a dispositivos de red intermediarios ubicar hosts en diferentes redes. En la suite de protocolos TCP/IP, cada dirección IP host contiene información sobre la red en la que está ubicado el host. En los límites de cada red local, un dispositivo de red intermediario, por lo general un router, desencapsula la trama para leer la dirección host de destino contenida en el encabezado del paquete, la PDU de Capa 3. Los routers utilizan la porción del identificador de red de esta dirección para determinar qué ruta utilizar para llegar al host de destino. Una vez que se determina la ruta, el router encapsula el paquete en una nueva trama y lo envía por su trayecto hacia el dispositivo final de destino. Cuando la trama llega a su destino final, la trama y los encabezados del paquete se eliminan y los datos se suben a la Capa 4. Lección 2: Opciones para el transporte de IP IP IP IP IP ATM ATM PPP ETHERNET MAC SDH SDH ETHERNET PHY WDM WDM WDM WDM Alternativas para transmitir IP sobre capas más bajas Existen diferentes alternativas para transmitir IP sobre capas más bajas y en la figura se recogen algunas de las posibles opciones: 1) La más empleada en la actualidad, consiste en introducir paquetes de IP en celdas de ATM y éstas, sucesivamente en contenedores de tramas de señal SDH que finalmente se transmite empleando una longitud de onda. Es una opción poco eficiente debido a la gran cantidad de overead de ATM incluyendo la necesaria para implementar AAL5, pero por el contrario proporciona QoS típica de ATM. SDH proporciona protección y reconfigurabilidad frente a fallos de la red.

27 2) La segunda opción consiste en eliminar la capa de SDH. Es una opción interesante para los operadores que ofrezcan un número considerable de servicios de tipo capa 2 (servicios de voz, líneas alquiladas, etc.). Tiene el mismo inconveniente que el caso anterior. 3) Otra opción consiste en transmitir los paquetes de IP directamente sobre contenedores de señal SDH. Esta opción se denomina Packet Over Sonet (POS) y requiere del empleo de una capa intermedia de acondicionamiento denominada Point to Point Protocol (PPP). Se eliminan los inconvenientes propios (pero también las ventajas de ATM). Puede emplearse para transportar al mismo tiempo telefonía tradicional.

28 4) También puede insertarse los paquetes de IP en tramas de 10 GbE, empleando su mecanismo de acceso al medio y también su medio físico para codificar y enviarlas a través de una longitud de onda. Lección 3: Router En el centro de la red se encuentra el router. En pocas palabras, un router conecta una red con otra red. Por lo tanto, el router es responsable de la entrega de paquetes a través de diferentes redes. El destino de un paquete IP puede ser un servidor Web en otro país o un servidor de correo electrónico en la red de área local. Es responsabilidad de los routers entregar esos paquetes a su debido tiempo. La efectividad de las comunicaciones de internetwork depende, en gran medida, de la capacidad de los routers de enviar paquetes de la manera más eficiente posible. En la actualidad, se están incorporando routers a los satélites en el espacio. Estos routers tendrán la capacidad de enrutar el tráfico IP entre los satélites del espacio de un modo muy similar al que se transportan los paquetes en la Tierra, reduciendo así los retardos y ofreciendo una mayor flexibilidad para el trabajo en red. Además del envío de paquetes, un router también proporciona otros servicios. Para satisfacer las demandas de las redes actuales, los routers también se utilizan para lo siguiente: Aseguran la disponibilidad las 24 horas del día, los 7 días de la semana. Para ayudar a garantizar la posibilidad de conexión de la red, los routers usan rutas alternativas en caso de que la ruta principal falle. Proveen servicios integrados de datos, video y voz en redes conectadas por cable o inalámbricas. Los routers dan prioridad a los paquetes IP según la calidad de servicio (QoS) a fin de asegurar que el tráfico en tiempo real, como la voz, el video y los datos esenciales, no se descarten ni retarden.

29 Disminuye el impacto de gusanos, virus y otros ataques en la red al permitir o denegar el reenvío de paquetes. Todos estos servicios se construyen en torno del router y de su responsabilidad principal de reenviar paquetes de una red a la siguiente. La comunicación entre los dispositivos de diferentes redes sólo se logra gracias a la capacidad del router de enrutar paquetes entre las redes. Este capítulo será una introducción al router, su función en las redes, sus principales componentes de hardware y software y el proceso de enrutamiento en sí. Un router conecta múltiples redes. Esto significa que tiene varias interfaces, cada una de las cuales pertenece a una red IP diferente. Cuando un router recibe un paquete IP en una interfaz, determina qué interfaz usar para enviar el paquete hacia su destino. La interfaz que usa el router para enviar el paquete puede ser la red del destino final del paquete (la red con la dirección IP de destino de este paquete), o puede ser una red conectada a otro router que se usa para alcanzar la red de destino. Generalmente, cada red a la que se conecta un router requiere una interfaz separada. Estas interfaces se usan para conectar una combinación de Redes de área local (LAN) y Redes de área extensa (WAN). Por lo general, las LAN son redes Ethernet que contienen dispositivos como PC, impresoras y servidores. Las WAN se usan para conectar redes a través de un área geográfica extensa. Por ejemplo, una conexión WAN comúnmente se usa para conectar una LAN a la red del Proveedor de servicios de Internet (ISP). La principal responsabilidad de un router es dirigir los paquetes destinados a redes locales y remotas al: Determinar la mejor ruta para enviar paquetes Enviar paquetes hacia su destino El router usa su tabla de enrutamiento para determinar la mejor ruta para reenviar el paquete. Cuando el router recibe un paquete, examina su dirección IP de destino y busca la mejor coincidencia con una dirección de red en la tabla de enrutamiento del router. La tabla de enrutamiento también incluye la interfaz que se utilizará para enviar el paquete. Cuando se encuentra una coincidencia, el router encapsula el paquete IP en la trama de enlace de datos de la interfaz de salida. Luego, el paquete se envía hacia su destino. Es muy probable que un router reciba un paquete encapsulado en un tipo de trama de enlace de datos, como una trama de Ethernet, y al enviar el paquete, el router lo encapsulará en otro tipo de trama de enlace de datos, como el Point-to-Point Protocol (PPP). La encapsulación de enlace de datos depende del tipo de interfaz del router y del tipo de medio al que se conecta. Las diferentes tecnologías de enlace de datos a las que se conecta un router pueden incluir tecnologías LAN, como Ethernet, y conexiones seriales WAN, como la conexión T1 que usa PPP, Frame Relay y Modo de transferencia asíncrona (ATM).

30 Enlaces "How Routers Work", Funcionamiento de los routers Componentes del router y sus funciones Al igual que una PC, un router también incluye: Unidad de procesamiento central (CPU) Memoria de acceso aleatorio (RAM) Memoria de sólo lectura (ROM) Las interfaces pertenecen a diferentes redes Como se muestra en la figura, cada interfaz en un router es miembro o host en una red IP diferente. Cada interfaz se debe configurar con una dirección IP y una máscara de subred de una red diferente. El IOS de Cisco no permitirá que dos interfaces activas en el mismo router pertenezcan a la misma red. Las interfaces de router pueden dividirse en dos grupos principales: Interfaces LAN, como Ethernet y FastEthernet Interfaces WAN, como serial, ISDN y Frame Relay Interfaces LAN Como su nombre lo indica, las interfaces LAN se utilizan para conectar el router a la LAN, así como una NIC Ethernet de la PC se utiliza para conectar la PC a la LAN Ethernet. Del mismo modo que la NIC Ethernet de la PC, la interfaz Ethernet del router también tiene una dirección MAC de Capa 2 y forma parte de la LAN Ethernet al igual que cualquier otro host en esa LAN. Por ejemplo, la interfaz Ethernet del router participa en el proceso ARP para esa LAN. El router mantiene un caché ARP para esa interfaz, envía solicitudes de ARP cuando es necesario y produce respuestas ARP cuando se requieren. La interfaz Ethernet del router normalmente usa un jack RJ-45 que admite un cableado de par trenzado no blindado (UTP). Cuando un router se conecta a un switch, se usa un cable de conexión directa. Cuando se conectan dos routers directamente a través de las interfaces Ethernet, o cuando una NIC de PC se conecta directamente a una interfaz Ethernet del router, se usa un cable cruzado. Interfaces WAN Las interfaces WAN se usan para conectar los routers a redes externas, generalmente a través de distancias geográficas más extensas. La encapsulación de Capa 2 puede ser de diferentes tipos, como PPP, Frame Relay y HDLC (Control de enlace de datos de alto

31 nivel). Al igual que las interfaces LAN, cada interfaz WAN tiene su propia dirección IP y máscara de subred, que la identifica como miembro de una red específica. Nota: Las direcciones MAC se usan en interfaces LAN, como Ethernet, y no se usan en interfaces WAN. Sin embargo, las interfaces WAN usan sus propias direcciones de Capa 2 dependiendo de la tecnología. Las direcciones y los tipos de encapsulación WAN de Capa 2 se analizarán en otro curso. El router en la figura tiene cuatro interfaces. Cada interfaz tiene una dirección IP de Capa 3 y una máscara de subred que la configura para una red diferente. Las interfaces Ethernet también tienen direcciones MAC Ethernet de Capa 2. Las interfaces WAN usan encapsulaciones de Capa 2 diferentes. La Serial 0/0/0 usa HDLC y la Serial 0/0/1 usa PPP. Estos dos protocolos seriales punto a punto usan direcciones de broadcast para la dirección de destino de Capa 2 cuando encapsulan el paquete IP en una trama de enlace de datos. Routers y capa de Red El objetivo principal de un router es conectar múltiples redes y enviar paquetes destinados ya sea a sus propias redes o a otras redes. Se considera al router como un dispositivo de Capa 3 porque su decisión principal de envío se basa en la información del paquete IP de Capa 3, específicamente la dirección IP de destino. Este proceso se conoce como enrutamiento. Cuando un router recibe un paquete, examina su dirección IP de destino. Si la dirección IP de destino no pertenece a ninguna de las redes del router conectadas directamente, el router debe enviar este paquete a otro router. En la figura, R1 analiza la dirección IP de destino del paquete. Después de buscar en la tabla de enrutamiento, R1 envía el paquete a R2. Cuando R2 recibe el paquete, también analiza la dirección IP de destino del paquete. Luego de buscar en su tabla de enrutamiento, R2 envía el paquete desde su red Ethernet conectada directamente a la PC2. Cuando cada router recibe un paquete, realiza una búsqueda en su tabla de enrutamiento para encontrar la mejor coincidencia entre la dirección IP de destino del paquete y una de las direcciones de red en la tabla de enrutamiento. Cuando se encuentra una coincidencia, el paquete se encapsula en la trama de enlace de datos de Capa 2 para esa interfaz de salida. El tipo de encapsulación de enlace de datos depende del tipo de interfaz, como por ejemplo Ethernet o HDLC. Finalmente, el paquete llega a un router que forma parte de una red que coincide con la dirección IP de destino del paquete. En este ejemplo, el router R2 recibe el paquete de R1. R2 envía el paquete desde su interfaz Ethernet, que pertenece a la misma red que el dispositivo de destino, PC2.

32 Esta secuencia de eventos se explicará con mayor profundidad más adelante en este capítulo. Los routers operan en las Capas 1, 2 y 3 Un router toma su decisión principal de envío en la Capa 3, pero como mencionamos antes, también participa en procesos de Capa 1 y Capa 2. El router puede enviar un paquete desde la interfaz adecuada hacia su destino después de examinar la dirección IP de destino del paquete y consultar su tabla de enrutamiento para tomar su decisión de envío. El router encapsula el paquete IP de Capa 3 en la porción de datos de una trama de enlace de datos de Capa 2 adecuada para la interfaz de salida. El tipo de trama puede ser una Ethernet, HDLC u otro tipo de encapsulación de Capa 2, cualquiera sea la encapsulación que se usa en esa interfaz específica. La trama de Capa 2 se codifica en señales físicas de Capa 1 que se usan para representar bits a través del enlace físico. Consulte la figura para comprender mejor este proceso. Observe que la PC1 opera en las siete capas, encapsulando los datos y enviando la trama como un stream de bits codificados a R1, su Gateway por defecto. R1 recibe el stream de bits codificados en su interfaz. Los bits se decodifican y se pasan a la Capa 2, donde R1 desencapsula la trama. El router examina la dirección de destino de la trama de enlace de datos para determinar si coincide con la interfaz receptora, lo cual incluye una dirección de broadcast o multicast. Si hay una coincidencia con la porción de datos de la trama, el paquete IP pasa a la Capa 3, donde R1 toma su decisión de enrutamiento. R1 luego vuelve a encapsular el paquete en una nueva trama de enlace de datos de Capa 2 y lo envía desde la interfaz de salida como un stream de bits codificados. R2 recibe el stream de bits y el proceso se repite. R2 desencapsula la trama y pasa la porción de datos de la trama, el paquete IP, a la Capa 3 donde R2 toma su decisión de enrutamiento. Luego, R2 vuelve a encapsular el paquete en una nueva trama de enlace de datos de Capa 2 y lo envía desde la interfaz de salida como un stream de bits codificados. R3 repite este proceso una vez más y envía el paquete IP, encapsulado dentro de una trama de enlace de datos y codificado en forma de bits, a la PC2. Cada router en la ruta desde el origen al destino realiza este mismo proceso de desencapsulación, búsqueda en la tabla de enrutamiento y nueva encapsulación. Este proceso es importante para comprender la manera en que los routers participan en las redes. Por lo tanto, retomaremos este análisis con mayor profundidad en una sección posterior. Lección 4: Encaminamiento IP La información en IP se transporta en forma de paquetes y el elemento clave de la red es el router. El router encamina los paquetes procedentes de un enlace a su entrada hacia

33 un enlace a su salida. Para ello, cada router mantiene una tabla de encaminamiento que posee, en virtud del destino final, una o más asignaciones de valores de nodos adyacentes hacia los cuales puede enviarse el paquete a la salida del nodo actual. Así, cuando un paquete llega al router, éste inspecciona su cabecera donde se extrae la dirección del nodo de destino final del paquete. Con esta información se va a la tabla de encaminamiento y se determina el nodo adyacente al cual ha de enviarse el paquete y una vez determinado, se encamina el paquete hacia él, tal y como muestra la figura. router 2 Destino final Nodo siguiente Destino final Nodo siguiente Destino final Nodo siguiente Un aspecto fundamental para el funcionamiento de la red IP es por tanto el mantenimiento de estas tablas de encaminamiento. Esta tarea se realiza en líneas generales de la forma que se describe a continuación. Los cambios en la red se producen de forma frecuente con el tiempo y son de muy diversos tipos; nodos y enlaces en la red que aparecen y desaparecen, enlaces y nodos nuevos que se añaden, etc. Los routers detectan instantáneamente y actualizan sus tablas de encaminamiento empleando un protocolo de encaminamiento distribuido y dinámico. Este protocolo funciona de la siguiente manera: cada router es capaz de verificar si los enlaces a sus routers vecinos están activos o no, cada vez que el router detecta un cambio en el estado de dichos enlaces genera un paquete de estado de enlace ( Link Status Packet, LSP) y lo envía a todos los routers de la red (en realidad a los de su dominio como veremos más tarde) esta técnica se llama de inundación o flooding y se emplea para diseminar esta información por toda la red. Cada nodo al recibir un paquete de este tipo lo envía a través de los enlaces que le comunican con sus nodos adyacentes, excepto por aquel por donde le llega. Cada nodo emplea esta información para actualizar su tabla de encaminamiento y tener constancia en todo momento del estado de la red. Los paquetes de estado de red van numerados para evitar que se inviertan informaciones, cosa que puede ocurrir, si por culpa de los retardos en la red llega antes un LSP generado más tarde que otro. Con la información de los LSPs cada nodo tiene una visión de la topología de la red que emplea para computar los caminos más cortos que partiendo desde él llegan a los demás nodos. Este tipo de protocolos se denominan intradominio y dentro de ellos el Open Shortest Path First (OSPF) es el más conocido. Existen otros algoritmos llamados de Vector Distancia para actualizar la información de encaminamiento. En éstos, cada router comienza con un conjunto de rutas para

34 aquellas con las que está directamente conectado. Esta lista se guarda en una tabla de encaminamiento en la que cada entrada identifica una red o host de destino y a la distancia a ella. Esta distancia se denomina métrica y se mide típicamente en saltos. Periódicamente, cada router envía una copia de su tabla de encaminamiento a cualquier otro router que pueda alcanzar directamente. Cuando un informe le llega al router B del A, B examina el conjunto de destinos que recibe y la distancia a cada uno. B actualizará su tabla de encaminamiento si: A conoce un camino más corto a cada destino. A lista un destino que B no tiene en su tabla. La distancia de A a un destino desde B pasando por A ha cambiado. El protocolo de implementación directa de los algoritmos de encaminamiento vectordistancia para LANs es el routing Information Protocol (RIP) y emplea UDP como protocolo de transporte para sus mensajes de información (datagramas UDP). Por cuestiones de tamaño y operatividad, la red se divide en múltiples dominios interconectados. Cada uno de ellos es un sistema autónomo. Para comunicar estos dominios entre sí se emplean protocolos de encaminamiento interdominio de entre los cuales destaca el BGP o Border Gateway Protocol. Direccionamiento sin clase CIDR reemplaza la sintaxis previa para nombrar direcciones IP, las clases de redes. En vez de asignar bloques de direcciones en los límites de los octetos, que implicaban prefijos naturales de 8, 16 y 24 bits, CIDR usa la técnica VLSM (Variable-Length Subnet Mask - Máscara de Subred de Longitud Variable), para hacer posible la asignación de prefijos de longitud arbitraria. CIDR engloba: La técnica VLSM para especificar prefijos de red de longitud variable. Una dirección CIDR se escribe con un sufijo que indica el número de bits de longitud de prefijo, p.ej /16 que indica que la máscara de red tiene 16 bits (es decir, los primeros 16 bits de la máscara son 1 y el resto 0). Esto permite un uso más eficiente del cada vez más escaso espacio de direcciones IPv4 La agregación de múltiples prefijos contiguos en superredes, reduciendo el número de entradas en las tablas de ruta globales. Esta técnica es muy eficiente en el uso y manejo de redes de área local. Calculador de subred: Bloques CIDR CIDR es un estándar de red para la interpretación de direcciones IP. CIDR facilita el encaminamiento al permitir agrupar bloques de direcciones en una sola entrada de tabla de rutas. Estos grupos, llamados comúnmente Bloques CIDR, comparten una misma secuencia inicial de bits en la representación binaria de sus direcciones IP. Los bloques CIDR IPv4 se identifican usando una sintaxis similar a la de las direcciones IPv4: cuatro números decimales separados por puntos, seguidos de una barra de división y un número de 0 a 32; A.B.C.D/N.

35 Los primeros cuatro números decimales se interpretan como una dirección IPv4, y el número tras la barra es la longitud de prefijo, contando desde la izquierda, y representa el número de bits comunes a todas las direcciones incluidas en el bloque CIDR. Decimos que una dirección IP está incluida en un bloque CIDR, y que encaja con el prefijo CIDR, si los N bits iniciales de la dirección y el prefijo son iguales. Por tanto, para entender CIDR es necesario visualizar la dirección IP en binario. Dado que la longitud de una dirección IPv4 es fija, de 32 bits, un prefijo CIDR de N-bits deja 32 N bits sin encajar, y hay 2 (32 N) (32 N) combinaciones posibles con los bits restantes. Esto quiere decir que 2 direcciones IPv4 encajan en un prefijo CIDR de N-bits. Nótese que los prefijos CIDR cortos (números cercanos a 0) permiten encajar un mayor número de direcciones IP, mientras que prefijos CIDR largos (números cercanos a 32) permiten encajar menos direcciones IP. Una dirección IP puede encajar en varios prefijos CIDR de longitudes diferentes. CIDR también se usa con direcciones IPv6, en las que la longitud del prefijo varía desde 0 a 128, debido a la mayor longitud de bit en las direcciones, con respecto a IPv4. En el caso de IPv6 se usa una sintaxis similar a la comentada: el prefijo se escribe como una dirección IPv6, seguida de una barra y el número de bits significativos. Asignación de bloques CIDR El bloque /11, un bloque CIDR largo que contenía más de dos millones de direcciones, había sido asignado por ARIN, (el RIR Norteamericano) a MCI. Automation Research Systems, una empresa intermediaria del estado de Virginia, alquiló de MCI una conexión a Internet, y recibió el bloque /22, capaz de admitir 1024 direcciones IP (32 22 = 10; 2 10 = 1.024) ARS utilizó un bloque /24 para sus servidores públicos, uno de los cuales era Todos estos prefijos CIDR se utilizaron en diferentes enrutadores para realizar el encaminamiento. Fuera de la red de MCI, el prefijo /11 se usó para encaminar hacia MCI el tráfico dirigido no solo a , sino también a cualquiera de los cerca de dos millones de direcciones IP con el mismo prefijo CIDR (los mismos 11 bits iniciales). En el interior de la red de MCI, /22 dirigiría el tráfico a la línea alquilada por ARS. El prefijo /24 se usaría sólo dentro de la red corporativa de ARS. CIDR y Máscaras de Subred Una máscara de subred es una máscara que codifica la longitud del prefijo de una forma similar a una dirección IP - 32 bits, comenzando desde la izquierda, ponemos a 1 tantos bits como marque la longitud del prefijo, y el resto de bits a cero, separando los 32 bits en cuatro grupos de ocho bits. CIDR usa máscaras de subred de longitud variable (VLSM) para asignar direcciones IP a subredes de acuerdo a las necesidades de cada subred. De esta forma, la división red/host puede ocurrir en cualquier bit de los 32 que componen la dirección IP. Este proceso puede ser recursivo, dividiendo una parte del espacio de direcciones en porciones cada vez menores, usando máscaras que cubren un mayor número de bits. Las direcciones de red CIDR/VLSM se usan a lo largo y ancho de la Internet pública, y en muchas grandes redes privadas. El usuario normal no ve este uso puesto en práctica, al

36 estar en una red en la que se usarán, por lo general, direcciones de red privadas recogidas en el RFC Agregación de Prefijos Otro beneficio de CIDR es la posibilidad de agregar prefijos de encaminamiento, un proceso conocido como "supernetting". Por ejemplo, dieciséis redes /24 contiguas pueden ser agregadas y publicadas en los enrutadores de Internet como una sola ruta /20 (si los primeros 20 bits de sus respectivas redes coinciden). Dos redes /20 contiguas pueden ser agregadas en una /19, etc. Esto permite una reducción significativa en el número de rutas que los enrutadores en Internet tienen que conocer (y una reducción de memoria, recursos, etc.) y previene una explosión de tablas de encaminamiento, que podría sobrecargar a los routers e impedir la expansión de Internet en el futuro. CIDR IPv4 CIDR No. de redes por clase Hosts* Máscara /32 1/256 C /31 1/128 C /30 1/64 C /29 1/32 C /28 1/16 C /27 1/8 C /26 1/4 C /25 1/2 C /24 1/1 C /23 2 C /22 4 C 1, /21 8 C 2, /20 16 C 4, /19 32 C 8, /18 64 C 16, / C 32, / C, 1 B 65, / C, 2 B 131, /14 1,024 C, 4 B 262, /13 2,048 C, 8 B 524, /12 4,096 C, 16 B 1,048, /11 8,192 C, 32 B 2,097, /10 16,384 C, 64 B 4,194, /9 32,768 C, 128B 8,388, /8 65,536 C, 256B, 1 A 16,777, /7 131,072 C, 512B, 2 A 33,554,

37 /6 262,144 C, 1,024 B, 4 A 67,108, /5 524,288 C, 2,048 B, 8 A 134,217, /4 1,048,576 C, 4,096 B, 16 A 268,435, /3 2,097,152 C, 8,192 B, 32 A 536,870, /2 4,194,304 C, 16,384 B, 64 A 1,073,741, /1 8,388,608 C, 32,768 B, 128 A 2,147,483, /0 33,534,432 C, 65,536 B, 256 A 4,294,967, (*) En la práctica hay que restar 2 a este número. La dirección menor (más baja - todos los bits de host a 0) del bloque se usa para identificar a la propia red (toda la red), y la dirección mayor (la más alta - todos los bits de host a 1) se usa como dirección de broadcast. Por tanto, en un bloque CIDR /24 podríamos disponer de = 254 direcciones IP para asignar a dispositivos. Los protocolos de enrutamiento sin clase incluyen RIPv2, EIGRP, OSPF, IS-IS y BGP. Estos protocolos de enrutamiento incluyen la máscara de subred con la dirección de red en sus actualizaciones de enrutamiento. Los protocolos de enrutamiento sin clase son necesarios cuando la máscara no puede suponerse ni determinarse con el valor del primer octeto. Lección 5: GIGA Ethernet Ethernet es el protocolo de conmutación de paquetes más empelado en la actualidad en LANs. Inicialmente operaba a 10 Mb/s pero se ha experimentado ampliaciones a 100Mb/s, 1 Gb/s y, recientemente a 10 Gb/s. Ethernet funciona mediante la técnica de acceso CSMA/CD y a mayor velocidad y más larga distancia su eficiencia decae. Gigabit Ethernet GbE se ha empelado de forma creciente en redes metropolitanas para interconectar múltiples redes de empresa y en 2002, el IEEE ratificó el estándar 10 Gigabit Ethernet (10 GbE) para su empleo en redes de larga distancia sobre fibra óptica. Contrariamente a los primeros sistemas Ethernet, 10-gigabit Ethernet está basado principalmente en el uso de cables de fibra óptica (con la excepción del 10 GBASE-CX4). Sin embargo, el IEEE está desarrollando un estándar de 10-gigabit Ethernet sobre par trenzado (10GBASE-T). Las especificaciones de 10 Gigabit Ethernet está definidas en la norma IEEE 802.3ae que complementa el estándar en él se definen varias subcapas físicas conocidas como 10GBASE-X, 10GBASE-R y 10-GBASE-W así como material adicional para la gestión e interfaces como son el 10Gigabit Media Independent Interface (XGMII), el 10 Gigabit Attachment Unit Interface (XAUI) y el 10Gigabit Sixteen Bit Interface (XSBI). El sistema 10GBASE Gigabit Ethernet opera únicamente en modo full-duplex sobre fibra óptica de forma muy flexible pues puede implementarse sobre siete medios físicos distintos, que se describirán a lo largo del apartado, diseñados para trabajar en redes de área local (LAN), área metropolitana (MAN) o área amplia (WAN).

38 10-Gigabit Ethernet emplea el conocido protocolo IEEE Ethernet de control de acceso al medio (MAC) y el tamaño y formato de trama, aunque no requiere el protocolo CSMA/CD empleado en otros estándares. La figura muestra la arquitectura 10 Gigabit Ethernet. En la capa física, un dispositivo Ethernet de esta capa (PHY) conecta el medio óptico a la capa MAC. La arquitectura Ethernet divide la capa física en tres subcapas: Medio dependiente físico ( Physical Medium Dependent, PMD), Medio físico anexo ( Physical Medium Attachment, PMA) y Subcapa física de codificación ( Physical Coding Sublayer, PCS). La primera provee la conexión física y conexión al medio (por ejemplo, los transceptores ópticos). La segunda provee de un medio independiente a la subcapa PCS para soportar diferentes medios físicos con bits orientados serialmente. Esta capa forma grupos de códigos seriales por transmisión y desensambla los códigos de grupos seriales cuando los bits son recibidos. La capa PCS contiene la codificación (64B/66B) y un serializador o multiplexor. El estándar IEEE 802.3ae estándar define dos tipos PHY: LAN PHY y WAN PHY, que proveen la misma funcionalidad pero el segundo incorpora conectividad con redes SONET STS-192c/SHD VC-4-64c en la subcapa PCS. La figura 27 muestra las partes de que constan las tramas empleadas en un sistema 10 Gigabit Ethernet: =<1500<b> 4 Pre SFD DA SA Length Type Data unit + pad FCS Preámbulo (PRE): 7 bytes. Es un patrón alternante de unos y ceros que avisa a las estaciones receptoras de que una trama va a llegar y provee la sincronización de las distintas capas físicas con la trama de bits. Start-of-frame delimiter (SFD)-1byte. El SOF es un patrón alternante de unos y ceros que finaliza con dos bits 1 consecutivos indicando que el siguiente bit es el primer bit de la izquierda en el primer byte de la dirección de destino. Destination adress (DA)- 6 bytes. El campo DA idéntica qué estación/es debe/n recibir la trama. Source address (SA)- 6 bytes. El campo SA identifica la estación emisora. Length/Type 2 bytes. Este campo indica el número de bytes de datos del cliente MAC- que contiene el campo de datos de la trama, o el ID del protocolo encapsulado en la trama si el valor del número es superior a Data Secuencia de bytes, con un número cualquiera entre 46 y 1500 (El mínimo para el total de la trama es 64 bytes). Frame check sequence (FCS) - 4 bytes. Secuencia que contiene un valor de comprobación redundante cíclica de 32-bit (cyclic redundancy check, CRC) creada por el MAC emisor y recalculada por el MAC receptor para comprobar tramas erróneas. Las capas físicas especificadas en la norma IEEE incluyen la denominada 10GBASE- S, que emplea señal a 850nm y dos fibras multimodo; 10GBASE-L4, que emplea un transceptor WDM a 1310 nm con dos fibras multimodo o monomodo; 10GBASE-L, que emplea 1310 nm con dos fibras monomodo; y 10GBASE-E, que usa 1550nm con dos fibras monomodo.

39 Los medios físicos empleados en 10 Gigabit se denominan con varias letras que indican la longitud de onda empleada en el sistema óptico así como la señal de codificación empleada. La codificación incluye una subcapa de interfaz WAN (WAN interface sublayer, WIS) que compatibiliza cualquier equipo 10 Gigabit Ethernet con el formato de transmisión SONET STS-192c, dado que SONET se utiliza comúnmente para comunicaciones de datos a largas distancias y STS-192c ofrece una capacidad de la carga de Gbps. El subsistema WIS adapta la carga transportada por el sistema 10 Gigabit Ethernet a la capacidad de las tramas SONET STS-192c. En los medios 10GBASE-X, la S significa que se emplea la longitud de onda de 850 nm, la L hace referencia a 1310 NM, Y LA E se reserva para 1550nm. La letra X significa que la codificación de la señal es 8B/10B, mientras que R implica codificación 66B y W se refiere al interfaz WIS que encapsula las tramas Ethernet para su transmisión sobre un canal SONET STS-192c. Los medios 10GBASE-SR y 10GBASE-SW emplean la longitud de onda de 850nm y fibra óptica multimodo (MMF). El alcance de estos sistemas presenta un rango entre 2 y 300 metros de fibra, e incluso mayores, dependiendo del tipo y calidad de la misma. El primero se utiliza sobre una fibra oscura, o sea, que no está en uso ni conectado a ningún equipo. El segundo está diseñado para conectarse a equipos SONET que se utiliza típicamente para comunicaciones de larga distancia. Los medios 10GBASE-LR y 10GBASE-LW emplean la longitud de onda de 1310nm y fibra óptica monomodo (SMF), con un alcance en el rango entre 2m y 10 km de fibra y las mismas características que los anteriores. Los medios 10GBASE-ER y 10GBASE-EW emplean la longitud de onda de 1550nm y fibra óptica monomodo (SMF) y su alcance presenta un rango entre 2m y 40 km. Finalmente, el medio 10GBASE-LX4 emplea la tecnología WDM para enviar información sobre 4 canales distintos sobre un par de cables de fibra óptica. Está diseñado para trabajar a 1310nm sobre fibra oscura monomodo o multimodo. El alcance de estos sistemas presenta un rango entre 2 y 300 m de fibra si se emplea fibra multimodo, pero de 2 m a 10 km si se utiliza fibra monomodo.

40 Introducción CAPITULO 3: REDES ATM Este capítulo muestra las redes frame relay y ATM como una interconexión de nodos de conmutación, proporciona la arquitectura, conexiones lógicas y estructura de la celda y la capa de adaptación de ATM. Lección 1: Frame Relay Frame Relay o (Frame-mode Bearer Service) es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida por la ITU-T a partir de la recomendación I.122 de Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos ( frames ) para datos, perfecto para la transmisión de grandes cantidades de datos. La técnica Frame Relay se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un coste menor. Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión. Las conexiones pueden ser del tipo permanente, (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched Virtual Circuit). De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red. El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz. Frame Relay constituye un método de comunicación orientado a paquetes para la conexión de sistemas informáticos. Se utiliza principalmente para la interconexión de redes de área local (LANs, local area networks) y redes de área extensa (WANs, wide area networks) sobre redes públicas o privadas. La mayoría de compañías públicas de telecomunicaciones ofrecen los servicios Frame Relay como una forma de establecer conexiones virtuales de área extensa que ofrezcan unas prestaciones relativamente altas. Frame Relay es una interfaz de usuario dentro de una red de conmutación de paquetes de área extensa, que típicamente ofrece un ancho de banda comprendida en el rango de 56 Kbps y Mbps. Frame Relay se originó a partir de las interfaces ISND y se propuso como estándar al Comité consultivo internacional para telegrafía y telefonía (CCITT) en El comité de normalización T1S1 de los Estados Unidos, acreditado por el Instituto americano de normalización (ANSI), realizó parte del trabajo preliminar sobre Frame Relay. Lección 2: ATM

41 Para la transmisión, ATM emplea celdas de tamaño fijo de 53 bytes que resulta de un compromiso entre los requisitos de las aplicaciones de voz (paquetes de tamaño reducido son preferibles para evitar retardos prolongados) y las aplicaciones de datos (son preferibles paquetes de tamaño mayor para rentabilizar el overead). A diferencia de SDH, la transmisión de tramas no es de naturaleza continua, sino que las celdas se transmiten sólo cuando hay información que enviar. De los 53 bytes, 5 se reservan para la cabecera (destino del paquete, etc.) y 48 bytes se reservan para la carga que transporta la celda tal y como se muestra en la figura. La red ATM suele ser de tipo mallado, donde los elementos centrales son los conmutadores ATM que generalmente están interconectados entre sí a través de enlaces de tipo punto a punto e interfaces ATM. Esta conmutación se realiza a nivel de celda ATM. Por tanto, al ser éstas de tamaño fijo y reducido, puede garantizarse una transmisión extremo a extremo en la red con muy poco retardo, habilitando además la posibilidad de proporcionar calidad de servicio (QoS). En la mayoría de los casos, los conmutadores ATM se conectan a equipos SDH por medio de interfaces ópticos de características compatibles a las descritas en la capa física de SDH. Una red ATM está formada por conmutadores ATM y puntos finales ATM. El conmutador ATM es responsable del tránsito de celdas a través de la red ATM: acepta las celdas que le llegan de un punto final ATM o un conmutador ATM, lee y actualiza la información en la cabecera de la celda, y rápidamente conmuta la celda a una interfaz de salida hacia su destino. Un punto final ATM o sistema final, contiene un adaptador de interfaz a la red ATM, el cual sí lee los bytes de datos de la celda. Ejemplos de puntos finales son: las estaciones de trabajo, routers, unidades de servicio digitales, conmutadores LAN, y codificadores y decodificadores de vídeo. Los conmutadores ATM soportan dos tipos primarios de interfaces: UNI (User to Network Interface). La interfaz UNI conecta sistemas finales ATM (tales como servidores y routers) a un conmutador ATM. NNI (Network to Network Interface). Conecta dos conmutadores ATM. Los dispositivos ATM utilizan un formato de direcciones NSAP (Network Service Access Point) del modelo OSI de 20 bytes, en el caso de redes ATM privadas; y un formato de direcciones E.164 del ITU-T, semejante a números telefónicos, para las redes públicas B- ISDN. Cada sistema ATM necesita de una dirección ATM, independiente de los protocolos de nivel superior como IP. Lección 3: Arquitectura y modelos de capas ATM La arquitectura de ATM utiliza un modelo de referencia para describir la funcionalidad que soporta y que está relacionada con la capa física y la capa de enlace de datos del modelo OSI. El modelo ATM comprende tres planos y cada plano abarca a todas las capas: Plano de control: genera y gestiona las peticiones de señalización. Plano de usuario: gestiona la transferencia de datos. Plano de gestión: incluye la gestión de capas, que incluye las funciones específicas de cada capa y la gestión de planos, que también coordina las funciones del sistema completo.

42 Específicamente hablando, y tal y como se ilustra en la figura, las capas de ATM son: 1) Capa física: análoga al nivel físico del modelo OSI. Las celdas ATM pueden ser transportadas por cualquier nivel físico. ATM no limita el nivel físico a SDH, también se pueden emplear otras tecnologías, incluso inalámbricas. 2) La capa ATM: es análoga al nivel de enlace de datos de OSI. Se responsabiliza del establecimiento de las conexiones y del envío y transporte de las celdas ATM a través de la red. Para ello, precisa de la información de la cabecera de las celdas. En cualquiera de las interfaces, la cabecera de 5 bytes es necesaria, aunque difiere ligeramente si la celda se transmite a través de un enlace con UNI o de un enlace con NNI. En la figura se muestran los campos de la cabecera para cada una de las dos opciones correspondientes. Estos campos son los siguientes. 1) GFC: Generic Flow control : 4 bytes en UNI, no está presente en NNI. 2) VPI: Virtual Path Identifier : 8 bits en UNI, 12 en NNI. 3) VCI: Virtual Circuit Identifier : 16 bits. 4) PT: Payload Type : 3 bits. 5) CLP: Cell Loss Priority : 1 bit 6) HEC: Header Error Control : 8 bits (CRC sobre los 5 bytes de cabecera). 3) La capa de adaptación a ATM (AAL): realiza funciones también análogas a la capa de enlace de datos de OSI y está fuertemente relacionada con la anterior. Su misión es aislar a los protocolos de orden superior de los detalles de los procesos de ATM. Es un nivel que adapta las tramas de formatos de protocolos superiores al formato de celda ATM. 4) Capas superiores: aceptan paquetes generados por los usuarios mediante otros formatos y los pasan a la capa AAL.

43 Los sistemas finales utilizan los tres niveles mientras que los conmutadores solo utilizan los dos niveles inferiores. Lección 4: Conexión y encaminamiento ATM Como hemos mencionado anteriormente, ATM funciona como un servicio orientado a conexión. Con antelación a la transferencia de datos se ha de establecer un canal y se han de reservar los recursos oportunos de la red. Las conexiones en ATM se denominan canales virtuales y a cada uno de ellos se les asigna un Identificador de Canal Virtual (VCI). El VCI de un canal virtual no tiene por qué mantenerse constante a lo largo de toda la trayectoria desde el nodo origen al destino. Más aún suele cambiarse en cada nodo intermedio, de forma que se modifica su valor en los diferentes enlaces intermedios. La tarea de un conmutador ( switch ) es inspeccionar el valor del VCI de la celda a su entrada, ir a una tabla de asignaciones que se encuentra disponible y actualizada en todo momento y obtener el puerto de salida de dicha celda y el valor de VCI que hay que poner como nuevo para el enlace siguiente. La tabla VCI es un elemento fundamental y muestra el establecimiento previo del circuito antes de la transmisión de datos propiamente dicha. Como se ha mencionado anteriormente dicha tabla ha de especificar para cada valor de VCI de entrada el enlace o puerto de salida y el valor de VCI nuevo que habrá de emplear la celda en dicho enlace. En la red puede haber un gran número (millones) de canales virtuales compartiendo el mismo enlace. De acuerdo con el procedimiento anterior, cada uno tendría VCIs diferentes y, al llegar a un nodo intermedio habría que consultar tablas de una envergadura considerable. De hecho, el mirar más de una tabla de más de 2 16 =65536 entradas para encaminar cada cédula supondría un gran consumo de tiempo. Si existiera un mecanismo para agrupar o agregar todos aquellos canales virtuales que al menos comparten un elevado porcentaje de enlaces en el camino extremo a extremo, esta propiedad podría emplearse para aliviar significativamente el proceso de encaminamiento. Esta propiedad para agregar canales virtuales se implementa por medio del uso de los identificadores de camino virtual o VPI (Virtual Path Identifier). Para entender el funcionamiento del VPI nos referimos al ejemplo de la figura. En el ejemplo, los dos canales virtuales comparten los enlaces 0-1 y 1 2. Así el VPI=u se asigna a los dos canales en el enlace 0 1 y el VPI=v en el enlace 1-2. El conjunto de los dos enlaces es un camino virtual donde el nodo 0 es el origen del camino y el nodo 2 el final. Cualquier celda que pertenezca a un canal virtual agrupado a este camino virtual será enrutada a través de éste empleando el indicador VPI que es de menor tamaño que el VCI. Al llegar al final de su camino virtual, las celdas son enrutadas a partir de allí en virtud del valor de su VCI. Este esquema de dos niveles es más efectivo que emplear la suma de bits de ambos (24) para UNI y 28 para NNI) directamente para conmutar.

44 El proceso de determinación de las rutas que seguirán las celdas en una conexión ATM extremo a extremo y el mantenimiento y cambio de las tablas de VCI, puertos y VPI en cada conmutador de ATM se realiza a través de un protocolo de encaminamiento. En el caso de ATM este protocolo se conoce por las siglas PNNI (Private Network to Network Interface) si la conexión es entre redes privadas y BCI (Broadband Carrier Interface) si la conexión es entre redes públicas. El funcionamiento del protocolo es el siguiente: cada enlace de la red viene caracterizado por una serie de parámetros que describen su estado (tasa de pérdida de celdas, retardo máximo, ancho de banda disponible, etc ) así como por otro parámetro de coste o factor de peso que indica el coste en que incurrirá la red por emplearlo. Cada conmutador ATM informa al resto de los demás del valor de estos parámetros para cada uno de los enlaces que parten de sus puertos de salida. Así, cada switch ATM obtiene una información global de la topología de la red y los estados de sus enlaces. El conmutador de entrada puede emplear esta información para calcular la ruta que mejor se ajusta a los requisitos de QoS establecidos y, al mismo tiempo minimizar el coste. Una vez que la ruta se ha calculado, cada switch incluido en ella es informado acerca de la nueva conexión y sus tablas de etiquetas VPI/VCI entrada/salida han de ser reconfiguradas. Una vez terminada esta tarea, finaliza el proceso de conexión y PNNI es invocado de nuevo. Lección 5: Capas de adaptación ATM (AAL) ATM emplea celdas de tamaño fijo. Sin embargo, las aplicaciones que emplean ATM o emplean paquetes de tamaño variable como IP o son de tipo flujo contínuo como la transmisión de vídeo o voz. La capa de Adaptación de ATM, AAL es la responsable, como ya vimos de transformar este diverso conjunto de diferentes tipos de señales cliente en celdas de ATM. Para transportar diversos tipos de tráfico se han definido diferentes tipos de AAL, éstos transforman paquetes, largas cadenas de señales de vídeo, etc., en segmentos de 48 bytes susceptibles de incorporarse a la carga de celdas ATM. La capa AAL se divide en dos subcapas o subtareas: Capa de convergencia (adapta la información a múltiplos de octetos) Capa de segmentación y re ensamblaje o SAR, que segmenta la información en unidades de 48 octetos en la fuente y la re-ensambla en el destino. Características de los 5 tipos de AAL. ATM Adaptation Layer 1 (AAL1): AAL Tipo 1 o clase A soporta CBR (Constant Bit Rate), síncrono, orientado a conexión. Su servicio es de alta prioridad y

45 garantizado. Se utiliza, por ejemplo, para audio y video sin comprimir (videoconferencias, audio interactivo) ATM Adaptation Layer 2 (AAL2): AAL Tipo 2 soporta rt-vbr (Variable Bit Rate in real time), de circuito orientado a la conexión de tráfico síncrono. Su servicio es de baja prioridad y garantizado. Se utiliza en compresión de video. ATM Adaptation Layer 3 y 4 (AAL3 y AAL4): Soportan al VBR, tráfico de datos, circuitos orientados a la conexión, tráfico asíncrono (por ejemplo X.25 de datos) o a los paquetes de datos no orientados a la conexión (ej.: tráfico SMDS) con una cabecera (header) adicional de 4 bytes en el payload de la celda. Por ejemplo Frame Relay y X.25. Su servicio es de alta prioridad y no garantizado. ATM Adaptation Layer 5 (AAL5): Este AAL ha sido diseñado para utilizarse bajo TCP/IP y está normalizado en la RFC AAL Tipo 5 es similar a AAL 3/4 con un programa de simplificación de cabecera (header) de información. Este AAL asume que los datos son secuenciales desde el usuario final y usa el bit Payload Type Indicator (PTI) para indicar la última celda en transmitirse. Ejemplos de este servicio son el clásico IP sobre ATM, Ethernet sobre ATM, SMDS, y emulación LAN (LANE). Su servicio es de baja prioridad y no garantizado. En el caso de AAL5 se definen 4 clases de servicio: CBR (Constant Bit Rate): Tasa de velocidad constante. Divide la capacidad total del ancho de banda y se encarga de la parte con un flujo constante de tráfico. Se emplea como simulación de redes LAN o enlaces punto a punto. Es adecuado para transmisiones de tiempo real como vídeo y voz. VBR (Variable Bit Rate): Tasa de velocidad variable. Se utiliza sobre la capacidad no aprovechada por CBR y está pensando para permitir el tráfico a ráfagas y asegurar un caudal mínimo (similar a Frame Relay). Se ofrecen 2 posibilidades. rt-vbr para aplicaciones de tiempo real y nrt-vbr para las de no tiempo real. Por ejemplo la transmisión de video MPEG utiliza rt-vbr. El servicio nrt-vbr es el ofrecido por los operadores de acceso a Internet para usuarios. UBR (Unespecified Bit Rate): Tasa de velocidad no especificada. Utilizado en el ancho de banda restante. El tráfico que utiliza este servicio es el susceptible de ser eliminado en caso de congestión en los conmutadores. Lo utilizan aplicaciones tolerantes a pérdidas de paquetes, como conexiones TCP. ABR (Available Bit Rate): Tasa de velocidad libre. Se hace una mejor gestión de la capacidad sobrante que con UBR. Se establece un caudal mínimo y existe una realimentación de paquetes para evitar la pérdida de celdas y la congestión.

46 FUENTES DOCUMENTALES DE LA UNIDAD 1 Stallings, W. (2004). Redes e Internet de Alta Velocidad, Rendimiento y Calidad de Servicio". 2ª Edición. Editorial Prentice Hall. Kurose, James F. Ross, Keith w. (2010). Redes de Computadoras (5ta Edición). Pearson Educación Forouzan, Behrouz A. (2006). Transmisión de datos y redes de comunicaciones / Behrouz A. Forouzan; traducción Jesús Carretero Pérez, Félix García Carballeira. Edición: 4a. ed. Editor Carmelo Sánchez González. Editorial: Madrid: McGraw-Hill. Capmany Francoy, José. (2007). Redes ópticas / José Capmany Francoy, Beatriz Ortega Tamarit. Editorial: México: Limusa: Universidad Politécnica de Valencia.

47 Nombre de la Unidad Introducción UNIDAD 2 CONGESTION Y CALIDAD DE SERVICIO EN REDES DE ALTA VELOCIDAD El control de congestión y la calidad de servicio son dos aspectos tan íntimamente relacionados que la mejora en uno significa la mejora del otro e ignorar uno normalmente significa ignorar el otro. La mayoría de las técnicas para prevenir o eliminar la congestión también mejoran la calidad de servicio en una red. Estos aspectos no están relacionados con un nivel, sino con tres: el nivel de enlace de datos, el nivel de red y el nivel de transporte. En esta unidad iniciamos con el control de congestión, calidad de servicio y terminamos con mecanismos de soporte para calidad de servicio en redes de alta velocidad. Justificación Actualmente a las redes IP se les pide que soporte un gran volumen de tráfico, sobre enlaces de alta capacidad y la miscelánea de tráfico engloba aplicaciones en tiempo real o prácticamente en tiempo real, que son sensibles a los retardos y a las variaciones de rendimiento, así como a la perdida de paquetes. Los requisitos primordiales en el diseño de redes IP son: Control de congestión si no se controla la congestión de manera adecuada, los buffers de conmutación o encaminamiento se llenan por completo y los paquetes han de ser descartados. Para aquellas aplicaciones que toleran la perdida de datos, el descartarlos significa que luego han de ser retransmitidos, lo cual incrementa la congestión. Para las aplicaciones que no toleran la perdida de datos, el descartar paquetes supone una pérdida en la calidad de servicio. Conseguir un bajo nivel de retardo el retardo se ve reducido cuando no existe congestión y la longitud de las colas es muy breve. Sin embargo, para dar soporte a numerosas aplicaciones, el nivel de utilización de la red debe ser relativamente alto. Esto sugiere la necesidad de que exista al menos un cierto grado de congestión y en consecuencia, cierto retardo. Proporcionar un alto rendimiento esto se consigue haciendo que parte de la capacidad quede reservada o dedicada. No obstante, para utilizar la red de manera eficaz, hay que permitir una cierta cantidad de multiplexación estadística, lo cual, hasta cierto punto, entra en conflicto con la provisión de un alto nivel de rendimiento. Ofrecer calidad de servicio la provisión de distintos niveles de calidad de servicio a los diferentes flujos de tráfico requiere una gestión inteligente de los paquetes a medida que estos fluyen

48 Intencionalidades Formativas por la red. Proporcionar un servicio justo -- otro objetivo deseable es equidad. Aquí la palabra justicia hace referencia a la provisión de una cantidad similar de capacidad. Para todos los paquetes que confluyen con una misma calidad de servicio. PROPÓSITOS Examinar el rendimiento de una red de alta velocidad a través del estudio de los problemas de congestión y los mecanismos de control de la congestión. Examinar los protocolos y mecanismos usados internamente en una red para controlar la congestión y ofrecer soporte para varios niveles de calidad de servicio a través de los importantes conceptos de los servicios integrados y los servicios diferenciados y varios protocolos que ofrecen soporte de QoS.. OBJETIVOS Examinar los problemas de congestión y los mecanismos de control de la congestión para obtener un mejor rendimiento en las redes de alta velocidad. Examinar los protocolos de encaminamiento para satisfacer requisito de QoS. Estudiar los conceptos de los servicios integrados y los servicios diferenciados y varios protocolos que ofrecen soporte de QoS para controlar la congestión y ofrecer soporte para varios niveles de calidad de servicio. COMPETENCIAS El estudiante describe los problemas de congestión y utiliza los mecanismos de control de la congestión para obtener un mejor rendimiento en las redes de alta velocidad. El estudiante describe y utiliza los protocolos de encaminamiento para satisfacer requisito de QoS. El estudiante describe y utiliza los elementos necesarios para introducir calidad de servicio (QoS) en las redes Internet. METAS Al finalizar el curso:

49 El estudiante evalúa y selecciona la red y los componentes más adecuados para la implementación de una red de alta velocidad. El estudiante utiliza efectivamente la información proporcionada por las especificaciones técnicas de los fabricantes y la obtenida a través de buscadores en Internet. El estudiante describe, explica y discute con otros compañeros las opciones de elección de un diseño y socializarla. Denominación de capítulos CAPITULO 1CONTROL DE CONGESTION CAPITULO 2 CALIDAD DE SERVICIO CAPITULO 3 SOPORTE PARA CALIDAD DE SERVICIO (QoS)

50 Introducción CAPITULO 4: CONTROL DE CONGESTION El aspecto central del control de congestión y de la calidad de servicio es el tráfico de datos. En el control de congestión se intenta evitar la congestión del tráfico. En la calidad de servicio, se intenta crear un entorno apropiado para el tráfico. Lección 1: TRÁFICO DE DATOS Antes de hablar sobre el control de congestión y la calidad de servicio, se tratará el tráfico de datos. DESCRIPTORES DE TRÁFICO Los descriptores de tráfico son valores cualitativos que representan un flujo de datos. La figura muestra un flujo de tráfico con algunos de estos valores. Tasa de datos media La tasa de datos media es el número de bits enviados durante un periodo de tiempo, dividido por el número de segundos de ese periodo. Se utiliza la siguiente ecuación: Tasa de datos media = cantidad de datos / tiempo La tasa de datos media es una característica muy útil del tráfico debido a que indica el ancho de banda medio que necesita el tráfico. Tasa de datos pico La tasa de datos pico define la máxima tasa de datos del tráfico. En la figura es el valor máximo del eje y. La tasa de datos pico es una medida muy importante debido a que indica el ancho de banda pico que la red necesita para que el tráfico pase por ella sin cambiar su flujo de datos. Tamaño de la ráfaga máxima Aunque la tasa de datos pico es un valor crítico para la red, puede normalmente ser ignorada si la duración del valor pico es muy corto. Por ejemplo, si los datos fluyen a una tasa de 1Mbps con un pico de datos repentino de 2 MBPS durante solo 1 ms, la red probablemente podrá tratar la situación. Sin embargo, si la tasa de datos pico dura 60

51 ms, puede que haya problemas en la red. El tamaño de la ráfaga máxima normalmente se refiere a la duración máxima de tiempo en el que el tráfico se genera a la tasa pico. Ancho de banda efectivo El ancho de banda efectivo es el ancho de banda que la red necesita asignar al flujo de tráfico. El ancho de banda efectivo es una función de tres valores: tasa de datos media, tasa de datos pico y tamaño de la ráfaga máximo. El cálculo de este valor es muy complejo. PERFILES DE TRÁFICO Para el objetivo de este capítulo, un flujo de datos puede tener uno de los siguientes perfiles de tráfico: tasa de bits constante, tasa de bit variable o tasa de bit a ráfagas. Tasa de bits constante Un modelo de tráfico con una tasa de bits constante (CBR) o tasa de datos fija, tiene una tasa de datos que no cambia. En este tipo de flujo, la tasa de datos media y la tasa de datos pico son iguales. El tamaño de la ráfaga máximo no es aplicable. Este tipo de tráfico es muy sencillo de tratar para una red puesto que es predecible. La red conoce por adelantado cuanto ancho de banda necesita asignar para este tipo de flujo. Tasa de bits variable En la categoría de tasa de bits variable (VBR), la tasa de datos cambia con el tiempo, siendo los cambios suaves y no repentinos. En este tipo de flujo, la tasa de datos media y la tasa de datos pico son diferentes. El tamaño de la ráfaga máxima tiene normalmente un valor pequeño. Este tipo de tráfico es más difícil de gestionar que el tráfico con tasa de bits constante, pero normalmente no necesita ser reajustado como se verá más tarde. Datos a ráfagas En la categoría de datos a ráfagas, la tasa de datos cambia de forma repentina en un tiempo muy corto. Puede saltar de cero, por ejemplo, hasta 1 Mbps en unos pocos microsegundos y viceversa. Puede también permanecer en este valor durante un largo periodo. La tasa media de bits y la tasa pico son muy diferentes en este tipo de flujo. El tamaño de la ráfaga máxima es significativo. Este es el tipo de tráfico más difícil de tratar debido a que el perfil de tráfico es muy impredecible. Para manejar este tipo de tráfico, la red normalmente necesita reajustarse, utilizando técnicas de ajuste, como se verá en breve. El tráfico de datos a ráfaga es una de las principales causa de congestión en una red.

52 Lección 2: CONGESTIÓN Un aspecto importante en una red de conmutación de paquetes es la congestión. La congestión en una red puede ocurrir si la carga de la red (el número de paquetes enviados a la red) es mayor que la capacidad de la red (el número de paquetes que una red puede tratar). El control de congestión se refiere a los mecanismos y técnicas que permiten controlar la congestión y mantener la carga por debajo de la capacidad. Se puede preguntar por qué hay congestión en una red. La congestión en un sistema que involucra espera. Por ejemplo, la congestión ocurre en una autopista debido a que cualquier incidente en el flujo, como un accidente durante una hora punta, crea un bloqueo. La congestión en una red o interconexión de redes ocurre debido a que los routers y conmutadores tienen colas búferes que almacenan los paquetes antes y después de su procesamiento. Un router, por ejemplo, tiene una cola de entrada y una cola de salida para cada interfaz. Cuando un paquete llega a la interfaz de entrada, se llevan a cabo tres etapas antes de su salida.. 1. El paquete se coloca al final de la cola de entrada mientras espera a ser comprobado. 2. El módulo de procesamiento del router extrae el paquete de la cola de entrada cuando alcanza el frente de la cola y utiliza su tabla de encaminamiento y la dirección de destino para encontrar el camino. 3. El paquete se coloca en la cola de salida de la interfaz apropiada y espera su turno para ser enviado. Se necesita tener en cuenta dos aspectos. En primer lugar, si la tasa de llegada de paquetes es mayor que la tasa de procesamiento de paquetes, las colas de entrada se harán cada vez más largas. En segundo lugar, si la tasa de salida de paquetes es menor que la tasa de procesamiento de los paquetes, las colas de salida se harán cada vez más largas. PRESTACIONES DE UNA RED El control de congestión involucra dos factores que miden las prestaciones de una red: el retardo y la productividad. Retardo frente a carga

53 Observe que cuando la carga es mucho menor que la capacidad de la red, el retardo está al mínimo. El retardo mínimo se compone del retardo de propagación y del retardo de procesamiento, los cuales son insignificantes. Sin embargo, cuando la carga alcanza la capacidad de la red, el retardo se incrementa bruscamente debido a que ahora se necesita añadir el tiempo de espera en las colas (para todos los routers en el camino) al retardo total. Observe que el retardo se hace infinito cuando la carga es mayor que la capacidad. Si esto no es obvio, considere el tamaño de las colas cuando casi ningún paquete alcanza el destino, o alcanza el destino con un retardo de infinito; las colas se hacen cada vez más grandes. El retardo tiene un efecto negativo sobre la carga y consecuentemente sobre la congestión. Cuando un paquete es retrasado, el origen no recibe confirmación y retransmite el paquete, lo que empeora el retardo y la congestión. Productividad frente a carga La productividad se define como el número de bits que pasan a través de un punto en un segundo. Se puede extender esa definición de bits a paquetes y de punto a red. Así se puede definir la productividad en una red como el número de paquetes que pasan a través de una red en una unidad de tiempo. Observe que cuando la carga está por debajo de la capacidad de la red, la productividad se incrementa proporcionalmente con la carga. Se espera que la productividad permanezca constante una vez que la carga alcanza la capacidad, pero en su lugar la productividad se reduce repentinamente. La razón se debe a los paquetes descartados por los routers. Cuando la carga excede a la capacidad, las colas se llenan y los routers descartan algunos paquetes. El hecho de descartar paquetes, sin embargo no reduce el número de paquetes en la red debido a que las fuentes retransmiten los paquetes, utilizando mecanismos de temporización, cuando los paquetes no alcanzan los destinos.

54 Lección 3: CONTROL DE CONGESTIÓN El control de congestión se refiere a las técnicas y mecanismos que o previenen la congestión, antes de que ocurra, o eliminan la congestión una vez que ha ocurrido. En general, se pueden dividir los mecanismos de control de congestión en dos amplias categorías: Control de congestión de bucle abierto (prevención) y control de congestión de bucle cerrado (eliminación). CONTROL DE CONGESTIÓN DE BUCLE ABIERTO En el control de congestión de bucle abierto, las políticas se aplican para prevenir la congestión antes de que ocurra. En estos mecanismos, el control de congestión es manejado por el origen o por el destino. A continuación se muestra una breve lista delas políticas que pueden prevenir la congestión. Política de retransmisión La retransmisión en algunas ocasiones es inevitable. Si el emisor cree que un paquete enviado se ha perdido o se ha dañado, el paquete necesita ser retransmitido. La retransmisión en general, puede incrementar la congestión en la red. Sin embargo, una buena política de retransmisión puede prevenir la congestión. La política de retransmisión y los temporizadores de retransmisión se deben diseñar para optimizar la eficiencia y al mismo tiempo prevenir la congestión. Por ejemplo, la política de retransmisión utilizada por TCP (explicada más tarde) se ha diseñado para prevenir o aliviar la congestión. Política de la ventana El tipo de ventana en el emisor puede también afectar a la congestión. La ventana de repetición selectiva es mejor que la ventana. Adelante atrás N para el control de la congestión. En la ventana Adelante atrás N, cuando vence el temporizador para un paquete, se pueden reenviar varios paquetes, aunque algunos de ellos ya hayan llegado al receptor. Esta duplicación puede empeorar la congestión. La ventana de repetición selectiva, por otro lado, intenta evitar los paquetes concretos que se han perdido o dañado. Política de confirmación La política de confirmación impuesta por el receptor puede también afectar a la congestión. Si el receptor no confirma cada paquete que recibe, puede ralentizar al emisor y ayudar a prevenir la congestión. Se han utilizado varios enfoques en este caso. Un receptor puede enviar una confirmación sólo si tiene un paquete para enviar o vence un temporizador especial. Un receptor puede decidir confirmar sólo N paquetes cada vez. Se necesita conocer que las confirmaciones son también parte de la carga de la red. Enviar menos confirmaciones reduce la carga en la red. Política de descarte Una buena política de descarte en los routers pueden prevenir la congestión y al mismo tiempo puede no dañar la integridad dela transmisión. Por ejemplo, en la transmisión de audio, si la política es descartar los paquetes menos sensibles cuando es probable que

55 ocurra la congestión, la calidad del sonido aún se mantiene y la congestión se previene o alivia. Política de admisión Una política de admisión, que es un mecanismo de calidad de servicio, puede también prevenir la congestión en redes de circuitos virtuales. Los conmutadores en un flujo pueden comprobar primero los requisitos de recursos del flujo antes de admitirlo en la red. Un router puede denegar el establecimiento de la conexión de un circuito virtual si hay congestión en la red o si existe la posibilidad de congestión en un futuro. CONTROL DE CONGESTIÓN DE BUCLE CERRADO El mecanismo de control de congestión de bucle cerrado intenta aliviar la congestión una vez que ésta ha ocurrido. Se han utilizado varios mecanismos en diferentes protocolos. A continuación se describen algunos de ellos. Presión hacia atrás La técnica de presión hacia atrás se refiere a un mecanismo de control de congestión en el que un nodo congestionado detiene la recepción de datos de un nodo o de los nodos inmediatos en el flujo ascendente. Esto puede causar que el nodo o nodos situados en el flujo ascendente se congestionen y a su vez, rechacen datos de su nodo o nodos situados en el flujo ascendente, y así sucesivamente. La presión hacia atrás es un mecanismo de control de congestión nodo a nodo que comienza con un nodo y se propaga en el sentido opuesto del flujo de datos, hacia el origen. La técnica de la presión hacia atrás se puede aplicar sólo a redes basadas en circuitos virtuales, en las que cada nodo conoce al nodo situado en el flujo ascendente por el que llega el flujo de datos. La figura muestra la idea de la presión hacia atrás. El nodo III de la figura tiene más datos de entrada de los que puede manejar. Descarta algunos paquetes de su búfer de entrada e informa al nodo II para que ralentice el envío. El nodo II, a su vez, puede estar congestionado debido a la ralentización en la salida de flujo de datos. Si el nodo II se congestiona, informa al nodo I para que ralentice el envío, el cual a su vez puede congestionarse. Si es así, el nodo I informa al emisor de los datos para que ralentice el envío. Esto alivia la congestión. Observe que la presión en el nodo III se mueve hacia atrás, hasta el origen para eliminar la congestión. Ninguna de las redes basadas en circuitos virtuales que se han estudiado en este libro utiliza esta técnica. Fue, sin embargo, implementada en la primera red basada en circuitos virtuales, X25. Esta técnica no se puede implementar en una red basada en datagrama, debido a que este tipo de redes, un nodo (router) no tiene conocimiento del router situado en el flujo ascendente. Paquete de contención

56 Un paquete de contención es un paquete enviado por un nodo al origen para informarle de la congestión. Observe la diferencia entre esta técnica y la anterior. En la presión hacia atrás, la técnica se aplica de nodo a nodo, aunque eventualmente puede alcanzar a la estación origen. En este método, la advertencia se realiza directamente desde el router, que se encuentra congestionado, a la estación origen. Se ha visto un ejemplo de este tipo de control en el protocolo ICMP. Cuando un router en Internet se congestiona con diagramas IP, puede descartar algunos; pero informa al origen, utilizando un mensaje ICMP de tipo source quench. El mensaje de advertencia va directamente ala estación origen; los routers intermedios no realizan ninguna acción. La figura muestra la idea del paquete de contención. Señalización implícita En la señalización implícita, no hay comunicación entre el nodo o nodos congestionados y el origen. El origen adivina que hay congestión en algún punto de la red a través de otros síntomas. Por ejemplo, cuando un origen envía paquetes y no hay confirmación durante un cierto tiempo, puede asumir que la red está congestionada. El retardo en la recepción de los mensajes de confirmación se puede interpretar como congestión en la red; el origen podría ralentizarse. Se verá este tipo de señalización cuando se describa el control de congestión de TCP más tarde en el capítulo. Señalización explícita El nodo que experimenta la congestión puede explícitamente enviar una señal al origen o al destino. El método de señalización explícita, sin embargo, es diferente del método que utiliza el paquete de contención. En el método del paquete de contención, se utiliza un paquete diferente para este objetivo. En el método de señalización explícita, la señal se incluye en los paquetes que transportan datos. La señalización explícita, como se verá en el control de congestión de Frame Relay, puede ocurrir hacia delante o hacia atrás. Señalización hacia atrás Se puede activar un bit en un paquete que se mueve en el sentido contrario a la congestión. Este bit puede advertir al emisor que hay congestión y que necesita ralentizar su envío para evitar el descarte de paquetes. Señalización hacia delante Se puede activar un bit en un paquete que va en la dirección dela congestión. Este bit puede advertir al destino de que hay congestión. El receptor en este caso puede utilizar políticas, como ralentizar las confirmaciones, para aliviar la congestión. Lección 4: CONTROL DE CONGESTIÓN EN TCP

57 Ahora veremos el control de congestión que utiliza TCP para evitar o aliviar la congestión de la red. Ventana de congestión Anteriormente se habló sobre el control de flujo y se intentaron describir soluciones a emplear cuando el receptor se sobrecarga con datos. Se dijo que el tamaño de la ventana del emisor viene determinada por el espacio disponible en el búfer del receptor (rwnd). En otras palabras, se asume que sólo el receptor puede dictar al emisor el tamaño de la ventana del emisor. Se ignoró a otra entidad la red. Si la red no puede entregar los datos tan rápidamente como son originados por el emisor, debe decir al emisor que se ralentice. En otras palabras, además del receptor, la red es una segunda entidad que determina el tamaño de la ventana del emisor. Hoy en día, el tamaño de la ventana del emisor viene determinada sólo por el receptor pero también por la congestión de la red. El emisor tiene dos elementos de información: el tamaño de la ventana anunciado por el receptor y el tamaño de la ventana de congestión (cwnd). El tamaño real de la ventana es el mínimo de estos dos valores: Tamaño real de la ventana = mínimo (rwnd, cwnd) Se va a mostrar brevemente como se determina el tamaño de la ventana de congestión. Política de congestión La política general de TCP para tratar la congestión se basa en tres fases: comenzar lento, evitación de la congestión y detección de la congestión. En la fase de comienzo lento, el emisor comienza con una tasa de transmisión muy baja, pero la incrementa rápidamente hasta alcanzar un umbral. Cuando se alcanza el umbral, la tasa de datos se reduce para evitar la congestión. Finalmente si se detecta congestión, el emisor vuelve a tras a la fase de comienzo lento o a la fase de evitación de la congestión dependiendo de cómo se detecte la congestión. Comienzo lento: incremento exponencial Uno delos algoritmos utilizados por TCP en el control de congestión es el denominado comienzo = 2comienza con un tamaño de segmento máximo (MSS). El tamaño MSS se determina en la fase de establecimiento de la conexión utilizando una opción del mismo nombre. El tamaño de la ventana se incrementa en un MSS cada vez que se recibe una confirmación. Como su nombre implica, la ventana comienza lentamente, pero crece exponencialmente. Para mostrar la idea, observe la Figura 8. Observe que se han utilizado tres simplificaciones para que el ejemplo sea más sencillo. Se han utilizado números de segmentos en lugar de números de bytes. Se ha asumido que el valor rwnd es mucho más grande que el valor de cwnd, de forma que el tamaño de la ventana del emisor siempre iguale a cwnd. Se ha asumido que cada segmento se confirma de forma individual. El emisor comienza con un valor para cwnd = 1 MSS. Esto significa que el emisor puede enviar sólo un segmento. Después de recibir la confirmación para el segmento 1, el tamaño de la ventana de congestión se incrementa en 1, lo que significa que el valor de

58 cwnd ahora es 2. Ahora se pueden enviar dos segmentos. Cuando se recibe la confirmación, el tamaño de la ventana se incrementa en 1 MSS. Cuando se han confirmado todos los segmentos el valor de cwnd es 8. Si se ve el tamaño de cwnd en términos de rondas (confirmación de todos los segmentos de una ventana), se encuentra que la tasa es exponencial como se indica a continuación: Comienzo cwnd = 1 Después de la ronda 1 cwnd = 2 1 = 2 Después de la ronda 2 cwnd = 2 2 = 4 Después de la ronda 3 cwnd = 2 3 = 8 Es necesario mencionar que si hay un ACK retrasado, el incremento en el tamaño de la ventana es menor que la potencia de 2. El comienzo lento no puede continuar indefinidamente. Debe haber un umbral para parar esta fase. El emisor mantiene la pista de una variable denominada sstresh (umbral de comienzo lento). Cuando el tamaño de la ventana en bytes alcanza este umbral, el comienzo lento para y se pasa a la siguiente fase. En la mayoría de las implementaciones, el valor de sstresh es bytes. En el algoritmo de comienzo lento, el tamaño de la ventana de congestión se incrementa exponencialmente hasta que alcanza un umbral. Evitación de la congestión: incremento aditivo Si se comienza con el algoritmo de comienzo lento, el tamaño de la ventana de congestión se incrementa exponencialmente. Para evitar la congestión antes de que ocurra, uno debe parar este crecimiento exponencial. TCP define otro algoritmo denominado evitación de la congestión, que lleva a cabo un incremento aditivo en lugar de uno exponencial. Cuando el tamaño de la ventana de congestión alcanza el umbral del comienzo lento, se para la fase de comienzo lento y se pasa a la fase aditiva. En este algoritmo, cada vez que la ventana completa es confirmada (una ronda), se incrementa el tamaño de la ventana en 1. Para mostrar la idea, se va a aplicar este algoritmo al mismo escenario anterior, aunque como se verá el algoritmo de evitación de la congestión normalmente comienza con un tamaño de la ventana mucho mayor que 1. La figura 9 muestra la idea. En ese caso, una vez que el emisor ha recibido las confirmaciones para un tamaño de ventana completo, el tamaño de la ventana se incrementa en 1 segmento. Si se observa el tamaño de cwnd en términos de rondas, se ve que la tasa es aditiva como se muestra a continuación:

59 Comienzo cwnd = 1 Después de la ronda 1 cwnd = = 2 Después de la ronda 2 cwnd = = 3 Después de la ronda 3 cwnd = = 4 En el algoritmo de evitación de la congestión, el tamaño de la ventana de congestión se incrementa aditivamente hasta que se detecta la congestión. Detección de la congestión: reducción multiplicativa Si ocurre congestión, el tamaño de la ventana de congestión debe reducirse. La única forma que tiene el emisor para adivinar que ha ocurrido congestión es la necesidad de retransmitir un segmento. Sin embargo, la retransmisión puede ocurrir en dos casos: cuando vence un temporizador o cuando se han recibido tres mensajes ACK. En ambos casos, el tamaño del umbral se reduce a la mitad, una reducción multiplicativa. La mayor parte de las implementaciones de TCP tiene dos reacciones: 1. Si vence un temporizador, hay una alta probabilidad de congestión; un segmento probablemente ha sido descartado en la red y no hay noticias sobre los segmentos enviados. En este caso, TCP reacciona de una forma agresiva: a. Fija el valor del umbral a la mitad del tamaño actual. b. Fija el valor de cwnd al tamaño del segmento. c. Comienza de nuevo con la fase de comienzo lento. 1. Si se han recibido tres ACK hay una probabilidad baja de que haya una congestión; se puede haber perdido un segmento, pero algunos segmentos ya han llegado puesto que se han recibido tres ACK. Esto se conoce como transmisión rápida y recuperación rápida. En este caso, TCP tiene una reacción menos agresiva: a. Fija el valor del umbral a la mitad del tamaño de la ventana actual. b. Fija el valor de cwnd al valor del umbral (algunas implementaciones suman tres segmentos al umbral). c. Comienza con la fase de evitación de la congestión. Una implementación reacciona a la detección de la congestión con uno de los siguientes modos: Si la detección se debe al vencimiento de un temporizador, comienza de nuevo la fase de comienzo lento. Si la detección se debe a tres ACK, comienza una nueva fase de evitación de la congestión. Lección 5: CONTROL DE CONGESTIÓN EN FRAME RELAY La congestión en una red Frame Relay reduce la productividad e incrementa el retardo. Una alta productividad y un bajo retardo son los principales objetivos del protocolo

60 Frame Relay. Frame Relay no tiene control de flujo. Además, Frame Relay permite al usuario transmitir datos a ráfagas. Esto significa que una red Frame Relay tiene una posibilidad real de congestionarse, por lo que requiere control de congestión. Evitación de la congestión Para evitar la congestión, Frame Relay utiliza dos bits de la trama para avisar de forma explícita al origen y al destino de la presencia de congestión. Notificación de congestión explícita hacia atrás (BECN) El bit de notificación de congestión explícita hacia atrás (BECN) avisa al emisor de que existe una situación de congestión en la red. La pregunta inmediata es cómo se puede hacer esto si las tramas parten del emisor. Existen dos métodos: el conmutador puede utilizar las tramas de respuesta del receptor (modo full-dúplex) o sino, el conmutador puede utilizar una conexión predefinida (DLCI=1023) para enviar tramas especiales para este propósito específico. El emisor puede responder a este aviso simplemente reduciendo la velocidad de transmisión. La figura muestra el empleo del BECN. Notificación de congestión explícita hacia adelante (FECN) El bit de notificación de congestión explícita hacia adelante (FECN) se utiliza para avisar al receptor de que existe congestión en la red. Podría parecer que el receptor no puede hacer nada para aliviar la congestión. Sin embargo, el protocolo Frame Relay asume que el emisor y el receptor se están comunicando utilizando algún tipo de control de flujo en un nivel superior. Por ejemplo, si existe un mecanismo de confirmación en este nivel superior, el receptor puede retrasar la confirmación, forzando de esta forma al emisor a ralentizarse. La figura muestra el uso de FECN. Cuando dos puntos finales están comunicándose utilizando una red Frame Relay, existen cuatro situaciones relacionadas con la congestión. La figura muestra estas cuatro situaciones y los valores de FECN y BECN.

61

62 CAPITULO 5: CALIDAD DE SERVICIO Introducción La calidad de servicio (QoS) es un aspecto de l as redes que s e ha tratado más que definido. Se puede definir informalmente la calidad de servicio como algo que un flujo busca alcanzar. Tradicionalmente, se han atribuido cuatro características a un flujo: fiabilidad, retardo, deriva o Jitter y ancho de banda. Fiabilidad La fiabilidad es una característica que necesita un flujo. La falta de fiabilidad significa PERDER UN paquete o una confirmación, lo que provoca la retransmisión. Sin embargo, la sensibilidad de los programas de aplicación a la fiabilidad no es la misma. Por ejemplo, es más importante que el correo electrónico, la transferencia de archivos y el acceso a Internet sean más fiables que la telefonía. Retardo El retardo de fuente a destino es otra característica de un flujo. De nuevo las aplicaciones pueden tolerar el retardo en diferente grado. En este caso, la telefonía, la videoconferencia y el inicio de sesión remoto necesitan un mínimo retardo, mientras que en la transferencia de un archivo o el correo electrónico es menos importante. Deriva o jitter La deriva en la variación de retardo que sufren los paquetes que pertenecer a un mismo flujo. Por ejemplo, si cuatro paquetes salen en los instantes 0, 1,2 y 3 y llegan en los instantes 20, 21, 22 y 23, todos tienen el mismo retardo, 20 unidades de tiempo. Por otro lado, si los paquetes anteriores llegan en los instantes 21, 23, 21 y 28, todos tienen retardos diferentes de 21, 22, 19 y 24. Para aplicaciones como el audio o el sonido, el primer caso es completamente aceptable; el segundo no. Para estas aplicaciones, no importa si los paquetes llegan con un retardo pequeño o grande, siempre que el retado sea el mismo para todos los paquetes. La deriva se define como la variación en el retardo de un paquete. Una deriva alta significa que la diferencia entre los retardos de grandes; una deriva baja significa que la variación es pequeña. Ancho de banda Diferentes aplicaciones necesitan diferentes anchos de banda. En la transmisión de vídeo se necesita enviar millones de bits por segundo para representar una pantalla de color mientras que el número total de bits en un correo electrónico pueden no llegar al millón. Clase de flujos

63 De acuerdo a las características de un flujo, se pueden clasificar los flujos en grupos, teniendo cada grupo niveles de características similares. Esta clasificación no es formal o universal, algunos protocolos como ATM han definido clases, como se verá más tarde. Lección 1: TÉCNICAS PARA MEJORAR LA CALIDAD DE SERVICIO En esta sección, se describe algunas técnicas que se pueden utilizar para mejorar la calidad de servicio. Se van para describir brevemente cuatro métodos comunes: la planificación, el ajuste de tráfico, el control de admisión y la reserva de recursos. PLANIFICACIÓN Los paquetes de diferentes flujos llegan a un conmutador o router para su procesamiento. Una buena técnica de planificación trata los flujos diferentes de manera apropiada. Se han enseñado varias técnicas de planificación para mejorar la calidad de servicio. Se van a describir tres de ellas: la planificación FIFO, la planificación basada en prioridades y la planificación con pesos. Planificación FIFO En la planificación FIFO (first-in-first-out), los paquete esperan en un búfer (cola) hasta que el (router o conmutador) está listo para procesarlos. Si la tasa de llegada es mayor que la tasa de procesamiento media, la cola se llenaran y los nuevos paquetes serán descartados. Una planificación FIFO es familiar para aquellos que tienen que esperar en una parada de autobús. La figura siguiente muestra una visión conceptual de la planificación FIFO. Planificación basada en prioridades En la planificación basada en prioridades, los paquetes tienen asignada un nivel de prioridad. Cada nivel de prioridad tiene su propia cola. Los paquetes de la cola de mayor prioridad se procesan primero. Los paquetes de la cola de menor prioridad se procesan los últimos. Observe que el sistema no para de servir una cola, hasta que esta no esté vacía. La figura siguiente muestra una planificación que utiliza dos niveles de prioridad (por simplicidad. Una planificación basada en prioridades puede mejorar los QoS mejor que la planificación FIFO debido a que el tráfico con mayor prioridad, como el multimedia puede alcanzar el destino con menos retardo. Sin embargo, hay un posible problema. Si hay un flujo continuo, con una prioridad muy alta, los paquetes con prioridades más bajas nunca tendrán la oportunidad de ser procesados. Esta es una condición denominada inanición.

64 Planificación con pesos Una técnica mejor de planificación es la planificación con pesos. En esta técnica, los paquetes tienen asignadas clases diferentes y se admiten en colas distintas. Las colas, sin embargo, llevan asignadas unos pesos de acuerdo al nivel de prioridad de las colas. Las colas de mayor prioridad tienen pesos mayores. El sistema procesa los paquetes en cada cola de manera cíclica con el número de paquetes seleccionado para cada cola de acuerdo al peso correspondiente. Por ejemplo, si los pesos son 3, 2, 1, se procesarán tres paquetes en la primera cola, dos en la segunda y uno en la tercera. Si el sistema no impone prioridades a las clases, todos los presos todos los pesos son iguales. La figura siguiente muestra la técnica con tres clases. AJUSTE DE TRÁFICO El ajuste de tráfico es un mecanismo para controlar la cantidad y tasa de tráfico enviado a la red. Existen dos técnicas de ajuste de tráfico: algoritmo del cubo de escape y algoritmo del cubo con testigo. Algoritmo del cubo con escape Si un cubo tiene un pequeño agujero su parte inferior, el agua deja el cubo a una velocidad constante mientras haya agua en el cubo. La velocidad con la que el agua deja el cubo no depende de la velocidad con la que el agua se introduce en él. La

65 velocidad de entrada puede variar, pero la velocidad de salida permanece constante. De forma similar, en una red, una técnica denominada cubo con escape, puede suavizar la salida de tráfico a ráfagas. Los bloques a ráfagas se almacenan en un cubo y se envían a una tasa media. La figura siguiente muestra un cubo con escape y sus efectos. La figura, se asume que la red ha comprometido un ancho de banda de 3 Mbps para una estación. El uso de un cubo con escape ajusta el tráfico de entrada para que se cumpla este compromiso. En la figura siguiente la estación envía una ráfaga de datos a una tasa de 12 Mbps durante 2 s, con un total de 24 Mbits. La estación está en silencio durante 5 s y envía datos a una taza de 2 Mbps durante 3 s, con un total de 6 Mbits de datos. En total, la estación enviado 30 Mbps de datos en 10 s. Sin un cubo con escape, la ráfaga inicial puede afectar a la red y consumir más ancho de banda del que está fijado para esta estación. Se puede también ver que el cubo con escape previene la congestión. La figura siguiente muestra una sencilla implementación de un cubo con escape. Una cola FIFO almacena los paquetes. Si el tráfico consta de paquetes de tamaño fijo (por ejemplo celdas de una red ATM), el proceso elimina un número fijo de paquetes de la cola en cada pulso de reloj. Si el tráfico consta de paquetes de longitud variable, la tasa de salida fija debe basarse en el número de bits o bytes.

66 A continuación se muestra un algoritmo para paquetes de longitud variable: 1. Inicializar un contador a n en cada pulso de reloj. 2. Si n es mayor que el tamaño del paquete, enviar el paquete y restar al contador el tamaño del paquete. Repetir esta etapa hasta que n sea más pequeño que el tamaño del paquete. 3. Poner el contador a cero y volver al paso 1. Un algoritmo de cubo con escape ajusta el tráfico de ráfagas en un tráfico con tasa fija promediando la tasa de datos. Puede perder paquetes si el cubo está lleno. Cubo de testigos El cubo con escape es muy restrictivo. No da crédito a una estación inactiva. Por ejemplo, si una estación no envía datos durante un cierto tiempo, su cubo está vacío. Ahora sí la estación tiene datos a ráfagas, el cubo con escape sólo permite una tasa media. El tiempo en el que la estación está inactiva no se tiene en cuenta. Por otro lado, cubo de testigos, permite a la estación inactivas acumular crédito para que el futuro en forma de testigos. En cada pulso de reloj, el sistema envía n testigos al cubo. El sistema elimina un testigo para cada celda (o byte) de datos enviados. Por ejemplo, si n es 100 y la estación está inactiva durante 100 pulsos de reloj, el cubo tendrá testigos. Ahora la estación puede consumir todos estos testigos en un pulso de reloj con celdas o la estación tarda 1000 pulsos con 10 celdas por pulsos. En otras palabras, la estación puede enviar datos a ráfagas siempre que el cubo no esté vacío. En la figura siguiente se muestra la idea. El cubo de testigos se puede implementar de forma sencilla con un contador. El testigo se inicializa a cero. Cada vez que se añade un testigo se incremente el contador en uno. Cada vez que se envía una unidad de datos, al contador se le resta 1. Cuando el contador se hace cero, la estación no puede enviar datos.

67 El cubo de testigos permite tráfico a ráfagas a una tasa máxima regulada Combinación del cubo de testigos y del cubo con escape Las dos técnicas anteriores se pueden combinar para dar crédito a una estación inactiva al mismo tiempo que se regula el tráfico. El cubo con escape se aplica después de cubo de testigos; la tasa del cubo con escape necesita ser mayor que la tasa de testigos descartados en el cubo de testigos. RESERVA DE RECURSOS Un flujo de datos necesita recursos como un búfer, ancho de banda, tiempo de CPU, etc. La calidad del servicio se mejora si estos recursos están reservados por adelantado. En esta sección se describe un modelo de calidad de servicio denominado servicios integrados, que depende de la reserva de recursos para mejorar la calidad del servicio. CONTROL DE ADMISIÓN El control de admisión se refiere al mecanismo utilizado por un router, o un conmutador para aceptar o rechazar un flujo de acuerdo a los parámetros predefinidos denominados especificaciones del flujo. Antes de que un router acepte un flujo para su procesamiento, comprueba las especificaciones del flujo para ver si su capacidad (en términos de ancho de banda, tamaño de búfer, velocidad de la CPU, etc.) y sus compromisos anteriores para otro flujos pueden tratar el nuevo flujo. Lección 2: SERVICIOS INTEGRADOS De acuerdo a los temas tratados se han diseñado dos modelos para mejorar la calidad de servicio de Internet: los servicios integrados y los servicios diferenciados. Ambos modelos enfatizan el uso de la calidad de servicio en el nivel de red (IP), aunque el

68 modelo también se puede utilizar en otros niveles de enlace de datos. En esta sección se tratan los servicios integrados y en la sección siguiente se describen los servicios diferenciados. IP fue originalmente diseñado con una entrega lo mejor posible. Esto significa que cada usuario recibe al mismo nivel de servicio. Este tipo de entrega no garantiza el mínimo de servicios, como ancho de banda, a las aplicaciones que transmite audio o vídeo en tiempo real. Si una aplicación que necesita de forma accidental un ancho de banda extra, puede ir en detrimento de otras aplicaciones, dando lugar a situaciones de congestión. Los servicios integrados, conocidas también como IntServ, constituyen un modelo de QoS basada en flujo, lo que significa que un usuario necesita crear un flujo, un tipo de circuito virtual, desde el origen hasta el destino e informar a todos los routers de sus requisitos de recursos. Los servicios integrados constituyen un modelo de QoS basada en flujo diseñado para IP. SEÑALIZACIÓN El lector puede recordar que IP es un protocolo no orientado a conexión, basado en datagramas que utiliza conmutación de paquetes. Cómo se puede implementar un modelo basado en flujo sobre un protocolo no orientado a conexión? La solución es un protocolo de señalización que ejecuta sobre IP que at ofrece el mecanismo de señalización por hacer la reserva. Este protocolo se denomina Protocolo de reservas de recursos (RVSP) y se describirá en breve. ESPECIFICACIÓN DEL FLUJO Cuando un origen hace una reserva, necesita definir una especificación de flujo. Una especificación de flujo tiene dos partes: Rspec (especificación del recurso) y Tspec (especificación de tráfico). Rspec define los recursos que necesita reservar el flujo (búfer, ancho de banda, etc.) Tspec define las características del tráfico del flujo. ADMISIÓN Cuando un router recibe la especificación del flujo de una aplicación, decide admitir o denegar el servicio. La decisión se basa en los compromisos previos del router y la disponibilidad actual de recursos. CLASES DE SERVICIOS Se han definido dos clases de servicios para los servicios integrados: servicios garantizados y servicios controlados por la carga. Clase de servicios garantizados Este tipo de servicio está diseñado para tráfico de tiempo real que necesita un retardo extremo a extremo mínimo garantizado. El retardo extremo a extremo es la suma de los

69 retardos de todos los routers, retardo de propagación en el medio y el mecanismo de configuración. Sólo el primero, las sumas de los retardos en los routers, puede ser garantizado por el router. Este tipo de servicio garantiza que los paquetes llegarán dentro de un cierto tiempo y que no serán descartados si el tráfico del flujo se encuentra dentro del límite de Tspec. Se puede decir que los servicios garantizados son servicios cuantitativos, en los que la cantidad de retardo extremo a extremo y la tasa de datos deben ser definidas por la aplicación. Clase de servicio controlado por la carga Este tipo de servicio está diseñado para aplicaciones que pueden aceptar algunos retardos, pero que son sensibles a la sobrecarga de la red y al peligro por la pérdida de paquetes. Buenos ejemplos de este tipo de aplicaciones son la transferencia de archivos, el correo electrónico y el acceso a Internet. El servicio controlado por la carga es un servicio lo cualitativo en que la aplicación solicitar la posibilidad de bajar pérdida o no pérdida de paquetes. RVSP En el modelo de servicios integrados, un programa de aplicación necesita una reserva de recursos. Como se vio en la descripción del modelo IntServ, la reserva de recursos se realizada para un flujo. Esto significa que si se quiere utilizar el modelo IntServ en el nivel IP, se necesita crear un flujo, un tipo de red basada en circuitos virtuales, fuera del nivel IP, que fue originalmente diseñado como una red de conmutación de paquetes basada en datagramas. Una red basada en circuitos virtuales necesita un sistema de señalización para configurar el circuito virtual antes de que el tráfico de datos pueda comenzar. El protocolo de reserva de recursos (RSVP) es un protocolo de señalización que ayudar protocolo IP a crear un flujo y consecuentemente a hacer una reserva de recursos. Antes de describir el protocolo RVSP, es necesario mencionar que es un protocolo independiente y separado del modelo de servicios integrados. Se puede utilizar en otros modelos en el futuro. Árboles de multienvío RVSP es diferente de otros sistemas de señalización que se han visto antes en que es un sistema de señalización diseñado para multienvío. Sin embargo, el protocolo RVSP también se puede utilizar para envío unidestino debido a que éste es un caso especial de multienvío con sólo un miembro en el grupo de multienvío. La razón de este diseño permitir al protocolo RVSP ofrecer una reserva de recursos para todo tipo de tráfico de incluyendo multimedia que con frecuencia utiliza multienvío. Reserva basada en el receptor En el protocolo RVSP, los receptores, no el emisor, hacen la reserva. Esta estrategia coincide con otros protocolos de multienvío. Por ejemplo, en uno de los protocolos de encaminamiento de multienvío, los receptores, no el emisor, hacen la decisión de unirse o dejar el grupo de multienvío. Mensajes del protocolo RVSP RVSP tiene varios días tipos de mensajes. Sin embargo, se va a escribir sólo dos de ellos: Path y Resv.

70 Mensajes path. Recuerde que los receptores en un flujo hacen la reserva en el protocolo RVSP. Sin embargo, los receptores no saben el camino atravesado por los paquetes antes de que se haga la reserva. Es necesario el camino para hacer la reserva. Para solucionar este problema, el protocolo RVSP utiliza mensajes path. Un mensaje path viaja desde el emisor y alcanza a todos los receptores en el camino multienvío. Un mensaje path, almacena la información necesaria para los receptores. Un mensaje path se envía en un entorno de envío multidestino; un nuevo mensaje se crea cuando el camino diverge. La figura siguiente muestra mensajes de tipo path. Mensajes resv. Una vez que el receptor ha recibido un mensaje path, envía un mensaje resv. El mensaje Resv viaja hacia el emisor (en el flujo ascendente) y hace la reserva de recursos en los routers que soportan RVSP. Si un router en el camino no soporta RVSP encamina el paquete de acuerdo a los métodos de mejor entrega posible. La figura siguiente muestra los mensajes resv. Mezcla de reservas En el protocolo RVSP, los recursos no se reservan para cada receptor en un flujo; las reservas se mezclan. En la figura siguiente, Rc3 solicita un ancho de banda de 2 Mbps mientras que Rc2 solicita un ancho de banda de 1 Mbps. El router R3, necesita hacer una reserva de ancho de banda, mezcla las dos solicitudes. La reserva se hace para 2 Mbps, mayor de los dos, debido a que una reserva de 2 Mbps puede tratar ambas solicitudes. La misma situación es cierta para R2. El lector puede preguntarse por qué Rc2 y Rc3, ambos pertenecientes a un mismo flujo, los visitan diferentes cantidades de ancho de banda. La respuesta de que, en un entorno multimedia, diferentes receptores pueden tratar diferentes grados de calidad. Por ejemplo, Rc2 puede ser capaz de recibir vídeo sólo a 1 Mbps (baja calidad) mientras que Rc3 puede ser capaz de recibir vídeo a 2 Mbps (mayor calidad).

71 Estilos de reserva Cuando hay más de un flujo, el router necesita hacer la reserva para acomodar todos ellos. El protocolo RVSP define tres tipos de estilos de reserva. 1. Estilo de filtro will card. En este estilo, el router crea una única reserva para todos los emisores. La reserva se basa en la petición mayor. Este tipo de estilo que se utiliza cuando los flujos de diferentes emisores no ocurren al mismo tiempo. 2. Estilo de filtro fijo. En este estilo, el router crea una reserva distinta para cada flujo. Esto significa que si hay n flujos, se hace n diferentes reservas. Este tipo de estilo se utiliza cuando hay una alta probabilidad de que los flujos de diferentes emisores no ocurran al mismo tiempo. 3. Estilo explícito compartido. En este estilo, el router crea una única reserva que es compartida por todos los flujos. Estado de tipo soft La información de reserva (estado) almacenada en cada nodo para un flujo necesita ser refrescada periódicamente. Esto se conoce como un estado de tipo soft comparado con un estado de tipo hard utilizado en otros protocolos basados en circuitos virtuales como ATM o Frame Relay, donde la información sobre el flujo se mantiene hasta que se borra. El intervalo por defecto es actualmente de 30 s. PROBLEMAS CON LOS SERVICIOS INTEGRADOS Hay al menos dos problemas con los servicios Integrados que pueden evitar su completa implementación en Internet: la escalabilidad y la limitación del tipo de servicio. Escalabilidad El modelo de servicios integrados requiere que cada router mantenga información para cada flujo. Como Internet está creciendo día a día, esto es un serio problema. Limitación del tipo de servicio El modelo de servicios integrados proporciona sólo dos tipos de servicios, garantizado y controlado por la carga. Aquellos que se oponen a este modelo argumentan que las aplicaciones pueden necesitar más de estos dos tipos de servicios.

72 Lección 3: SERVICIOS DIFERENCIADOS Los servicios diferenciados (DS o DiffServ) fueron introducidos por el IETF (Internet Engering Task Force) para solucionar los problemas de los servicios integrados. Se hicieron dos cambios fundamentales: 1. El principal procesamiento fue movido del núcleo de la red al extremo de la red. Esto soluciona el problema de escalabilidad. Los encaminadores no tienen que almacenar la información sobre los flujos. Las aplicaciones, o estaciones, definen el tipo de servicio que ellos necesitan cada vez que envía un paquete. 2. El servicio por flujo se ha cambiado a un servicio por clase. El encaminador encamina el paquete de acuerdo a la clase de servicio definido en el paquete, no en el flujo. Esto soluciona el problema de limitación del tipo de servicio. Se pueden definir diferentes tipos de clases de acuerdo a las necesidades de las aplicaciones. Los servicios diferenciados un modelo QoS basada en clases diseñada para IP. CAMPO DS En DifServ, cada paquete contiene un campo denominado campo DS. El valor de este campo es fijado en los extremos de la red por las estaciones o por el primer encaminador designado como encaminador frontera. El IETF propone sustituir el campo TOS (tipo de servicio) existente en IPv4 o el campo de clase IPv6 por el campo DS, como se muestra en la figura siguiente. El campo DS contiene dos subcampos: DSCP y CU. El campo de DSCP (punto de código de servicios diferenciados) es un subcampo de 6 bits que define el funcionamiento por salto (PHB). El campo CU en un campo de 2 bits que no se utiliza actualmente. Funcionamiento por salto El modelo DifServ define funcionamientos por salto (PHB) para cada nodo que recibe un paquete. Hasta ahora se han definido tres PDH: DE PHB, EF PHB y AF PHB. DE PHB. Este funcionamiento (PHB por defecto) es el mismo que la entrega mejor posible, que es compatible con el campo TOS. EF PHB. Este funcionamiento (PHB de reenvío rápido) ofrece los siguientes servicios: Pérdida baja. Latencia baja. Ancho de banda asegurado. Esto es lo mismo que tener una conexión virtual entre el origen y el destino.

73 AF PHB. Este funcionamiento (PHB de reenvío asegurado) entrega el paquete con una alta seguridad siempre que el tráfico no exceda el perfil de tráfico del nodo. Los usuarios de la red necesitan ser conscientes de que algunos paquetes pueden ser descartados. Acondicionador de tráfico Para implementar DifServ, el nodo DS utiliza acondicionadores de tráfico como contadores, marcadores, adaptadores y descartadores, como se muestra en la figura siguiente. Contador. El contador comprueba si el flujo de entrada coincide con el perfil de tráfico negociado. El contador también envía este resultado a otros componentes. El contador puede utilizar varias herramientas como un cubo de testigos para comprobar el perfil. Marcador. Un marcador puede remarcar un paquete si está utilizando la entrega mejor posible (DSCP: ) o marcar por debajo un paquete de acuerdo a la información recibida por el contador. El marcado por debajo (marca a un nivel de servicio más bajo) ocurre si el flujo no coincide con el perfil. Un marcador no hace un marcado hacia arriba (eleva el nivel de servicio) de un paquete. Adaptador. Un adaptador utiliza la información recibida del contador para adaptar o ajustar el tráfico si no cumple con el perfil negociado. Descartador. Un descartador, que funciona como un adaptador sin búfer, descarta los paquetes si el flujo viola de forma severa el perfil negociado. Lección 4: QoS EN FRAME RELAY Se utilizan cuatro atributos diferentes para controlar el tráfico en Frame Relay: tasa de acceso, tamaño de la ráfaga comprometido Bc, tasa de información comprometida y tamaño de la ráfaga en exceso. Estos atributos se fijan durante la negociación entre el usuario y la red. Para conexiones PVC, se negocian sólo una vez; para conexiones SVC se negocian en cada conexión durante la fase de establecimiento de la conexión. La figura siguiente muestra las relaciones entre estas cuatro medidas.

74 Velocidad de acceso Para cada conexión se define una velocidad de acceso (en bits/segundo). La velocidad de acceso realmente depende del ancho de banda del canal que conecta al usuario con la red. El usuario no puede nunca exceder esta velocidad. Por ejemplo, si el usuario se conecta a una red Frame Relay mediante una línea T-1, la velocidad de acceso es de 1,544 Mbps y ésta no se puede sobrepasar. Tamaño de la ráfaga comprometido Para cada conexión, Frame Relay define un tamaño de ráfaga comprometido (Bc). Este es el número máximo de Bits durante un periodo predefinido de tiempo que la red se compromete a transferir sin descartar ninguna trama o activar el bit DE. Por ejemplo si se compromete un valor para Bc de 400 kbits durante un periodo de cuatro segundos, el usuario puede enviar hasta 400 kbits durante un u intervalo de cuatro segundos sin preocuparse de que se pierdan tramas. Observe que no se trata de una velocidad definida para cada segundo. Es una medida acumulativa. El usuario puede enviar 300 kbits durante el primer segundo, ningún dato durante los dos siguientes segundos y finalmente 100 kbits durante el cuarto segundo. Velocidad de información comprometida La velocidad de información comprometida (CIR) es similar al concepto de tamaño de ráfaga comprometido excepto que define una velocidad media de bits por segundo. Si el usuario mantiene esta velocidad, la red se compromete entregar la trama. Sin embargo debido a que es una medida media, un usuario puede enviar en algunos instantes datos a una velocidad mayor al CIR. Siempre que se cumpla la media para el período pre definido, las tramas serán entregadas. El número acumulativo de bits enviados durante el periodo predefinido no debería exceder de Bc Observe que el CIR no es una medida independiente; se puede calcular utilizando la siguiente fórmula:

75 CIR =Bc/T bps Por ejemplo, si el Bc es de cinco kbits en un período de cinco segundos, el CIR es 5000/5 = 1kbps. Tamaño de la ráfaga en exceso Para cada conexión, Frame Relay define un tamaño de la ráfaga en exceso (Bc). Este valor es el número máximo de bits, que pueden exceder a Bc que un usuario puede enviar durante un periodo predefinido de tiempo. La red se compromete a transferir estos bits si no hay congestión. Observe que en este caso existe menos compromiso que en el caso de Bc. El compromiso de la red es condicional. Tasa del usuario La figura siguiente muestra cómo puede un usuario enviar datos a ráfagas. Si un usuario nunca excede Bc, la red se compromete a transferir las tramas sin descartarlas. Si el usuario excede el valor de Bc, en menos que Be (es decir, el número total de bits es menor que Bc + Be), la red se compromete a transferir todas las tramas si no hay congestión. Si existe congestión, algunas tramas serán descartadas. El primer conmutador que recibe las tramas del usuario tiene un contador y fija el bit DE para aquellas tramas que exceden el valor Bc. El resto de conmutadores descartarán esta trama si hay congestión. Observe que un usuario que necesita enviar datos más rápido puede exceder el nivel Bc. Siempre que el nivel no supere Bc + Be, existe la posibilidad de que las tramas alcancen el destino sin ser descartadas. Recuerde, sin embargo, que el momento en el que el usuario supere Bc + Be, todas las tramas enviadas después son descartadas por el primer conmutador. Lección 5: QoS EN ATM La QoS en ATM se basa en las clases, los atributos relacionados con el usuario y los atributos relacionados con la red.

76 Clases El foro ATM define cuatro clases de servicios: CBR, VBR, ABR y UBR. CBR. La clase de tasa de bits constante (CBR) se ha diseñado para los clientes que necesitan servicios de vídeo y audio de tiempo real. El servicio es similar al ofrecido por una línea dedicada como la línea T. VBR. La clase de tasa de bits variable (VBR) se divide en dos subclases: tiempo real (VBR- NRT). VBR-RT se diseñó para los usuarios que necesitan servicio de tiempo real (como transmisión de audio y vídeo) y utilizan técnicas de compresión para crear una tasa de bits variable. VBR-NRT se diseñó para aquellos usuarios que no necesitan servicios de tiempo real de utilizan técnica de compresión para crear una tasa de bits variable. ABR. La clase de tasa de bits disponible (ABR) entrega las celdas a la mínima tasa. Si hay más capacidad de red, la tasa mínima puede incrementarse. ABR es particularmente adecuado para aplicaciones que utilizan por su naturaleza ráfagas. UBR. La clase de tasa de bits no especificada (UBR) es un servicio de mejor entrega posible que no garantiza nada. La figura 31 muestra la relación entre las diferentes clases y la capacidad total de la red. ATRIBUTOS RELACIONADOS CON EL USUARIO ATM define dos conjuntos de atributos. Los atributos relacionados con el usuario son aquellos que definen la velocidad con la que el usuario quiere enviar los datos. Estos atributos se negocian cuando se realiza el contrato entre un usuario y una red. A continuación se describen algunos atributos relacionados con el usuario. SCR. La tasa de celdas sostenida (SCR) es la tasa de celdas media en un intervalo de tiempo largo. La tasa de celdas real puede ser mayor o menor, pero la media debería ser igual o menor que la SCR. PCR. La tasa de celdas pico (PCR) define la máxima tasa de celdas del emisor. La tasa de celdas del usuario puede en algunas ocasiones alcanzar este pico, mientras que se mantenga la SCR MCR. La tasa de celdas mínima (MCR) define la tasa de celdas mínima aceptable para el emisor. Por ejemplo, si la MCR , la red debe garantizar que el emisor puede enviar al menos celdas por segundo. CVDT. La tolerancia en el retardo a la variación de celdas (CVDT) es una medida de la variación en los instantes de transmisión de celdas. Por ejemplo, si la CVDT es de 5 ns, entonces la diferencia entre los retardos mínimos y máximos en la entrega de celdas no debería exceder los 5 ns.

77 ATRIBUTOS RELACIONADOS CON LA RED Los atributos relacionados con la red son los que definen las características de la red. A continuación se definen algunos de estos atributos: CLR. La tasa de celdas perdidas (CLR) define la fracción de celdas perdidas (o entregadas demasiado tarde y que se consideran pérdidas) durante la transmisión. Por ejemplo, si el emisor envía 100 celdas y una se pierde, la CLR es: CLR = 1/100 = 10-2 CTD. El retardo en la transferencia de celdas (CTD) es el tiempo medio necesario para que una celda viaje del origen al destino. También se consideran como atributos al CTD máximo y el CTD mínimo. CVD. La variación en el retardo de celdas (CVD) es la diferencia entre el CTD máximo y el CTD mínimo. CER. La tasa de celdas con error (CER) define la fracción de celdas entregadas con error.

78 CAPITULO 6: SOPORTE PARA CALIDAD DE SERVICIO (QoS) Introducción Internet y las intranets corporativas se enfrentan ahora a la necesidad de dar soporte para el tráfico multimedia y en tiempo real. Como respuestas a estas necesidades, están surgiendo dos cambios radicales en la arquitectura de las interredes: la Arquitectura de Servicios Integrados (ISA, Integrated Services Architecture) y los Servicios Diferenciados (DS, diffentiated Services). El uso de ISA y DS supone la actualización del hardware de los encaminadores (routers) para dar soporte al tráfico sensible a temporizaciones y para poder ofrecer funciones de QoS, e involucra a unos cuantos protocolos nuevos: IPv6: la nueva versión de IP se creó para la necesidad de ampliar el espacio de direcciones de internet, pero también ofrece características que son útiles para ISA y DS. RSVP: el protocolo de reserva de recursos (Resource ReSerVation Protocol) permite a los usuarios reservar capacidad en una interred, así como especificar los requisitos del tráfico, en términos del rendimiento deseado y de las características del retardo. RSVP es un elemento clave de ISA. RTP: el protocolo de transporte en tiempo real (Real-Time Transport Protocol) ofrece mecanismos para la entrega de video, audio y otros tipos de tráfico en tiempo real sobre una interred, de modo que se pueda reproducir de forma efectiva en el destino. Protocolo de encaminamiento para multidifusión: en muchos casos, el tráfico multimedia y en tiempo real se transmite a múltiples destinos simultáneamente (multidifusión). Se han desarrollado varios protocolos nuevos de encaminamiento dinámico para la gestión de encaminamiento para multidifusión. Usando estos nuevos protocolos, una interred basada en ISA o en DS es capaz de gestionar de forma efectiva tanto el tráfico a ráfagas tradicional como el tráfico multimedia y en tiempo real. En esencia, la diferencia entre ambos métodos es la siguiente: en ISA, una aplicación solicita un determinado nivel de QoS a la interred. Si los encaminadores, de forma colectiva, determinan que hay suficiente recursos disponibles para cumplir el requisito de QoS, la interred reserva dichos recursos, se compromete a ofrecer esa QoS y permite a las aplicaciones el uso de los recursos. E. DS, una aplicación indica sus requisitos de QoS marcando cada paquete con un código apropiado. La red proporciona distintos niveles de servicio a los distintos paquetes según estos códigos. No hay una reserva previa de recursos. LECCION 1: IPv6 El Internet Protocol version 6 (IPv6) (en español: Protocolo de Internet versión 6) es una versión del protocolo Internet Protocol (IP), definida en el RFC 2460 y diseñada para reemplazar a Internet Protocol version 4 (IPv4) RFC 791, que actualmente está implementado en la gran mayoría de dispositivos que acceden a Internet. Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. El nuevo estándar mejorará el

79 servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles sus direcciones propias y permanentes. A principios de 2010, quedaban menos del 10% de IPs sin asignar. [1] En la semana del 3 de febrero del 2011, la IANA (Agencia Internacional de Asignación de Números de Internet, por sus siglas en inglés) entregó el último bloque de direcciones disponibles (33 millones) a la organización encargada de asignar IPs en Asia, un mercado que está en auge y no tardará en consumirlas todas. IPv4 posibilita (2 32 ) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite (2 128 o 340 sextillones de direcciones) cerca de 6, (670 mil billones) de direcciones por cada milímetro cuadrado de la superficie de La Tierra. Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El gobierno de los Estados Unidos ordenó el despliegue de IPv6 por todas sus agencias federales en el año 2008 [2] Cambios y nuevas características En muchos aspectos, IPv6 es una extensión conservadora de IPv4. La mayoría de los protocolos de transporte -y aplicación- necesitan pocos o ningún cambio para operar sobre IPv6; las excepciones son los protocolos de aplicación que integran direcciones de capa de red, como FTP o NTPv3. IPv6 especifica un nuevo formato de paquete, diseñado para minimizar el procesamiento del encabezado de paquetes. Debido a que las cabeceras de los paquetes IPv4 e IPv6 son significativamente distintas, los dos protocolos no son interoperables. Algunos de los cambios de IPv4 a IPv6 más relevantes son: Capacidad extendida de direccionamiento Una ilustración de una dirección IP (versión 6), en hexadecimal y binario. El interés de los diseñadores era que direcciones más largas permiten una entrega jerárquica, sistemática y en definitiva mejor de las direcciones y una eficiente agregación de rutas. Con IPv4, se desplegaron complejas técnicas de Classless Interdomain Routing (CIDR) para utilizar de mejor manera el pequeño espacio de direcciones. El esfuerzo requerido para reasignar la numeración de una red existente con prefijos de rutas distintos es muy grande, como se discute en RFC 2071 y RFC Sin embargo, con IPv6, cambiando el prefijo anunciado por unos pocos routers es posible en principio reasignar la numeración de toda la red, ya que los identificadores de nodos (los 64 bits

80 menos significativos de la dirección) pueden ser auto-configurados independientemente por un nodo. El tamaño de una subred en IPv6 es de 2 64 (máscara de subred de 64-bit), el cuadrado del tamaño de la Internet IPv4 entera. Así, las tasas de utilización del espacio de direcciones será probablemente menor en IPv6, pero la administración de las redes y el ruteo serán más eficientes debido a las decisiones de diseño inherentes al mayor tamaño de las subredes y la agregación jerárquica de rutas. Direccionamiento IPv6 El cambio más grande de IPv4 a IPv6 es la longitud de las direcciones de red. Las direcciones IPv6, definidas en el RFC 2373 y RFC 2374 pero fue redefinida en abril de 2003 en la RFC 3513, son de 128 bits; esto corresponde a 32 dígitos hexadecimales, que se utilizan normalmente para escribir las direcciones IPv6, como se describe en la siguiente sección. El número de direcciones IPv6 posibles es de x Este número puede también representarse como 16 32, con 32 dígitos hexadecimales, cada uno de los cuales puede tomar 16 valores (véase combinatoria). En muchas ocasiones las direcciones IPv6 están compuestas por dos partes lógicas: un prefijo de 64 bits y otra parte de 64 bits que corresponde al identificador de interfaz, que casi siempre se genera automáticamente a partir de la dirección MAC de la interfaz a la que está asignada la dirección. Notación para las direcciones IPv6 Las direcciones IPv6, de 128 bits de longitud, se escriben como ocho grupos de cuatro dígitos hexadecimales. Por ejemplo, 2001:0db8:85a3:08d3:1319:8a2e:0370:7334 es una dirección IPv6 válida. Se puede comprimir un grupo de cuatro dígitos si éste es nulo (es decir, toma el valor "0000"). Por ejemplo, 2001:0db8:85a3:0000:1319:8a2e:0370: :0db8:85a3::1319:8a2e:0370:7344 Siguiendo esta regla, si más de dos grupos consecutivos son nulos, también pueden comprimirse como "::". Si la dirección tiene más de una serie de grupos nulos consecutivos la compresión sólo se permite en uno de ellos. Así, las siguientes son representaciones posibles de una misma dirección: 2001:0DB8:0000:0000:0000:0000:1428:57ab 2001:0DB8:0000:0000:0000::1428:57ab 2001:0DB8:0:0:0:0:1428:57ab 2001:0DB8:0::0:1428:57ab 2001:0DB8::1428:57ab Son todas válidas y significan lo mismo, pero 2001::25de::cade No es válida porque no queda claro cuántos grupos nulos hay en cada lado. Los ceros iniciales en un grupo también se pueden omitir: 2001:0DB8:02de::0e :DB8:2de::e13

81 Si la dirección es una dirección IPv4 empotrada, los últimos 32 bits pueden escribirse en base decimal, así: ::ffff: ::ffff:c0a8:5909 No se debe confundir con: :: ::c0a8:5909 El formato ::ffff: se denomina dirección IPv4 mapeada, y el formato :: dirección IPv4 compatible. Las direcciones IPv4 pueden ser transformadas fácilmente al formato IPv6. Por ejemplo, si la dirección decimal IPv4 es (en hexadecimal, 0x874B2B34), puede ser convertida a 0000:0000:0000:0000:0000:0000:874B:2B34 o ::874B:2B34. Entonces, uno puede usar la notación mixta dirección IPv4 compatible, en cuyo caso la dirección debería ser :: Este tipo de dirección IPv4 compatible casi no está siendo utilizada en la práctica, aunque los estándares no la han declarado obsoleta. Identificación de los tipos de direcciones Los tipos de direcciones IPv6 pueden identificarse tomando en cuenta los primeros bits de cada dirección. :: La dirección con todo ceros se utiliza para indicar la ausencia de dirección, y no se asigna ningún nodo. ::1 La dirección de loopback es una dirección que puede usar un nodo para enviarse paquetes a sí mismo (corresponde con de IPv4). No puede asignarse a ninguna interfaz física. :: La dirección IPv4 compatible se usa como un mecanismo de transición en las redes duales IPv4/IPv6. Es un mecanismo que no se usa. ::ffff:0:0 La dirección IPv4 mapeada se usa como mecanismo de transición en terminales duales. fe80:: El prefijo de enlace local (en inglés link local) específica que la dirección sólo es válida en el enlace físico local. fec0:: El prefijo de emplazamiento local (en inglés site-local prefix) específica que la dirección sólo es válida dentro de una organización local. La RFC 3879 lo declaró obsoleto, estableciendo que los sistemas futuros no deben implementar ningún soporte para este tipo de dirección especial. Se deben sustituir por direcciones Local IPv6 Unicast. ff00:: El prefijo de multicast. Se usa para las direcciones multicast. Hay que resaltar que no existen las direcciones de difusión (en inglés broadcast) en IPv6, aunque la funcionalidad que prestan puede emularse utilizando la dirección multicast FF01::1, denominada todos los nodos (en inglés all nodes) LECCION 2: RSVP

82 Una de las tareas primordiales, quizás la más importante, de una interred, es llevar los datos desde una fuente hasta su destino o destinos, con la calidad de servicio deseada (rendimiento, retardo, variabilidad de retardo, etc). Esta tarea se vuelve cada vez más complicada en cualquier interred que vea incrementarse el número de usuarios, la velocidad de transmisión de los datos de las aplicaciones y el empleo de la multidifusión. Ya hemos visto que una herramienta para hacer frente a esta fuerte demanda es el encaminamiento dinámico. Un esquema de encaminamiento dinámico, contemplado por protocolos OSPF y BGP, puede responder con rapidez a fallos en la interred, esquivando los puntos en donde se produzcan estos fallos. Más importante aún, un esquema de encaminamiento dinámico puede, hasta cierto punto, hacer frente a la congestión, en primer lugar equilibrando las cargas para suavizar la carga total de la interred, y en segundo lugar, encaminando el tráfico de manera que esquive las áreas en las que se esté desarrollando congestión, empleando para ello el encaminamiento de menor coste para la interred. En el caso de la multidifusión, los esquemas de encaminamiento para multidifusión (de una misma fuente a múltiples destinos), que aprovechan las rutas compartidas para minimizar el número de paquetes duplicados. Otra herramienta disponible para los encaminadores es la posibilidad de procesar los paquetes asignándoles un etiquetado referente a la calidad de servicio. Ya hemos visto que los encaminadores pueden: (1) utilizar una disciplina de colas que dé preferencias a los paquetes según la QoS establecida;(2)seleccionar una entre las diferentes rutas alternativas, según sean las características de QoS de cada ruta;y (3) cuando sea posible, invocar un tratamiento QoS en la subred del siguiente salto. Todas estas técnicas son medios de hacer frente al tráfico que se presenta en una interred, pero no suponen medidas preventivas en modo alguno. Basándose únicamente en la utilización del encaminamiento dinámico y en la QoS, un encaminador no puede anticipar la congestión y evitar que las aplicaciones originen una sobrecarga. En su lugar, el encaminador puede únicamente proporcionar un servicio de entrega de best-effort (de mayor esfuerzo), según el cual algunos paquetes pueden perderse y otros entregarse con una QoS menor de la solicitada. Según aumenta la demanda en una interred, parece que la prevención, así como una capacidad de reacción ante la congestión, son muy necesarias. Como muestra el título de esta sección, una forma de implementar una estrategia de prevención es la reserva de recursos. La reserva de recursos en Internet difiere del tipo de reserva de recursos que puede ser implementado en una red orientada a conexión, como una ATM o Frame Relay. Un mecanismo de reserva de recursos en una interred debe actuar de manera conjunta con una estrategia de encaminamiento dinámica, que permita que la ruta seguida por los paquetes, en una determinada transmisión varíe. Cuando la ruta cambia, las reservas de recursos deben ser modificadas. Para manejar esta situación dinámica, se utiliza el concepto de estado no permanente. Un estado no permanente. Un estado no permanente es simplemente un conjunto de información de estado en un encaminador, que expira, a menos que sea generada de manera regular por la entidad que solicitó el estado. Si la ruta de una determinada transmisión varía, entonces algunos de los estados no permanentes expirarán y las

83 nuevas reservas de recursos invocarán los estados no permanentes que resulten apropiados para la ruta. Así, los sistemas finales que soliciten recursos deben renovar periódicamente sus peticiones durante el curso de una transmisión de aplicaciones. LECCION 3: MPLS CONMUTACIÓN DE ETIQUETAS MULTIPROTOCOLO Ya se ha contemplado diversos mecanismos basados en IP, que han sido diseñados para mejorar el rendimiento de las redes IP y para proporcionar diferentes niveles de QoS a diferentes usuarios del servicio. Aunque los protocolos de encaminamiento tienen como propósito fundamental encontrar dinámicamente una ruta entre cualquier fuente y cualquier destino dentro de una interred, también proporcionan soporte para objetivos relacionados con el rendimiento, de dos maneras: 1. Puesto que dichos protocolos son dinámicos y distribuidos, pueden reaccionar ante la congestión modificando las rutas para evitar focos de tráfico lento. Esto tiende a suavizar y equilibrar la carga de la interred, mejorando el rendimiento general. 2. Las rutas pueden basarse en distintas métricas, como la contabilización de saltos o el retardo. Así pues, un algoritmo de encaminamiento desarrolla información que puede emplearse para determinar cómo manejar los paquetes con distintas necesidades de servicio. De manera más concreta, los temas cubiertos hasta ahora sugieren mejoras para una interred IP que dé soporte explícitamente a la QoS. Sin embargo, ninguno de los mecanismos o protocolos analizados hasta ahora, abordan de manera directa la cuestión del rendimiento: Cómo mejorar el rendimiento global y las características de retardo de una interred MPLS supone un esfuerzo prometedor en la provisión del tipo de soporte QoS, orientado a conexión y a la gestión de tráfico, que se encuentra en las redes ATM, orientado a acelerar los procesos de envío de paquetes conservando la flexibilidad de un modelo de red IP. Soporte QoS orientado a conexión. Los administradores y usuarios de redes requieren un soporte QoS cada vez más sofisticados por una serie de razones. SIKE00 enumera los siguientes requisitos básicos: 1. Garantizar una cantidad fija de capacidad para aplicaciones específicas como vídeo y audioconferencia. 2. Controlar la latencia y la fluctuación del tráfico y asegurar capacidad para la voz. 3. Proporcionar acuerdos de servicio o contratos de tráfico muy específicos, garantizados y cuantificables. 4. Configurar diversos grados de QoS para múltiples usuarios de la red. Una red no orientada a conexión, como por ejemplo, una interred IP, no puede proporcionar unos compromisos de QoS verdaderamente firmes. Un marco de servicios diferenciados (DS) funciona solamente de una manera general y sobre los agregados de tráfico procedentes de varias fuentes. Un marco IS, empleando RSVP, tiene un cierto parecido con el enfoque orientado a conexión, aunque se ve no obstante limitado en cuanto a su flexibilidad y escalabilidad. Para servicios como los de voz y vídeo que requieren una red con un alto factor de predicción, los modelos DS e IS, por sí mismos,

84 pueden resultar inadecuados en una red muy sobrecargada. En cambio, una red orientada a conexión, como ya hemos visto, cuenta con unas capacidades QoS y de gestión del tráfico muy potente. MPLS impone un marco orientado a conexión a una interred IP y, por tanto, proporciona el fundamento de unos contratos de tráfico con una QoS sofisticada y fiable. Ingeniería de tráfico. MPLS facilita conjugar los recursos de la red, para equilibrar el tráfico ante una determinada demanda y conjugar los diferentes niveles de soporte para satisfacer los diversos requisitos de tráfico del usuario. La capacidad de definir rutas dinámicamente, planificar entregas de tráfico según la demanda conocida y optimizar la utilización de la red es lo que se conoce como ingeniería de tráfico. Dentro del mecanismo básico de IP, hay una forma primitiva de ingeniería de tráfico automatizada. Concretamente, los protocolos de encaminamiento, como OSPF, permiten a los encaminadores modificar la ruta dinámicamente, basándose en una planificación paquete a paquete, para intentar equilibrar el tráfico. Pero tal encaminamiento dinámico reacciona de una manera muy simple ante la congestión y no proporciona manera alguna de soporte a la QoS. Todo el tráfico que circula entre dos extremos sigue una misma ruta, que puede modificarse si se produce congestión. MPLS, por otra parte, conoce no sólo los paquetes individuales, sino también los flujos de paquetes en los que cada flujo tiene ciertos requisitos QoS, así como una demanda de tráfico predecible. Con MPLS es posible establecer rutas en base a estos flujos individuales, aún en el caso de flujos diferentes entre unos mismos extremos finales que quizá sigan encaminadores distintos. Además, cuando la congestión amenaza, las rutas MPLS pueden reencaminarse de manera inteligente, es decir, en lugar de cambiar simple y llanamente la ruta, paquete a paquete, con MPLS, las rutas se modifican según un esquema flujo a flujo, aprovechando las demandas de tráfico conocidas de cada flujo. Un uso eficaz de la ingeniería de tráfico puede incrementar de manera sustancial la capacidad disponible de la red. Soporte para Redes Privadas Virtuales o VPN (Virtual Private Networks). MPLS proporciona un importante mecanismo de soporte para las redes privadas virtuales. En una VPN, el tráfico de una determinada empresa o grupo circula de modo transparente a través de la interred, de manera que se distinga eficazmente de otros tipos de paquetes de la interred, garantizando el rendimiento y la seguridad. Soporte multiprotocolo. MPLS puede emplearse con diversas tecnologías de redes. En la parte VI nos centrábamos en las interredes IP y éste parece ser el área principal de utilización. MPLS supone una mejora del funcionamiento de una red IP no orientada a conexión, siendo necesaria una actualización a los encaminadores IP para poder dar soporte a las características de MPLS. Los encaminadores activados por MPLS pueden coexistir con los encaminadores IP habituales, facilitando la introducción de una posible evolución a los esquemas MPLS. MPLS también ha sido diseñado para operar en redes ATM y Frame Relay. De nuevo, los conmutadores ATM con soporte para MPLS y los conmutadores Frame Relay con soporte para MPLS pueden ser configurados para que coexistan con los conmutadores habituales. Además, MPLS puede utilizarse en una red totalmente IP, totalmente ATM para que coexistan con los conmutadores habituales.

85 Además, MPLS puede utilizarse en una red totalmente IP, totalmente ATM, totalmente Frame Relay, o una interred que incluya dos o incluso las tres tecnologías. Esta naturaleza universal de MPLS podría resultar atractiva para usuarios que ya han mezclado varias tecnologías y que buscan maneras de optimizar recursos y ampliar el soporte QoS. Por lo que respecta al resto del presente tema, nos centraremos en la utilización de MPLS en redes IP, con algunos comentarios breves acerca de cuestiones de formato para redes ATM y Frame Relay. La Tabla define los términos clave de MPLS empleados en nuestro estudio. Tabla 2. Terminología de MPLS Clase de equivalencia de renvío (FEC). Grupo de paquetes IP que se reenvían de la misma forma (por ejemplo, por la misma ruta, con el mismo tratamiento de reenvío). Mezcla de tramas. Mezclado de etiquetas, cuando se aplica a la operación con medios basados en tramas, de modo que el problema potencial del intercalado de células deja de serlo. Etiqueta. Identificador corto, de longitud fija, y físicamente contiguo, que se usa para identificar una FEC normalmente de significación local. Mezcla de etiquetas. Sustitución de múltiples etiquetas entrantes de una FEC concreta por una única etiqueta saliente. Intercambio de etiquetas. Operación básica de reenvío, consistente en examinar una etiqueta entrante para determinar la etiqueta saliente, el encapsulado, el puerto, y otra información de gestión de datos. Salto conmutado por etiqueta. Salto entre dos nodos MPLS, en los que se realiza el reenvío mediante el uso de etiquetas. Ruta conmutada por etiqueta. Ruta a través de uno o más LSR de un nivel de la jerarquía, seguida por los paquetes de una FEC en particular. Encaminador de conmutación de etiquetas (LSR). Nodo MPLS que es capaz de reenviar paquetes nativos de nivel 3. Pila de etiquetas. Conjunto ordenado de Punto de mezcla. Nodo en el que se realiza la mezcla de etiquetas. Dominio MPLS. Conjunto de nodos contiguos que operan con encaminamiento y reenvío MPLS y que se encuentran también en un dominio de encaminamiento o administrativo. Nodo frontera MPLS. Nodo MPLS que conecta un dominio MPLS con un nodo que está fuera del dominio, bien porque no funciona con MPLS, y/o porque se encuentra en otro dominio. Observe que si un LSR tiene un sistema vecino que no está ejecutando MPLS, entonces dicho LSR es un nodo frontera MPLS. Nodo de egresión MPLS. Nodo frontera MPLS cuyo rol es la gestión del tráfico que abandona el dominio MPLS. Nodo de ingreso MPLS. Nodo frontera MPLS cuyo rol es la gestión de tráfico que entra en un dominio MPLS. Etiqueta MPLS. Identificador corto, de longitud fija, y físicamente contiguo, que se usa para identificar una FEC, normalmente de significación local. Se transporta una etiqueta en la cabecera del paquete. Nodo MPLS. Nodo en el que funciona MPLS. Un nodo MPLS será consciente del uso de protocolos de control de MPLS, ejecutará uno o más protocolos de encaminamiento a nivel 3 y será capaz de reenviar paquetes según sus etiquetas. Un nodo MPLS puede, opcionalmente, ser también capaz de reenviar paquetes nativos de nivel 3.

86 etiquetas. FUNCIONAMIENTO DE MPLS Una red o interred MPLS se compone de un conjunto de nodos, denominados encaminadores de conmutación de etiquetas o LSR (label switched routers), capaces de conmutar y encaminar paquetes según cual sea la etiqueta que se haya asignado a cada paquete. Las etiquetas definen un flujo de paquetes entre dos extremos o, en el caso de la multidifusión, entre un extremo fuente y un grupo destino. Para cada flujo distinto se define un camino específico a través de la red de LSR, llamado clase de equivalencia de reenvío o FEC (forwarding equivalence class). Así pues, MPLS es una tecnología orientada a conexión. Asociada a cada FEC tenemos una caracterización del tráfico que define los requisitos QoS de ese flujo. Los LSR no necesitan examinar o procesar la cabecera IP, sino más bien enviar simplemente cada paquete basándose en el valor de su etiqueta. Por tanto, el proceso de envío es más simple que con un encaminador IP. La Figura 18.5., basada en lo que aparece en REDF00, describe el funcionamiento de MPLS dentro de un dominio de encaminadores MPLS. A continuación, vemos los elementos clave del funcionamiento: 1. Antes del encaminamiento y la entrega de paquetes en una determinada FEC, hay que definir una ruta en la red, conocida como ruta conmutada de etiquetas o LSP (label switched path) y hay que establecer los parámetros QoS a lo largo de dicha ruta. Los parámetros QoS determinan: 1. Cuántos recursos asignar a la ruta, y 2. Que política de colas y de descarte de paquetes establecer en cada LSR para los paquetes de esta FEC. Para acometer dichas tareas, se emplean dos encaminadores que realizarán el intercambio de información necesaria entre encaminadores: a. Un protocolo de encaminamiento interior, como OSPF, que se emplea para intercambiar información de encaminamiento y alcance. b. Las etiquetas deben ser asignadas a los paquetes para una FEC en particular. Como la utilización de etiquetas únicas y globales impondría una carga añadida a la gestión de paquetes y limitaría el número de etiquetas de que se podría disponer, las etiquetas son de uso local únicamente, como ya se verá más adelante. Un operador de red puede especificar manualmente las rutas explícitas y asignar los valores oportunos de las etiquetas. También se puede emplear un protocolo alternativo para determinar el camino o ruta y establecer los valores de etiquetado entre los LSR adyacentes. Cualquiera de estos dos protocolos puede ser utilizado con esta finalidad: el protocolo de distribución de etiquetas o LDP (Label Distribution Protocol) o una versión mejorada de RSVP. 2. Un paquete entra en un dominio MPLS a través de un LSR de ingreso, donde es procesado para determinar qué servicios requiere a nivel de red, definiendo su QoS. El LSR asigna este paquete a una FEC en particular y, por tanto, a una LSP en particular; asigna la etiqueta adecuada al paquete y lo reenvía. Si no existe todavía una LSP para esta FEC, el LSR debe cooperar con los otros LSR en la definición de una nueva LSP. 3. Dentro del dominio MPLS, conforme cada LSR recibe un paquete etiquetado, éste: a. Retira la etiqueta entrante y asocia al paquete la etiqueta de salida apropiada. b. Reenvía el paquete al siguiente LSR a lo largo de la ruta LSP. 4. El nodo de egresión LSR extrae la etiqueta, la etiqueta de paquete IP y envía el paquete a su destino final.

87 A continuación, pueden observarse varias de las características clave del funcionamiento de MPLS: 1. Un dominio MPLS se compone de un conjunto contiguo, o conectado, de encaminadores MPLS. El tráfico puede entrar o salir del dominio desde un terminal de red conectado directamente, cómo se muestra en la esquina superior derecha de la Figura El tráfico también puede provenir de un encaminador habitual que conecte con una parte de la interred que no está empleando MPLS, como aparece en la esquina superior izquierda de la figura La FEC de un paquete puede venir determinada por uno o más parámetros, según considere el administrador de red. Entre los posibles parámetros se encuentran los siguientes: Direcciones IP de origen y / o destino o direcciones IP de red. Números de puerto de origen y / o destino. ID del protocolo IP. Codepoint de servicios diferenciados. Etiqueta de flujo IPv6. 3. El reenvío se logra realizando una simple búsqueda en una tabla predefinida que asocia valores de etiquetas a las siguientes direcciones de saltos. No hay necesidad de examinar o procesar la cabecera IP o de tomar una decisión de encaminamiento basada en la dirección IP de destino. 4. Se puede definir un comportamiento específico por salto, o PHB (per-hop behavior), en un LSR; para una FEC en particular. El PHB define la prioridad de colas para los paquetes de dicha FEC, así como la política de descartes. 5. Los paquetes enviados entre los mismos extremos pueden pertenecer a FEC diferentes. Así es que recibirán un etiquetado diferente, experimentarán un PHB diferente en cada LSR y puede que sigan rutas distintas dentro de la interred. La Figura muestra las operaciones de gestión y reenvío de etiquetas con más detalle. Cada LSR custodia una tabla de reenvíos para cada LSP que atraviesa el LSR. Cuando llega un paquete etiquetado, el LSR indexa la tabla de reenvíos para determinar el próximo salto. Para una mejor escalabilidad, como ya se ha mencionado, las etiquetas tienen un radio de acción local únicamente. Así, el LSR retira la etiqueta del paquete entrante y adjunta la etiqueta de salida correspondiente antes de reenviar el paquete. El LSR de ingreso determina la FEC de cada paquete a una determinada LSP, adjunta la etiqueta correspondiente y reenvía el paquete. LECCION 4: RTP PROTOCOLO DE TRANSPORTE EN TIEMPO REAL El protocolo más utilizado a nivel de transporte es TCP. Aunque TCP ha demostrado su valía dando soporte a una amplia variedad de aplicaciones distribuidas en tiempo real. Por aplicación distribuida en tiempo real, entendemos una en que la fuente genera un flujo de datos a una velocidad constante y una o más direcciones de destino deben entregar dichos datos a una aplicación a esa misma velocidad constante. Ejemplos de tales aplicaciones los encontramos en la audio y videoconferencia, la distribución de vídeo en directo (no para almacenarlo sino para una reproducción inmediata), los entornos de trabajo compartidos, los diagnósticos médicos a distancia, la telefonía, los

88 sistemas de comando y control, las simulaciones interactivas distribuidas, juegos y monitorización en tiempo real. Son varias las características de TCP que lo invalidan como protocolo de transporte para tales aplicaciones: 1. TCP es un protocolo punto a punto que establece una conexión entre dos extremos. Por tanto no es adecuado para la multidifusión. 2. TCP posee mecanismos para la retransmisión de segmentos perdidos, que llegan posteriormente fuera de orden. Tales segmentos no se pueden aprovechar fuera de su sitio en el caso de las aplicaciones en tiempo real. 3. TCP no dispone de un mecanismo adecuado que asocie la información sobre tiempos a los segmentos, que es otra de las exigencias del tiempo real. El otro protocolo de transporte ampliamente utilizado, UDP, no posee las dos primeras características citadas pero, al igual que TCP, no suministra información sobre tiempos. Por sí mismo, UDP no proporciona herramienta alguna de empleo general que resulte útil para aplicaciones en tiempo real. Aunque cada aplicación en tiempo real podría incluir sus propios mecanismos para dar soporte al transporte en tiempo real, existen varias características básicas que garantizan la definición de un protocolo común. Un protocolo estándar diseñado con esta finalidad es el protocolo de transporte en tiempo real o RTP (Real-time Transport Protocol), definido por la RFC RTP es el más adecuado para la comunicación en tiempo real no estricto, pero carece de los mecanismos necesarios para dar soporte al tráfico en tiempo real estricto. Esta sección ofrece una visión panorámica de RTP. Comenzamos viendo los requisitos del transporte en tiempo real. A continuación, examinamos el enfoque teórico de RTP. El resto de la sección está dedicado a los dos protocolos que componen RTP: el primero se denomina simple y llanamente RTP y es un protocolo de transferencia de datos; el otro es un protocolo de control que se conoce como RTCP (Protocolo de Control RTP). LECCION 5: MULTIDIFUSION Generalmente, una dirección IP hace referencia a un host individual en una red particular. IP también considera direcciones que hacen referencia a un grupo de máquinas de una o más redes. Tales direcciones se denominan direcciones de multidifusión, y el hecho de enviar un paquete desde un origen a los miembros de un grupo de multidifusión se denomina multidifusión. La multidifusión tiene una serie de aplicaciones prácticas. Por ejemplo: Multimedia: Un número de usuarios sintonizan una transmisión de vídeo o audio desde una estación origen multimedia. Teleconferencia: Un grupo de estaciones de trabajo forman un grupo de multidifusión tal que una transmisión desde cualquier miembro es recibida por todos los demás miembros Base de datos: Todas las copias de un fichero o base de datos replicados se actualizan a la vez. Procesamiento distribuido: Los resultados intermedios se envían a todos los participantes. Grupos de trabajo en tiempo real: Ficheros, gráficos y mensajes se intercambian entre los miembros activos del grupo en tiempo real.

89 MULTIDIFUSION (MULTICAST): Transmisión, en un solo envío, desde un sistema final origen a todos los sistemas destinatarios o miembros activos de un grupo de multidifusión que comparten una misma dirección IP de multidifusión correspondiente al grupo. Las máquinas de un grupo de multidifusión no tienen por qué estar conectadas a la misma red de área local (LAN). La comunicación es de 1 a n con entrega a n interfaces. Si hay n destinatarios en el grupo, solo se transmite una vez la información desde el sistema origen, es decir, solo envía un datagrama IP de multidifusión. Los ROUTERS DE MULTIDIFUSION por Internet manejan direcciones IP de multidifusión y hacen las copias necesarias. El envío es independiente del número de máquinas receptoras. Cada enlace transporta una única copia de la información. DIFUSION (BROADCAST) IPv6: Forma especial de multidifusión en donde todas las máquinas de una red de área local de difusión (Ethernet o Wifi) se consideran como un grupo de multidifusión. CORRESPONDENCIAS DE DIRECCIONES DE RED Y ENLACE: Todas las direcciones IP tienen su correspondencia en el nivel MAC. Una dirección de UNIDIFUSION MAC IEEE 802 es un identificador de 6 OCTETOS o 48 bits o 6 GRUPOS DE DOS DÍGITOS HEXADECIMALES. Los 3 primeros octetos identifican al fabricante de la tarjeta y los tres últimos octetos identifican al número de serie de la tarjeta. El nivel de Interfaz de la red de acceso tiene que ser capaz de transmitir tramas de unidifusión, difusión, solo para IPv4, y multidifusión.

90

Introducción Internet no tiene una estructura real, pero existen varios backbone principales. Estos se construyen a partir de líneas y routers de alta velocidad. Conectados a los backbone hay redes regionales

Más detalles

Ejercicios Tema 1 1.- Supongamos que hay exactamente un switch de paquetes entre un host que envía y un host que recibe. Las tasas de transmisión entre el host que envía y el que recibe son R 1 y R 2 respectivamente.

Más detalles

1.- FUNCION DE UNA RED INFORMATICA

1.- FUNCION DE UNA RED INFORMATICA 1.- FUNCION DE UNA RED INFORMATICA Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados

Más detalles

Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma

Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma INFORMÁTICA Univ. de Concepción del Uruguay Facultad de Ciencias Agrarias Ingeniería Agrónoma Informática Teoría Unidad 5 Prof. Ing Ezequiel Benavente Ciclo lectivo 2014 Diferencias entre un Modem y un

Más detalles

UNIVERSIDAD NACIONAL DEL COMAHUE

UNIVERSIDAD NACIONAL DEL COMAHUE UNIVERSIDAD NACIONAL DEL COMAHUE Redes de computadoras Internet Juan Carlos Brocca Redes - Internet Descripción Redes - Internet Descripción Física Redes - Internet Descripción Física Sistemas terminales

Más detalles

EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET

EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET 1 EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET La familia de protocolos TCP/IP fue diseñada para permitir la interconexión entre distintas redes. El mejor ejemplo es Internet: se trata

Más detalles

ESCUELA NORMAL PROF. CARLOS A CARRILLO

ESCUELA NORMAL PROF. CARLOS A CARRILLO ESCUELA NORMAL PROF. CARLOS A CARRILLO QUE ES UNA RED L A S T I C S E N L A E D U C A C I O N P R E E S C O L A R P R O F. C R U Z J O R G E A R A M B U R O A L U M N A : D U L C E C O R A Z Ó N O C H

Más detalles

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Qué es una Red? Es un grupo de computadores conectados mediante cables o algún otro medio. Para que? compartir recursos. software

Más detalles

CAPITULO 2 COMUNICACION ATRAVES DE LA RED

CAPITULO 2 COMUNICACION ATRAVES DE LA RED CAPITULO 2 COMUNICACION ATRAVES DE LA RED INTRODUCCION Las redes nos conectan cada vez más, La tecnología confiable y eficiente permite que las redes estén disponibles cuando y donde las necesitemos. ELEMENTOS

Más detalles

Dispositivos de Red Hub Switch

Dispositivos de Red Hub Switch Dispositivos de Red Tarjeta de red Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes

Más detalles

Redes de Comunicaciones. José Manuel Vázquez Naya

Redes de Comunicaciones. José Manuel Vázquez Naya Redes de Comunicaciones José Manuel Vázquez Naya Contenido Introducción a las redes Conceptos básicos Ventajas de las redes Clasificación según su ubicación (LAN, MAN, WAN) Componentes básicos de una red

Más detalles

INTERNET LA RED WAN MAS GRANDE

INTERNET LA RED WAN MAS GRANDE En sus principios, Internet era utilizada exclusivamente para investigaciones científicas, educativas y militares. En 1991, las reglamentaciones cambiaron para permitir que las empresas y los usuarios

Más detalles

CSIR2121. Administración de Redes I

CSIR2121. Administración de Redes I CSIR2121 Administración de Redes I Objetivos: Al finalizar la clase el estudiante podrá: Mencionar el propósito del desarrollo del modelo TCP/IP. Explicar cada una de las capas del modelo TCP/IP. Comparar

Más detalles

ISP s. Tier-1: Tier-2:

ISP s. Tier-1: Tier-2: ISP s Tier-1: 622 Mbps o mayor Los mayores tienen enlaces en el rango de 2.5 a 10 Gbps Directamente conectados a cada uno de los otros tier-1 ISPs Conectado a un gran numero de tier-2 Isps y otras redes

Más detalles

Diseño de Redes de Área Local

Diseño de Redes de Área Local REDES DE AREA LOCAL Diseño de Redes de Área Local REDES DE AREA LOCAL Pág. 1/40 OBJETIVOS DEL DISEÑO DE LAN El primer paso es establecer y documentar los objetivos de diseño. Estos objetivos son específicos

Más detalles

Seminario Electrónico de Soluciones Tecnológicas sobre Ethernet de Largo Alcance

Seminario Electrónico de Soluciones Tecnológicas sobre Ethernet de Largo Alcance Seminario Electrónico de Soluciones Tecnológicas sobre Ethernet de Largo Alcance 1 de 12 Seminario Electrónico de Soluciones Tecnológicas sobre Ethernet de Largo Alcance 3 Bienvenida. 4 Objetivos. 5 Requerimientos

Más detalles

(decimal) 128.10.2.30 (hexadecimal) 80.0A.02.1E (binario) 10000000.00001010.00000010.00011110

(decimal) 128.10.2.30 (hexadecimal) 80.0A.02.1E (binario) 10000000.00001010.00000010.00011110 REDES Internet no es un nuevo tipo de red física, sino un conjunto de tecnologías que permiten interconectar redes muy distintas entre sí. Internet no es dependiente de la máquina ni del sistema operativo

Más detalles

Capas del Modelo ISO/OSI

Capas del Modelo ISO/OSI Modelo ISO/OSI Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar

Más detalles

Líneas de Comunicación Remota

Líneas de Comunicación Remota Líneas de Comunicación Remota Punto a Punto/Internet Por: Prof. Luis M. Cardona Hernández Universidad Interamericana de Puerto Rico Recinto de Bayamón Introducción En esta presentación veremos los principales

Más detalles

Internet. Tecnología 3ºESO

Internet. Tecnología 3ºESO Internet Tecnología 3ºESO Índice 1,- Qué es Internet? 2.- Cómo me puedo conectar a Internet? 3.- Cómo funciona Internet? 1.- Qué es Internet? Internet es una red de redes Qué es una red? Dos o más ordenadores

Más detalles

Conmutación. Conmutación telefónica. Justificación y definición.

Conmutación. Conmutación telefónica. Justificación y definición. telefónica Justificación y definición de circuitos de mensajes de paquetes Comparación de las técnicas de conmutación Justificación y definición. Si se atiende a las arquitecturas y técnicas utilizadas

Más detalles

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación.

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. TEMA: Las Redes NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. QUÉ ES UNA RED? Una red informática es un conjunto de dispositivos interconectados

Más detalles

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación REDES INFORMÁTICAS REDES LOCALES INDICE 1. Las redes informáticas 1.1 Clasificación de redes. Red igualitaria. Red cliente-servidor 2. Las redes de área local 2.1 Estructura de una LAN 2.2 Protocolos de

Más detalles

INSTITUTO TECNOLÓGICO DE SALINA CRUZ. Fundamentos De Redes. Semestre Agosto-Diciembre 2014. Reporte De Lectura

INSTITUTO TECNOLÓGICO DE SALINA CRUZ. Fundamentos De Redes. Semestre Agosto-Diciembre 2014. Reporte De Lectura INSTITUTO TECNOLÓGICO DE SALINA CRUZ Fundamentos De Redes Semestre Agosto-Diciembre 2014 Reporte De Lectura Lectura Capítulo IV UNIDAD 3: Capa de red y direccionamiento de la red: IPv4 NOMBRE: Liña Quecha

Más detalles

Introducción a las Redes

Introducción a las Redes Introducción a las Redes Tabla de Contenidos 1. Introducción a las Redes... 2 1.1 Clasificación de las redes y topología... 3 1.1.1 Según su distribución...3 1.1.2 Según su tamaño...6 1. Introducción a

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES TELECOMUNICACIONES Y REDES Redes Computacionales I Prof. Cristian Ahumada V. Unidad V: Capa de Red OSI 1. Introducción. 2. Protocolos de cada Red 3. Protocolo IPv4 4. División de Redes 5. Enrutamiento

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES Tema 6 Sistemas de Información para la Gestión TELECOMUNICACIONES Y REDES 6.1 OBJETIVOS Qué tecnologías se usan en los sistemas de telecomunicaciones? Qué medios de transmisión de telecomunicaciones debe

Más detalles

Redes. Tipos de redes según su alcance. 1 Ediciones AKAL, S. A.

Redes. Tipos de redes según su alcance. 1 Ediciones AKAL, S. A. Tipos de redes según su alcance De área local o LAN. Son redes de tamaño reducido que, por lo general, no ocupan más que una oficina o quizá un edificio y son redes muy rápidas. De área metropolitana o

Más detalles

TEMA: PROTOCOLOS TCP/IP

TEMA: PROTOCOLOS TCP/IP TEMA: PROTOCOLOS TCP/IP HISTORIA: El Protocolo de Internet (IP) y el Protocolo de Transmisión (TCP), fueron desarrollados inicialmente en 1973 por el informático estadounidense Vinton Cerf como parte de

Más detalles

Tecnologías WAN. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

Tecnologías WAN. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Tecnologías WAN. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Introducción. Una WAN es una red de comunicación de datos que opera más allá de los limites geográficos de una LAN. Se deben

Más detalles

CAPAS DEL MODELO OSI (dispositivos de interconexión)

CAPAS DEL MODELO OSI (dispositivos de interconexión) SWITCHES CAPAS DEL MODELO OSI (dispositivos de interconexión) 7. Nivel de aplicación En esta capa se ubican los gateways y el software(estación de trabajo) 6. Nivel de presentación En esta capa se ubican

Más detalles

AREA DE TECNOLOGIA E INFORMATICA. Introducción a las Redes de computadores

AREA DE TECNOLOGIA E INFORMATICA. Introducción a las Redes de computadores AREA DE TECNOLOGIA E INFORMATICA Introducción a las Redes de computadores 1 Concepto Una Red es un conjunto de ordenadores interconectados entre si mediante cable o por otros medios inalámbricos. 2 Utilidad

Más detalles

Introducción a las Redes: Qué necesito saber sobre la red de datos de mi cliente?

Introducción a las Redes: Qué necesito saber sobre la red de datos de mi cliente? diseñador Formación oficial Comm-Tec para obtener el certificado de Diseñador de Sistemas AMX: Módulo que prepara para la realización del test de conocimientos mínimos necesarios para la realización del

Más detalles

INSTALACIÓN, OPERACIÓN Y PROGRAMACIÓN DE EQUIPOS Y SISTEMAS TELEFÓNICOS

INSTALACIÓN, OPERACIÓN Y PROGRAMACIÓN DE EQUIPOS Y SISTEMAS TELEFÓNICOS 09-06-2015 1 Descripción y funcionamiento de una central PABX 09-06-2015 2 Un PBX o PABX (siglas en inglés de Private Branch Exchange y Private Automatic Branch Exchange para PABX), la cual es la red telefónica

Más detalles

DE REDES Y SERVIDORES

DE REDES Y SERVIDORES ADMINISTRACIÓN DE REDES Y SERVIDORES Introducción ESCUELA DE INGENIERÍA DE SISTEMAS Y COMPUTACION JOHN GÓMEZ CARVAJAL johncar@univalle.edu.co http://eisc.univalle.edu.co/~johncar/ars/ Qué es una Red? Es

Más detalles

1. Topología de BUS / Linear Bus. 2. Topología de Estrella / Star. 3. Topología de Estrella Cableada / Star Wired Ring. 4. Topología de Árbol / Tree

1. Topología de BUS / Linear Bus. 2. Topología de Estrella / Star. 3. Topología de Estrella Cableada / Star Wired Ring. 4. Topología de Árbol / Tree TOPOLOGÍA DE REDES Las topologías más corrientes para organizar las computadoras de una red son las de punto a punto, de bus, en estrella y en anillo. La topología de punta a punta es la más sencilla,

Más detalles

Seminario Electrónico de Soluciones Tecnológicas sobre Acceso Remoto. 1 de 12

Seminario Electrónico de Soluciones Tecnológicas sobre Acceso Remoto. 1 de 12 Seminario Electrónico de Soluciones Tecnológicas sobre Acceso Remoto 1 de 12 Seminario Electrónico de Soluciones Tecnológicas sobre Acceso Remoto 3 Bienvenida. 4 Objetivos. 5 Aplicaciones para las empresas

Más detalles

Rede de área local (LAN)

Rede de área local (LAN) Rede de área local (LAN) LAN son las siglas de Local Area Network, Red de área local. Una LAN es una red que conecta los ordenadores en un área relativamente pequeña y predeterminada (como una habitación,

Más detalles

Efectos de los dispositivos de Capa 2 sobre el flujo de datos 7.5.1 Segmentación de la LAN Ethernet

Efectos de los dispositivos de Capa 2 sobre el flujo de datos 7.5.1 Segmentación de la LAN Ethernet 7.5 Efectos de los dispositivos de Capa 2 sobre el flujo de datos 7.5.1 Segmentación de la LAN Ethernet 1 2 3 3 4 Hay dos motivos fundamentales para dividir una LAN en segmentos. El primer motivo es aislar

Más detalles

INTRODUCCIÓN. El protocolo TCP, funciona en el nivel de transporte del modelo de referencia OSI, proporcionando un transporte fiable de datos.

INTRODUCCIÓN. El protocolo TCP, funciona en el nivel de transporte del modelo de referencia OSI, proporcionando un transporte fiable de datos. INTRODUCCIÓN Aunque poca gente sabe lo que es TCP/IP todos lo emplean indirectamente y lo confunden con un solo protocolo cuando en realidad son varios, de entre los cuales destaca y es el mas importante

Más detalles

Capa de TRANSPORTE. Ing. José Martín Calixto Cely Original: Galo Valencia P.

Capa de TRANSPORTE. Ing. José Martín Calixto Cely Original: Galo Valencia P. Capa de TRANSPORTE Ing. José Martín Calixto Cely Original: Galo Valencia P. Capa de Transporte La Capa 1 crea y transporta las corrientes de bits; La Capa 2 encapsula los paquetes de datos en tramas, y

Más detalles

ESCUELA DE CIENCIAS BASICAS TECNOLOGIA E INGENIERIA 208004 Redes y Sistemas Avanzados de Telecomunicaciones 2 Act. 10. Trabajo Colaborativo 2 2015_2

ESCUELA DE CIENCIAS BASICAS TECNOLOGIA E INGENIERIA 208004 Redes y Sistemas Avanzados de Telecomunicaciones 2 Act. 10. Trabajo Colaborativo 2 2015_2 Trabajo 2: Implementación de QoS [DIFFSERV] en el Core MPLS de un ISP con puntos de presencia en 3 ciudades de Colombia y conexión a otra ciudad al resto de Internet a través de un IXP Nacional. Temáticas

Más detalles

EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET

EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET 1 EL MODELO DE ESTRATIFICACIÓN POR CAPAS DE TCP/IP DE INTERNET Cada capa de la pila añade a los datos a enviar a la capa inferior, información de control para que el envío sea correcto. Esta información

Más detalles

Tecnología IP para videovigilancia... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el

Tecnología IP para videovigilancia... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el para videovigilancia....... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el protocolo IP. La tecnología de las cámaras de red permite al usuario

Más detalles

Tema 1. Introducción a las redes de telecomunicación. REDES Y SERVICIOS I: Introducción a las redes de telecomunicación

Tema 1. Introducción a las redes de telecomunicación. REDES Y SERVICIOS I: Introducción a las redes de telecomunicación Tema 1 Introducción a las redes de telecomunicación 1 2 CONCEPTO DE RED Una red de telecomunicación es un conjunto organizado de recursos que son compartidos por todos los usuarios y que permite el intercambio

Más detalles

Cableado Estructurado. Diseño de la LAN. Diseño de redes. Contenido Objetivos Componentes Metodología Cableado Estruc.

Cableado Estructurado. Diseño de la LAN. Diseño de redes. Contenido Objetivos Componentes Metodología Cableado Estruc. Diseño de la LAN Cableado Estructurado A pesar de las mejoras en rendimiento y prestaciones del HW de red, el diseño de redes es, cada vez más, complicado. Entornos cada vez más complejos Múltiples medios

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES TELECOMUNICACIONES Y REDES Redes Computacionales I Prof. Cristian Ahumada V. Unidad VII: Capa de Enlace de Datos Contenido 1. Introducción. 2. Acceso al Medio. 3. Técnicas de Control de acceso al medio.

Más detalles

FUNDAMENTOS DE REDES Y CONECTIVIDAD REDES INFORMATICAS

FUNDAMENTOS DE REDES Y CONECTIVIDAD REDES INFORMATICAS FUNDAMENTOS DE REDES Y CONECTIVIDAD REDES INFORMATICAS 1 REDES INFORMÁTICAS Se puede definir una red informática como un sistema de comunicación que conecta ordenadores y otros equipos informáticos entre

Más detalles

Es un conjunto de dispositivos interconectados entre si que comparten recursos y/o servicios como video, voz y datos a través de medios guiados, no

Es un conjunto de dispositivos interconectados entre si que comparten recursos y/o servicios como video, voz y datos a través de medios guiados, no Es un conjunto de dispositivos interconectados entre si que comparten recursos y/o servicios como video, voz y datos a través de medios guiados, no guiados o una combinación de ambos. El medio de transmisión

Más detalles

El Modelo de Referencia OSI

El Modelo de Referencia OSI El Modelo de Referencia OSI Tabla de Contenidos 2. El Modelo de Referencia OSI... 2 2.1 Nivel físico...4 2.2 Nivel de enlace... 4 2.3 Nivel de red... 5 2.4 Nivel de transporte...5 2.5 Nivel de sesión...

Más detalles

WAN y Enrutamiento WAN

WAN y Enrutamiento WAN WAN y Enrutamiento WAN El asunto clave que separa a las tecnologías WAN de las LAN es la capacidad de crecimiento, no tanto la distancia entre computadoras Para crecer, la WAN consta de dispositivos electrónicos

Más detalles

CELERINET ENERO-JUNIO 2013 ESPECIAL

CELERINET ENERO-JUNIO 2013 ESPECIAL 70 Seguridad en Voz sobre Redes de Datos Juan Carlos Flores García UANL-FCFM Universidad Autónoma de Nuevo León Facultad de Ciencias Físico Matemáticas San Nicolás de los Garza, Nuevo León, México Resumen:

Más detalles

Fundamentos de Ethernet. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

Fundamentos de Ethernet. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Fundamentos de Ethernet. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Ethernet es el protocolo del nivel de enlace de datos más utilizado en estos momentos. Se han actualizado los estandares

Más detalles

TEMA 2: FUNCIONAMIENTO DE INTERNET.

TEMA 2: FUNCIONAMIENTO DE INTERNET. TEMA 2: FUNCIONAMIENTO DE INTERNET. ESCUELA UNIVERSITARIA DE INFORMÁTICA Raúl Martín Martín 2.1. Arquitectura Cliente-Servidor La arquitectura cliente-servidor consiste en la existencia de dos tipos de

Más detalles

REDES INFORMATICAS: Protocolo IP

REDES INFORMATICAS: Protocolo IP REDES INFORMATICAS: Protocolo IP 1. PRINCIPIOS BÁSICOS DE IP El protocolo IP se basa en tres principios básicos: Un direccionamiento de los ordenadores. Un tipo de dato: el datragrama IP. Un algoritmo

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES TELECOMUNICACIONES Y REDES Redes Computacionales I Prof. Cristian Ahumada V. Unidad X: Planificación y Cableado de una Red Contenido 1. Introducción. 2. LAN: Realización de la conexión física 3. Interconexiones

Más detalles

CFGM. Servicios en red. Unidad 2. El servicio DHCP. 2º SMR Servicios en Red

CFGM. Servicios en red. Unidad 2. El servicio DHCP. 2º SMR Servicios en Red CFGM. Servicios en red Unidad 2. El servicio DHCP CONTENIDOS 1 1. Introducción 1.1. Qué es el servicio DHCP 2.1. Características generales del servicio DHCP 2.2. Funcionamiento del protocolo DHCP 2.3.

Más detalles

Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking

Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking 1 de 13 Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking 3 Bienvenida. 4 Objetivos. 5 Soluciones comerciales

Más detalles

Ayudantía Nro.3 Redes De Datos CIT2100-1. Profesor: Cristian Tala

Ayudantía Nro.3 Redes De Datos CIT2100-1. Profesor: Cristian Tala Ayudantía Nro.3 Redes De Datos CIT2100-1 Profesor: Cristian Tala Ayudante: Gabriel Del Canto Hoy día veremos: - Modelo TCP/IP - Modelo TCP/IP - Es un modelo de descripción de protocolos de red creado en

Más detalles

[ANEXO A] Elementos que componen la capa de transporte de la plataforma NGN de CANTV

[ANEXO A] Elementos que componen la capa de transporte de la plataforma NGN de CANTV [ANEXO A] Elementos que componen la capa de transporte de la plataforma NGN de CANTV Router de distribución: Los Routers de distribución agregan tráfico, ya sea en el mismo lugar, o de la obtención de

Más detalles

1 NIC/MAU(Tarjeta de red) "Network Interface Card"

1 NIC/MAU(Tarjeta de red) Network Interface Card INTRODUCCION En esta unidad trataremos el tema de los dispositivos que se utilizan en el momento de crear una red. En algunas ocasiones se utilizan otros dispositivos para proporcionar flexibilidad o capacidad

Más detalles

REDES DE TELECOMUNICACIONES

REDES DE TELECOMUNICACIONES REDES La teledistribución es un conjunto de equipo que interactúan entre sí enviando señales (datos, voz, imágenes y texto) al receptor destinatario conectados a una red. Ese sistema de compartir información

Más detalles

TIPOS DE REDES QUE CONFORMAN INTERNET. LAN, WAN, MAN, WLAN, WMAN, WWMAN, SAN y PAN: Qué significa cada término?

TIPOS DE REDES QUE CONFORMAN INTERNET. LAN, WAN, MAN, WLAN, WMAN, WWMAN, SAN y PAN: Qué significa cada término? TIPOS DE REDES QUE CONFORMAN INTERNET LAN, WAN, MAN, WLAN, WMAN, WWMAN, SAN y PAN: Qué significa cada término? En la actualidad, es casi imposible pensar en un mundo en donde las redes de computadoras

Más detalles

La vida en un mundo centrado en la red

La vida en un mundo centrado en la red La vida en un mundo centrado en la red Aspectos básicos de networking: Capítulo 3 1 Objetivos En este capítulo aprenderá a: Describir cómo las funciones de las tres capas superiores del modelo OSI que

Más detalles

COMO FUNCIONA INTERNET

COMO FUNCIONA INTERNET COMO FUNCIONA INTERNET Fuente: http://www.areatecnologia.com/informatica/como-funciona-internet.html Vamos a explicar los conceptos básicos de Internet que todo el mundo debería conocer. Internet es una

Más detalles

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS GRADO 11 Nombre(s) y Apellidos: MAYRA CABALLERO Documento: 97071008138 FICHA NÚMERO COLEGIO: Instituto madre del buen consejo FECHA: 23 DE ABRIL 1) Marca la

Más detalles

Concentradores de cableado

Concentradores de cableado Concentradores de cableado Un concentrador es un dispositivo que actúa como punto de conexión central entre los nodos que componen una red. Los equipos conectados al propio concentrador son miembros de

Más detalles

REDES DE COMPUTADORAS REDES DE COMPUTADORAS CARACTERISTICAS DE LAS REDES 02/01/2012 ING. BOLIVAR ALCOCER

REDES DE COMPUTADORAS REDES DE COMPUTADORAS CARACTERISTICAS DE LAS REDES 02/01/2012 ING. BOLIVAR ALCOCER REDES DE COMPUTADORAS ING. BOLIVAR ALCOCER REDES DE COMPUTADORAS DEFINICION. Una red de computadoras es una interconexión de computadoras para compartir información, recursos(discos, impresoras, escáner,

Más detalles

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas:

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas: SISTEMAS DISTRIBUIDOS DE REDES 1. SISTEMAS DISTRIBUIDOS Introducción y generalidades La computación desde sus inicios ha sufrido muchos cambios, desde los grandes equipos que permitían realizar tareas

Más detalles

5 Cuales de las siguientes opciones son formas de medición del ancho de banda comúnmente utilizadas? (Elija tres opciones).

5 Cuales de las siguientes opciones son formas de medición del ancho de banda comúnmente utilizadas? (Elija tres opciones). 1 Cuáles de las siguientes opciones describen lo que es una LAN? (Elija dos opciones). xxx opera dentro de un área geográfica limitada ofrece conectividad por llamada telefónica utiliza las interfaces

Más detalles

Copyright netlabs 2003. TUNA Preguntas Frecuentes (FAQ)

Copyright netlabs 2003. TUNA Preguntas Frecuentes (FAQ) TUNA Preguntas Frecuentes (FAQ) TUNA Preguntas Frecuentes Generalidades - Qué es Tuna? - Por qué me puede interesar Tuna? - Qué es QoS? - Qué significa gestionar acceso a servicios? - Qué significa tarificar

Más detalles

PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN

PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN Los protocolos de capa de aplicación de TCP/IP más conocidos son aquellos que proporcionan intercambio de la información

Más detalles

Redes conmutadas y de área local

Redes conmutadas y de área local Redes conmutadas y de área local Jorge Juan Chico , Julián Viejo Cortés 2011-14 Departamento de Tecnología Electrónica Universidad de Sevilla Usted es libre de copiar,

Más detalles

CONCEPTOS BÁSICOS. HTML (Hypertext Markup Language) lenguaje de marcas de hipertexto Es el lenguaje en el que están escritas las páginas de la Web.

CONCEPTOS BÁSICOS. HTML (Hypertext Markup Language) lenguaje de marcas de hipertexto Es el lenguaje en el que están escritas las páginas de la Web. INTRODUCCIÓN. Una de las principales características de Internet es que maneja enormes cantidades de información y que en la mayoría de los casos es accesible y gratuita. El reto en todo esto es poder

Más detalles

TEMA 2 Componentes y estructura de una red de telecomunicación.

TEMA 2 Componentes y estructura de una red de telecomunicación. TEMA 2 Componentes y estructura de una red de telecomunicación. 1. Modelo para las telecomunicaciones Las redes de telecomunicación constituyen la infraestructura básica de transporte para el intercambio

Más detalles

Gracias a ese IP único que tiene cada ordenador conectado a la red de internet se pueden identificar y comunicar los ordenadores.

Gracias a ese IP único que tiene cada ordenador conectado a la red de internet se pueden identificar y comunicar los ordenadores. COMO FUNCIONA INTERNET Internet es una gran red de ordenadores a nivel mundial, que pueden intercambiar información entre ellos. Se pueden comunicar porque están unidos a través de conexiones telefónicas,

Más detalles

Introducción a las LAN, WAN y al Internetworking. Contenido

Introducción a las LAN, WAN y al Internetworking. Contenido Introducción a las LAN, WAN y al Internetworking Daniel Morató Area de Ingeniería Telemática Departamento de Automática y Computación Universidad Pública de Navarra daniel.morato@unavarra.es http://www.tlm.unavarra.es/asignaturas/lpr

Más detalles

GUÍAS FÁCILES DE LAS TIC

GUÍAS FÁCILES DE LAS TIC GUÍAS FÁCILES DE LAS TIC del COLEGIO OFICIAL DE INGENIEROS DE TELECOMUNICACIÓN Trabajo Premiado 2006 Autor: La Red Internet D. Gerson Aires Casas 17 de Mayo 2006 DIA DE INTERNET GUÍAS FÁCILES DE LAS TIC

Más detalles

Protocolo PPP PPP Protocolo de Internet de línea serie (SLIP)

Protocolo PPP PPP Protocolo de Internet de línea serie (SLIP) Protocolo PPP 1 PPP Hoy en día, millones de usuarios necesitan conectar sus computadoras desde su asa a las computadoras de un proveedor de Internet para acceder a Internet También hay muchas personas

Más detalles

Problemas sobre Dispositivos de Interconexión Sistemas Telemáticos I

Problemas sobre Dispositivos de Interconexión Sistemas Telemáticos I Problemas sobre Dispositivos de Interconexión Sistemas Telemáticos I Universidad Rey Juan Carlos Mayo de 2005 Problema 1 1. Dada la red de la figura, indica razonadamente las características que debe tener

Más detalles

CAPÍTULO V: SERVICIOS LMDS

CAPÍTULO V: SERVICIOS LMDS CAPÍTULO V: SERVICIOS LMDS V.1 Servicios Sobre LMDS LMDS es una tecnología de acceso inalámbrica de banda ancha que un operador puede utilizar para soportar varias aplicaciones incluyendo la conexión de

Más detalles

Fundamentos de Redes LI. Unidad III Modelos de Comunicaciones 3.1 Modelo de referencia OSI.

Fundamentos de Redes LI. Unidad III Modelos de Comunicaciones 3.1 Modelo de referencia OSI. 3.1 Modelo de referencia OSI. Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones

Más detalles

QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A)

QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A) APRENDERAPROGRAMAR.COM QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A) Sección: Divulgación Categoría: Herramientas Informáticas Fecha

Más detalles

EVALUACION POR PROYECTOS 2 2015 CURSO: REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES 2 CÓDIGO: 208004

EVALUACION POR PROYECTOS 2 2015 CURSO: REDES Y SISTEMAS AVANZADOS DE TELECOMUNICACIONES 2 CÓDIGO: 208004 ACTIVIDAD FINAL: desarrollo [diseño e implementación -en un simulador de red-] de un IXP para K ISP en una ciudad de Colombia. PROBLEMA: desarrollar el sistema de interconexión de k ISP a través de un

Más detalles

EXÁMEN ASIGNATURA REDES CURSO: CUARTO INGENIERÍA INFORMÁTICA CONVOCATORIA SEPTIEMBRE 1997

EXÁMEN ASIGNATURA REDES CURSO: CUARTO INGENIERÍA INFORMÁTICA CONVOCATORIA SEPTIEMBRE 1997 Parte 1. Preguntas. EXÁMEN ASIGNATURA REDES CURSO: CUARTO INGENIERÍA INFORMÁTICA CONVOCATORIA SEPTIEMBRE 1997 Esta parte debe realizarla el alumno sin material de consulta. Puede utilizar una calculadora

Más detalles

Conceptos básicos de redes TCP/IP

Conceptos básicos de redes TCP/IP Conceptos básicos de redes TCP/IP Francisco José Naranjo Area de Ingeniería Telemática Departamento de Automática y Computación Universidad Pública de Navarra franciscojose.naranjo@unavarra.es Laboratorio

Más detalles

UNIVERSIDAD TECNICA DEL NORTE

UNIVERSIDAD TECNICA DEL NORTE UNIVERSIDAD TECNICA DEL NORTE FACULTAD DE INGENIERIA EN CIENCIAS APLICADAS Objetivos CARRERA DE INGENIERIA EN ELECTRONICA Y REDES DE COMUNICACIÓN REDES DE NUEVA GENERACION Realizar una gira de visita técnica

Más detalles

PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN

PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN PRACTICA CAPITULO 2 MODULO 1 PROTOCOLOS Y LA FUNCIONALIDAD DE LA CAPA DE APLICACIÓN Los protocolos de capa de aplicación de TCP/IP más conocidos son aquellos que proporcionan intercambio de la información

Más detalles

Servicios en una red WAN convergente. Accediendo la WAN Capítulo 1

Servicios en una red WAN convergente. Accediendo la WAN Capítulo 1 Servicios en una red WAN convergente Accediendo la WAN Capítulo 1 ITE I Chapter 6 2006 Cisco Systems, Inc. All rights reserved. Cisco Public 1 Objetivos Describir cómo la arquitectura empresarial de Cisco

Más detalles

Hay dos tipos de conexiones posibles cuando se trata de redes. Punto a punto conexiones proporciona un enlace dedicado entre dos dispositivos.

Hay dos tipos de conexiones posibles cuando se trata de redes. Punto a punto conexiones proporciona un enlace dedicado entre dos dispositivos. Informáticas I 4.5 Estructuras físicas de red Hemos dicho que una red es una de dos o más dispositivos conectan juntos y que se configura un camino para que la comunicación a ser alcanzado entre los dos.

Más detalles

8 Conjunto de protocolos TCP/IP y direccionamiento IP

8 Conjunto de protocolos TCP/IP y direccionamiento IP 8 Conjunto de protocolos TCP/IP y direccionamiento IP 8.1 Introducción a TCP/IP 8.1.1 Historia de TCP/IP El Departamento de Defensa de EE.UU. (DoD) creó el modelo de referencia TCP/IP porque necesitaba

Más detalles

Redes Informáticas Temas: Concepto de Red de computadoras, Propósito de la Red, Clasificación según su cobertura geográfica. Topologías.

Redes Informáticas Temas: Concepto de Red de computadoras, Propósito de la Red, Clasificación según su cobertura geográfica. Topologías. Redes Informáticas Temas: Concepto de Red de computadoras, Propósito de la Red, Clasificación según su cobertura geográfica. Topologías. Docente: Lic. Mariela R. Saez Qué es una Red Informática? Una red,

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES TELECOMUNICACIONES Y REDES Redes Computacionales I Prof. Cristian Ahumada V. Unidad II: Comunicación en la red Contenido 1. Introducción: conceptos generales 2. Estructura de Comunicación Genérica 3. Historia

Más detalles

Aspectos Básicos de Networking

Aspectos Básicos de Networking Aspectos Básicos de Networking ASPECTOS BÁSICOS DE NETWORKING 1 Sesión No. 4 Nombre: Capa de transporte del modelo OSI Objetivo: Al término de la sesión el participante aplicará las principales características

Más detalles

1 of 6. Visualizador del examen - ENetwork Chapter 5 - CCNA Exploration: Network Fundamentals (Versión 4.0)

1 of 6. Visualizador del examen - ENetwork Chapter 5 - CCNA Exploration: Network Fundamentals (Versión 4.0) 1 of 6 Visualizador del examen - ENetwork Chapter 5 - CCNA Exploration: Network Fundamentals (Versión 4.0) 1 Qué información se agrega durante la encapsulación en la Capa 3 de OSI? MAC (Control de acceso

Más detalles

EXAMEN FINAL SEGUNDA EVALUACION

EXAMEN FINAL SEGUNDA EVALUACION EXAMEN FINAL SEGUNDA EVALUACION (Distancia) C.F.G.S. DESARROLLO DE APLICACIONES INFORMÁTICAS MÓDULO: Sistemas Informáticos Multiusuario y en Red NOMBRE: I.E.S. Valliniello Avilés 20 Junio -2008 1 EXAMEN

Más detalles

LAS TIC. Cintyha Lizbeth Gómez Salazar. Lic. Cruz Jorge Fernández Aramburo. 0 1 / 0 8 / 2 0 1 3

LAS TIC. Cintyha Lizbeth Gómez Salazar. Lic. Cruz Jorge Fernández Aramburo. 0 1 / 0 8 / 2 0 1 3 LAS TIC. Cintyha Lizbeth Gómez Salazar. Lic. Cruz Jorge Fernández Aramburo. PREESCOLAR. 0 1 / 0 8 / 2 0 1 3 INTRODUCCIÓN. Actualmente curso la Lic. En preescolar en la escuela normal Carlos A. Carrillo

Más detalles

Red de datos del ININ

Red de datos del ININ El ININ hoy Modernización de la Red de datos del ININ ORÍGENES Por Eduardo Rioja Fernández A principios de los 90 s, el ININ destinó recursos para actualizar la red de comunicación y cubrir las necesidades

Más detalles

empresa Introducción al enrutamiento y la conmutación en la empresa. Capítulo1 Networkingenlaempresa

empresa Introducción al enrutamiento y la conmutación en la empresa. Capítulo1 Networkingenlaempresa CCNA Descubrimiento Introducción al enrutamiento y la conmutación en la empresa. Capítulo 1 Networking en la empresa Capítulo1 Networkingenlaempresa 1 Objetivos Describir una empresa. Identificar flujos

Más detalles

Introducción a las redes de computadores

Introducción a las redes de computadores Introducción a las redes de computadores Contenido Descripción general 1 Beneficios de las redes 2 Papel de los equipos en una red 3 Tipos de redes 5 Sistemas operativos de red 7 Introducción a las redes

Más detalles