sábado, 9 de marzo de 2013

Diapositivas de redes

Video

Estandares


En nuestra vida diaria estamos rodeados de estándares, incluso para las cosas más triviales como los pasos de rosca o el tamaño de las hojas de papel. En algunos casos el estándar hace la vida más cómoda (por ejemplo el formato A4 permite una manipulación cómoda de documentos), en otros es necesario para asegurar la interoperabilidad (roscar una tuerca en un tornillo, por ejemplo). Los estándares en materia de telecomunicaciones pertenecen al segundo tipo, es decir, son esenciales para asegurar la interoperabilidad entre diversos fabricantes, cosa esencial si se quieren hacer redes abiertas, es decir si no se quiere ser cautivo de un fabricante en particular. Los estándares pueden ser de ámbito regional, nacional o internacional; por ejemplo en Estados Unidos el formato habitual de papel no es el A4 sino el tamaño carta o letter, que es un poco mas pequeño y constituye un estándar nacional. Las telecomunicaciones son probablemente la primera actividad humana en la que se reconoció la necesidad de definir estándares internacionales; ya en 1865 representantes de muchos países europeos se reunieron para crear una organización que se ocupara de estandarizar las comunicaciones por telégrafo, acordando cosas tales como el código a utilizar; dicha organización fue la predecesora de la actual ITU (International Telecommunication Union).

Conviene destacar que la pertenencia de un país a una determinada organización no asegura su adhesión a los estándares emanados de la misma. Por ejemplo, el tamaño de papel A4 es parte de un estándar de la ISO (International Organization for Standardization) que es seguido por la mayoría de los países del mundo pero no por Estados Unidos, donde como ya hemos comentado se prefiere el tamaño carta, a pesar de que Estados Unidos también es miembro de la ISO.

Generalmente se suele distinguir dos tipos de estándares: de facto y de jure. Los estándares de facto (del latín 'del hecho') ocurren cuando un determinado producto o pauta de comportamiento se extiende en una comunidad determinada sin una planificación previa, hasta el punto de que ese producto o comportamiento se considera 'normal' dentro de esa comunidad. Los estándares de facto ocurren de forma natural y progresiva, sin una planificación previa ni un proceso formal que los refrende. Por ejemplo en informática personal podemos decir que el PC IBM o compatible (generalmente con software Microsoft) es un estándar de facto; en entornos universitarios de docencia e investigación en informática el uso de sistemas operativos UNIX es mayoritario, por lo que podemos decir que es un estándar de facto. Los estándares de facto también se llaman a veces 'estándares de la industria'.

Los estándares de jure (del latín 'por ley') son fruto de un acuerdo formal entre las partes implicadas, después de un proceso de discusión, consenso y a menudo votación. Se adoptan en el seno de una organización cuya principal misión es la elaboración o aprobación de estándares; si dicha organización tiene ámbito internacional el estándar definido es internacional. Existen dos tipos de organizaciones internacionales: las que podemos denominar 'oficiales' se crean por acuerdo entre los gobiernos de las naciones participantes; en este grupo se encuentran por ejemplo la ITU o la ISO. En otra categoría se encuentran las organizaciones que existen gracias al esfuerzo voluntario de sus miembros y que podemos denominar ‘extraoficiales’; en esta categoría están por ejemplo la Internet Society o el ATM forum.

En el mundo de las redes de ordenadores existen hoy en día como hemos visto dos conjuntos de protocolos estándar, el OSI y el TCP/IP, pero ambos son relativamente recientes. En los años setenta y ochenta en que no había protocolos estándar la forma más sencilla de constituir una red multifabricante era utilizar los protocolos de IBM: SNA o su predecesor el NJE, Network Job Entry; como los equipos IBM eran los más extendidos casi todos los fabricantes disponían de productos que implementaban estos protocolos en sus equipos; además, en muchos casos la mayoría de los ordenadores a conectar era IBM por lo que el software necesario era fácil de obtener o venía incluido con el sistema operativo. Podemos decir que en los años setenta y parte de los ochenta los protocolos SNA y NJE eran un ‘estándar de facto’.

Pasaremos ahora a describir con más detalle las principales organizaciones que tienen alguna relación con los estándares del campo de la telemática.

La ISO


Muchos países tienen organizaciones nacionales de estándares donde expertos de la industria y las universidades desarrollan estándares de todo tipo. Entre ellas se encuentran por ejemplo las que aparecen en la tabla 1.4.


País
Abreviatura
Nombre completo
Estados Unidos
ANSI
American National Standards Institute
Alemania
DIN
Deutsches Institut fuer Normung
Reino Unido
BSI
British Standards Institution
España
AENOR
Asociación Española de Normalización
Francia
AFNOR
Association Francaise de Normalisation
Italia
UNI
Ente Nazionale Italiano de Unificatione
Países Bajos
NNI
Nederlands Normalisatie-Instituut
Australia
SAA
Standards Australia
Nueva Zelanda
SANZ
Standards Association of New Zealand
Noruega
NSF
Norges Standardiseringsforbund
Dinamarca
DS
Dansk Standard

Tabla 1.4.- Organizaciones de estandarización/normalización de algunos países del mundo.


La ISO (International Organization for Standardization) es una organización voluntaria (es decir, no es fruto de tratados internacionales) creada en 1946 con sede en Ginebra, Suiza. Sus miembros son las organizaciones nacionales de estándares de los 89 países miembros. A menudo un estándar de uno de sus miembros es adoptado por ISO como estándar internacional; esto ocurre especialmente con los miembros más importantes, ANSI, DIN, BSI y AFNOR.

ISO emite estándares sobre todo tipo de asuntos, como por ejemplo: el sistema métrico de unidades de medida, tamaños de papel, sobres de oficina, tornillos y tuercas, reglas para dibujo técnico, conectores eléctricos, regulaciones de seguridad, componentes de bicicleta, números ISBN (International Standard Book Number), lenguajes de programación, protocolos de comunicaciones, etc. Hasta la fecha se han publicado unos 10.000 estándares ISO que afectan a prácticamente cualquier actividad de la vida moderna.

Para realizar esta ingente labor ISO se organiza en cerca de 200 comités técnicos denominados TC (Technical Committee) que se numeran en orden ascendente según su fecha de creación. El que nos interesa a nosotros es el TC97 que trata de ordenadores y proceso de la información. Cada comité tiene subcomités (SCs) que a su vez se dividen en grupos de trabajo o WGs (Working Groups).

El proceso de creación de un estándar ISO es como sigue. Uno de sus miembros (una organización nacional de estándares) propone la creación de un estándar internacional en un área concreta. Entonces ISO constituye un grupo de trabajo que produce un primer documento denominado borrador del comité o CD (Committee Draft). El CD se distribuye a todos los miembros de ISO, que disponen de un plazo de seis meses para exponer críticas. El documento, modificado de acuerdo con las críticas recibidas, se somete entonces a votación y si se aprueba por mayoría se convierte en un estándar internacional borrador o DIS (Draft International Standard) que se difunde para recibir comentarios, se modifica y se vota nuevamente. En base a los resultados de esta votación se prepara, aprueba y publica el texto final del estándar internacional o IS (International Standard). En áreas muy polémicas un CD o un DIS han de superar varias versiones antes de conseguir un número de votos suficiente, y el proceso entero puede llevar años.

ISO ha generado multitud de estándares en telemática y en tecnologías de la información en general, siendo OSI su ejemplo más significativo. Además a menudo ISO adopta estándares producidos por sus organizaciones miembros o por otras organizaciones relacionadas; por ejemplo ISO adopta sistemáticamente los estándares 802 del IEEE sobre redes locales.

La ITU-T


La ITU (International Telecommunication Union) fue creada en 1934, y con la creación de la ONU se vinculó a ésta en 1947. La ITU tiene tres sectores de los cuales solo nos interesa el conocido como ITU-T que se dedica a la estandarización de las telecomunicaciones. Desde 1956 a 1993 la ITU-T se conoció con el nombre CCITT, acrónimo del nombre francés Comité Consultatif International Télégraphique et Téléphonique. En 1993 el CCITT fue reorganizada y se le cambió el nombre a ITU-T; estrictamente hablando el cambio de nombre tiene efectos retroactivos, es decir, los documentos vigentes, aun cuando fueran producidos antes de 1993, son hoy documentos de la ITU-T y no del CCITT.

Los miembros de la ITU-T son de cinco clases:

  • Representantes de los países.
  • Operadores privados reconocidos (por Ej. British Telecom, Global One, AT&T).
  • Organizaciones regionales de telecomunicaciones (p. Ej. el ETSI).
  • Empresas que comercializan productos relativos a telecomunicaciones y organizaciones científicas
  • Otras organizaciones interesadas (bancos, líneas aéreas, etc.)

Entre los miembros hay unos 200 representantes de países, unos cien operadores privados y varios cientos de miembros de las otras clases. Sólo los representantes de los países tienen derecho a voto, pero todos los miembros pueden participar en el trabajo.

Para desarrollar su trabajo la ITU-T se organiza en Grupos de Estudio, que pueden estar formados por hasta 400 personas. Los Grupos de Estudio se dividen en Equipos de Trabajo (Working Parties), que a su vez se dividen en Equipos de Expertos (Expert Teams).

Las tareas de la ITU-T comprenden la realización de recomendaciones sobre interfaces de teléfono, telégrafo y comunicaciones de datos. A menudo estas recomendaciones se convierten en estándares reconocidos internacionalmente, por ejemplo la norma ITU-T V.24 (también conocida como EIA RS-232) especifica la posición y el significado de las señales en el conocido conector de 25 contactos utilizado en muchas comunicaciones asíncronas.

La ITU-T denomina a sus estándares 'recomendaciones'; con esto se quiere indicar que los países tienen libertad de seguirlas o no. Ignorarlas puede suponer quedar aislado del resto del mundo, por lo que en la práctica a menudo las recomendaciones se traducen en obligaciones.

Todos los estándares de la ITU-T se nombran mediante una letra seguida de un punto seguido a su vez de números. La letra identifica la serie, por ejemplo todo lo relativo a módems se encuentra en la serie V (V.32, V.42, ...); la serie X trata sobre redes de datos y OSI (X.25, X.400,...), las series I y Q definen la RDSI, la serie H comprende todo lo relativo a codificación digital de vídeo y videoconferencia (H.263, H.323, etc.).

Foros industriales


El proceso de elaboración de estándares de la ITU-T y la ISO siempre se ha caracterizado por una gran lentitud, debido quizá a la necesidad de llegar a un consenso entre muchos participantes y a procedimientos excesivamente complejos y burocratizados. Esa lentitud fue uno de los factores que influyó en el rechazo de los protocolos OSI, por ejemplo. En el caso de RDSI la ITU-T empezó a elaborar el estándar en 1972, y lo finalizó en 1984; los servicios comerciales aparecieron hacia 1994, 22 años después de iniciado el proceso.

Los fabricantes de equipos, que perdían gran cantidad de mercado por culpa de estos retrasos, no estaban dispuestos a seguir funcionando de la misma forma. Por ello a principios de los noventa surgió un nuevo mecanismo para acelerar la creación de estándares, que fue la creación de foros industriales. La idea era simple: un conjunto de fabricantes, usuarios y expertos interesados en desarrollar una tecnología concreta forman un consorcio que se ocupa de fijar los estándares necesarios para garantizar la interoperabilidad entre diversos fabricantes; los estándares se hacen públicos de forma que cualquier fabricante que lo desee puede desarrollar productos conformes con dicho estándar.

Los foros no pretenden competir con las organizaciones internacionales de estándares, sino cooperar con ellas y ayudarlas a acelerar su proceso, especialmente en la parte más difícil, la que corresponde a la traducción de los documentos en implementaciones que funcionen en la práctica. Generalmente los foros trabajan en los mismos estándares intentando aclarar ambigüedades y definir subconjuntos de funciones que permitan hacer una implementación sencilla en un plazo de tiempo más corto y comprobar la viabilidad y la interoperabilidad entre diversos fabricantes; así los organismos de estandarización pueden disponer de prototipos reales del estándar que se está definiendo. En cierto modo es como traer a la ISO e ITU-T el estilo de funcionamiento de la IETF.

Otra característica de los foros es que se establecen fechas límite para la producción de estándares, cosa que no hacen los organismos oficiales; de esta manera los fabricantes pueden planificar la comercialización de sus productos de antemano, ya que saben para qué fecha estarán fijados los estándares necesarios.

Como ejemplo de forums industriales que existen o han existido podemos mencionar el Forum Frame Relay, el Forum ATM, el Forum ADSL (Asymmetric Digital Subscriber Loop), el Forum IPv6, la alianza Gigabit Ethernet, etc. El forum ATM, creado en 1991 por Northern Telecom, Sprint, Sun Microsystems, y Digital Equipment Corporation (DEC), cuenta en la actualidad con más de 500 miembros

Otras organizaciones



La Internet Society, aunque no es una organización de estándares ‘oficial’, es la que se ocupa de aprobar todo lo relacionado con los estándares Internet. Debido a su importancia y estrecha relación con la propia Internet aplazaremos el estudio de dicha organización a la descripción de la evolución de Internet que abordaremos en el capítulo 9.

El IEEE (Institute of Electrical and Electronics Engineers) es una asociación profesional de ámbito internacional. Aparte de otras muchas tareas el IEEE (también llamado IE cubo) tiene un grupo que desarrolla estándares en el área de ingeniería eléctrica e informática. Entre ellos se encuentran por ejemplo los estándares 802 que cubren casi todo lo relacionado con redes locales. Los estándares 802 son adoptados regularmente por ISO con el número 8802.

El ANSI es como ya hemos dicho la organización de estándares de los Estados Unidos. Debido a que muchos fabricantes de equipos de comunicaciones diseñan o desarrollan sus productos en Estados Unidos muchos estándares ANSI son de interés también en otros países. Además muchos estándares ANSI son adoptados posteriormente por ISO como estándares internacionales.

El NIST (National Institute of Standards and Technology) es una agencia del Departamento de Comercio de los Estados Unidos., antes conocido como el NBS (National Bureau of Standards). Define estándares para la administración de los Estados Unidos.

El ETSI (European Telecommunications Standards Institute) es una organización internacional dedicada principalmente a la estandarización de las telecomunicaciones europeas. Es miembro de la ITU-T. Entre sus misiones está elaborar especificaciones detalladas de los estándares internacionales adaptadas a la situación de Europa en los aspectos históricos, técnicos y regulatorios.

La  EIA (Electrical Industries Association) es una organización internacional que agrupa a la industria informática y que también participa en aspectos de la elaboración de estándares.

La ECMA (European Computer Manufacturers Association), creada en 1961, es un foro de ámbito europeo donde expertos en proceso de datos se ponen de acuerdo y elevan propuestas para estandarización a ISO, ITU-T y otras organizaciones.

La CEPT (Conference European of Post and Telecommunications) es una organización de las PTTs europeas que participa en la implantación de estándares de telecomunicaciones en Europa. Sus documentos se denominan Norme Europeene de Telecommunication (NET). La CEPT está avalada por la Comunidad Europea.

Transmisión de datos en redes WAN


Dado que cualquier usuario puede solicitar un acceso a las redes que operan las compañías telefónicas, a éstas se las denomina redes públicas de datos (PDN, Public Data Networks). Cuando se desea interconectar ordenadores o redes locales ubicadas a cierta distancia es preciso normalmente utilizar los servicios de alguna de esas redes públicas. Dichos servicios pueden clasificarse de acuerdo con el tipo de conexión que ofrecen, permanente o temporal, y con el tipo de circuito, real o virtual. Esquemáticamente sería:


Tipo de circuito
Tipo de conexión

Permanente
Temporal
Real
Líneas dedicadas
Redes de conmutación de circuitos
(RTB, RDSI, GSM)
Virtual
Redes de conmutación con PVCs (X.25, Frame Relay, ATM)
Redes de conmutación con SVCs (X.25, Frame Relay, ATM)

Tabla 1.2.- Clasificación de los tipos de servicio de transmisión de datos por líneas telefónicas según el tipo de circuito y conexión.


En la práctica suele utilizarse en cada caso el servicio más conveniente por sus prestaciones y precio, por lo que las redes suelen mezclar varios de los servicios que hemos mencionado. Vamos a dar una pequeña descripción de cada uno de ellos.

Líneas dedicadas


La solución mas simple para una red es el circuito real permanente, constituido por lo que se conoce como líneas dedicadas o líneas alquiladas (leased lines en inglés); está formado por un enlace punto a punto permanente entre los ordenadores o routers que se desean unir. Una línea dedicada es únicamente un medio de transmisión de datos a nivel físico, todos los protocolos de niveles superiores han de ser suministrados por el usuario.

La red ARPAnet que hemos visto anteriormente se constituyó mediante líneas dedicadas. La Internet incorpora actualmente todos los servicios que hemos mencionado.

Normalmente no es posible contratar una línea dedicada de una velocidad arbitraria, existen unas velocidades prefijadas que son las que suelen ofrecer las compañías telefónicas y que tienen su origen en la propia naturaleza del sistema telefónico, como veremos más adelante. Por ejemplo Telefónica de España ofrece líneas dedicadas de las siguientes velocidades: 9,6, 64, 128, 192, 256, 512 y 2.048 Kb/s. El precio de una línea dedicada es una cuota fija mensual que depende de la velocidad y de la distancia entre los dos puntos que se unen. La cuota es independiente del uso (corresponde por tanto con lo que se conoce como ‘tarifa plana’).

En las líneas dedicadas la capacidad contratada está reservada de forma permanente en todo el trayecto. Su costo es elevado y por tanto su instalación generalmente sólo se justifica cuando el uso es elevado (al menos tres o cuatro horas al día). Por este motivo las líneas dedicadas no suelen utilizarse en casos en que se necesita una conexión esporádica, por ejemplo una oficina que requiere conectarse unos minutos al final del día para transferir unos ficheros, o un usuario doméstico que se conecta a Internet en los ratos de ocio.

Para mostrar el elevado consumo de recursos que representan las líneas dedicadas pondremos un ejemplo: supongamos que la empresa X con sede central en Valencia ha abierto treinta sucursales en distintos puntos de España, y necesita que los ordenadores de las sucursales comuniquen con la sede central todos los días durante treinta minutos cada uno para transferir 2 MBytes de información. Para esto la empresa solicita 30 líneas dedicadas de 64 Kb/s a la compañía telefónica, constituyendo una red con topología de estrella. Aunque cada línea se utiliza únicamente el 2% del tiempo (0,5/24) con una eficiencia del 14% (2 MB*8/(0,064*30*60)) el ancho de banda está reservado en su totalidad de forma permanente. Además, se requieren treinta interfases físicas en el servidor, lo cual encarece y complica bastante la red.

Conmutación de circuitos


La conmutación de circuitos supone una utilización más óptima de los recursos que las líneas dedicadas, ya que la conexión extremo a extremo sólo se establece durante el tiempo necesario. Para la transmisión de datos mediante conmutación de circuitos se utiliza la misma red que para la transmisión de la voz, mediante módems o adaptadores apropiados. Genéricamente se la denomina Red Telefónica Conmutada (RTC) o PSTN (Public Switched Telephone Network) y comprende en realidad tres redes diferentes:

La Red de Telefonía Básica (RTB) también llamada POTS (Plain Old Telephone Service); Está formada por las líneas analógicas tradicionales y por tanto requiere el uso de módems; la máxima velocidad que puede obtenerse en este tipo de enlaces es de 33.6 Kb/s, salvo el caso en que la transmisión se origine en un acceso RDSI, en cuyo caso puede obtenerse una velocidad máxima de 56 Kb/s.

La Red Digital de Servicios Integrados (RDSI) también llamada ISDN (Integrated Services Digital Network). Está formada por enlaces digitales hasta el bucle de abonado, por lo que el circuito es digital de extremo a extremo. La velocidad por circuito (también llamado canal) es de 64 Kb/s, pudiendo con relativa facilidad agregarse varios canales en una misma comunicación para obtener mayor ancho de banda.

La Red GSM (Global System for Mobile communications). Se trata de conexiones digitales, como en el caso de la RDSI, pero por radioenlaces. La capacidad máxima de un circuito GSM cuando se transmiten datos es de 9.6 Kb/s.

La RDSI apareció en España hacia 1994, y la red GSM hacia 1995. Dado que hasta fechas recientes el único sistema de RTC era la RTB a menudo se utilizan ambos términos indistintamente para indicar la red telefónica analógica. Para evitar confusiones conviene usar el término RTB al referirse a la red telefónica analógica, y reservar el término RTC para referirnos al conjunto de todas las redes conmutadas existentes, ahora o en el futuro.

En el caso de la RTC cualquier par de usuarios puede comunicar entre sí siempre que conozca su dirección o número de teléfono, por lo que podemos ver la RTC como una gran nube a la que se conectan multitud de usuarios. Una vez establecido un circuito entre dos abonados la función que desempeña para los protocolos de nivel superior es equivalente a la de una línea dedicada.

Telefónica de España dispone de los tres tipos de RTC (RTB, RDSI y GSM), con tarificación por tiempo de conexión. En el caso de RTB y RDSI se aplica una tarificación con cuatro ámbitos: metropolitano, provincial, nacional e internacional (éste último depende del país). En el caso de la red GSM (conocida como MoviStar) hay sólo dos ámbitos: nacional e internacional. También existen servicios GSM ofrecidos por Airtel y Retevisión (Amena).

Es posible la interconexión entre ordenadores de redes diferentes (RDSI, RTB o GSM); en cuyo caso la velocidad de transmisión será igual a la más lenta de las conexiones implicadas; en algunos casos puede ser necesario disponer de equipos específicos o contratar servicios especiales.

Siguiendo con nuestro ejemplo anterior de la empresa X, en vez de líneas dedicadas se podría haber utilizado la red telefónica conmutada (por ejemplo la RDSI). En este caso el costo de cada conexión es normalmente menor, ya que sólo se paga por el tiempo que se esta utilizando. Además, la sede central podría contratar menos de treinta enlaces si se planifica un horario escalonado de conexión de las sucursales, o si simplemente se considera que la probabilidad de que todas llamen a la vez es muy reducida. Esto se conoce como sobresuscripción (‘oversubscription’) o sobrereserva (‘overbooking’) y es algo muy normal en redes cuando el número de usuarios es razonablemente elevado y se puede jugar con el factor estadístico (es algo similar a lo que hacen las compañías aéreas con los billetes de avión). Por ejemplo, supongamos que inicialmente la sede central contrata diez accesos y observa que solo durante el 0,1% del tiempo están todos utilizados; entonces se puede afirmar que el servicio tiene una disponibilidad del 99,9%, es decir, el 99,9% del tiempo hay líneas libres para recibir llamadas de las sucursales; a la vista de esto la empresa puede decidir si aumenta o reduce el número de accesos, según la disponibilidad que se quiera tener y el costo de cada acceso (aquí además del costo de la compañía telefónica se deberá tener en cuenta el de interfaces , módems, equipo auxiliar, etc.).

Conmutación de paquetes


Con la conmutación de circuitos hemos avanzado en el aprovechamiento de la infraestructura. Sin embargo nos encontramos aún con tres inconvenientes:

En ocasiones no podremos establecer la conexión por no haber circuitos libres, salvo que contratemos un número de circuitos igual al máximo número posible de conexiones simultáneas, lo cual sería muy costoso.

Que un circuito se esté utilizando no garantiza que se esté aprovechando el ancho de banda que tiene asignado; en nuestro ejemplo cada sucursal está conectada 30 minutos para enviar 2 MBytes de información, que cual supone un aprovechamiento del 14% suponiendo que se trata de conexiones de 64 Kb/s.

El servidor ha de tener una conexión física por cada circuito, aun cuando la ocupación media sea reducida.

Para evitar estos inconvenientes se crearon redes en las que el usuario puede mantener una única conexión física a la red, y sobre ella varios circuitos virtuales con equipos remotos. De esta forma podemos dotar a nuestro ordenador central de treinta circuitos virtuales, con lo que las sucursales siempre van a encontrar un circuito libre sobre el cual establecer la conexión. Al mantener un solo enlace físico el costo de las interfaces, módems, etc., es fijo e independiente del número de circuitos virtuales utilizados. Lógicamente al tener el ordenador central que atender a todas las conexiones por el mismo enlace físico sería conveniente (aunque no necesario) incrementar la velocidad de este; en nuestro ejemplo con conexiones el 2% del tiempo y con un tráfico medio del 14%; para las 30 oficinas agregadas nos daría una ocupación media del 8,4% (0.02x0.14x30) suponiendo un reparto homogéneo, cosa poco probable. Como previsiblemente muchas oficinas querrán conectar más o menos a la misma hora sería conveniente ampliar el enlace del servidor a 128 o 256 Kb/s por ejemplo para evitar congestión en horas punta.

Para poder definir circuitos virtuales es preciso disponer de equipos inteligentes en la red que puedan hacer la distribución de los paquetes en función de su destino. Por esto a las redes que permiten crear circuitos virtuales se las denomina redes de conmutación de paquetes, y en cierto sentido podemos considerarlas como la evolución de las redes de conmutación de circuitos. Existen dos tipos de redes de conmutación de paquetes, según ofrezcan servicios orientados a conexión o no orientados a conexión (envío de datagramas). La primera red de conmutación de paquetes que existió fue como ya hemos visto ARPAnet, pero como no era orientada a conexión no se adaptaba bien a un servicio de compañía telefónica. Para facilitar la facturación las redes públicas de conmutación de paquetes suelen ofrecer servicios orientados a conexión en el nivel de red. Actualmente hay tres tipos de redes públicas de conmutación de paquetes orientadas a conexión estandarizadas: X.25, Frame Relay y ATM. Las tres representan implementaciones bastante completas de los tres primeros niveles del Modelo de Referencia OSI, y tienen muchos puntos en común, según veremos a continuación.

La subred de una red de conmutación de paquetes se constituye mediante conmutadores unidos entre sí por líneas dedicadas. La distribución de los conmutadores y la forma como éstos se interconectan, es decir la topología de la red, es algo que decide el proveedor del servicio y que fija la carga máxima que la red podrá soportar en lo que se refiere a tráfico entre conmutadores; la topología fija también la fiabilidad de la red, es decir cuan resistente será a fallos; por ejemplo una red muy mallada será muy fiable y tendrá una gran disponibilidad, ya que en caso de avería de un enlace o conmutador será fácil encontrar un camino alternativo. Cuando un usuario desea conectar un equipo a la red el acceso se hace normalmente mediante una línea dedicada entre el equipo a conectar y el conmutador mas próximo del proveedor de servicio. La velocidad de la conexión entre el equipo y el conmutador establece de entrada un máximo a las prestaciones que ese usuario podrá obtener de la red. Puede haber además otras limitaciones impuestas por la capacidad de la red, por saturación o porque se hayan impuesto limitaciones de acuerdo con lo contratado por el usuario con el proveedor del servicio.

Aunque estamos considerando el caso en que la red de conmutación de paquetes la gestiona una compañía Telefónica (con lo que tenemos una red pública de conmutación de paquetes), también es posible que una organización o conjunto de organizaciones (por ejemplo una gran empresa, una administración o un conjunto de universidades) establezcan una red privada basada en X.25, Frame Relay o ATM. En este caso normalmente la gestión de la red se asigna a algún grupo especializado (por ejemplo el departamento de comunicaciones en el caso de la empresa) que se ocupa de diseñar topología, solicitar los enlaces correspondientes, instalar los conmutadores, etc. Si se desea que la red privada esté interconectada con la red pública es preciso prever que al menos uno de los conmutadores de la red privada esté conectado con la red pública. Desde el punto de vista técnico ambas redes son equivalentes en su funcionamiento, salvo que normalmente en una red privada no se tarifica la utilización, por lo que el control de su utilización no es tan crítico.

En X.25, Frame Relay y ATM existe el concepto de circuito virtual (VC), que puede ser de dos tipos: conmutado o SVC (Switched Virtual Circuit) y permanente o PVC (Permanent Virtual Circuit). El conmutado se establece y termina a petición del usuario, mientras que el permanente tiene que ser definido por el proveedor del servicio, mediante configuración en los conmutadores a los que se conectan los equipos implicados, normalmente mediante modificación contractual con el cliente. En cierto modo podemos considerar los PVCs como 'líneas dedicadas virtuales' mientras que los SVCs son como conexiones RTC 'virtuales'.

X.25


X.25 fue el primer protocolo estándar de red de datos pública. Se definió por primera vez en 1976 por el CCITT (Comité Consultatif International Télégraphique and Téléphonique). Aunque el protocolo ha sido revisado múltiples veces (la última en 1993) ya se ha quedado algo anticuado y no es en la actualidad un servicio interesante en general, debido a su baja eficiencia y velocidad; normalmente no supera los 64 Kb/s, aunque se pueden contratar conexiones de hasta 2.048 Kb/s. A pesar de estas desventajas conviene conocer los aspectos básicos de X.25 pues aun existe una gran cantidad de usuarios de este tipo de redes. Además, en el protocolo X.25 se definieron por primera vez muchos de los conceptos en que se basa Frame Relay y ATM, que podemos considerar en cierto sentido como el X.25 versión 2 y versión 3, respectivamente. El conjunto de estándares que definen X.25 ha sido adoptado como parte del modelo OSI para los tres primeros niveles.

X.25 es un servicio fiable orientado a conexión; los paquetes llegan en el mismo orden con que han salido. Una vez establecido un circuito entre dos NSAPs la información se transfiere en paquetes que pueden ser de hasta 128 bytes (aunque en muchas redes se permiten tamaños de hasta 4 KBytes). En la red los paquetes son transferidos de cada conmutador al siguiente por la técnica de almacenamiento y reenvío y solo son borrados cuando se recibe la notificación de recepción; es necesario que se produzca una confirmación de la correcta recepción del paquete en cada salto que éste realiza en la red. Un mismo NSAP puede tener establecidos varios VCs (PVCs y/o SVCs) hacia el mismo o diferentes destinos.

A nivel físico se definen en X.25 dos interfaces, la X.21 cuando se usa señalización digital (cosa poco habitual) y la X.21bis (un subconjunto de la EIA-232D/V.24) cuando es analógica.

A nivel de enlace se utiliza un protocolo llamado LAP-B (Link Access Procedure-Balanced) que es una versión modificada del estándar ISO HDLC (High-level Data Link Control), que veremos en detalle al estudiar la capa de enlace.

El protocolo utilizado a nivel de red se conoce como X.25 PLP (Packet Layer Protocol). En este nivel se realizan todas las funciones de control de flujo, confirmación y direccionamiento. Cada NSAP (Network Services Access Point) en una red X.25 viene representado por una interfaz de un conmutador X.25, y tiene una dirección única. Las direcciones son numéricas y típicamente pueden tener entre nueve y quince dígitos. Las redes X.25 públicas de muchos países están interconectadas, como ocurre con las redes telefónicas. Para facilitar su direccionamiento la CCITT ha establecido un sistema jerárquico análogo al sistema telefónico en la recomendación X.121; así es posible por ejemplo llamar desde Iberpac (la red X.25 pública española) a una dirección de Transpac (la red pública X.25 francesa), sin más que añadir el prefijo correspondiente a dicha red en la dirección de destino.

Los ordenadores que se conectan a un conmutador X.25 necesitan tener la capacidad suficiente para procesar los complejos protocolos X.25. Cuando se definió el estándar X.25 los ordenadores personales eran caros y poco potentes; muchos usuarios que tenían necesidad de conectarse a redes X.25 no disponían de un ordenador adecuado. Para estos casos se diseñó un equipo capaz de conectar un terminal asíncrono, que trabaja en modo carácter (es decir, un paquete por carácter) a una red X.25. A dicho equipo se le denominó PAD (Packet Assembler Disassembler) ya que se ocupaba de ensamblar y desensamblar los paquetes X.25 que recibía. A través de un PAD un usuario de un PC, o incluso de un terminal 'tonto', podía conectarse a un host en una red X.25 y trabajar como un terminal remoto de aquel. La CCITT publicó tres documentos para especificar todo lo relacionado con el funcionamiento de un PAD: el X.3 describe las funciones propias del PAD, el X.28 define el protocolo de comunicación entre el PAD y el terminal asíncrono, y el X.29 define el protocolo entre el PAD y la red X.25. El uso conjunto de estos tres protocolos permite iniciar una sesión interactiva desde un terminal conectado a un PAD con un ordenador remoto, por lo que se le conoce como el logon remoto XXX. Cuando un usuario en un ordenador conectado a X.25 desea establecer una conexión como terminal remoto de otro ordenador a través de una red X.25 lo hace mediante un programa en su ordenador que emula el comportamiento de un PAD (PAD Emulation). El logon remoto XXX ofrece en redes X.25 un servicio equivalente al de Telnet en TCP/IP. Para el caso de usuarios que no dispongan de un PAD propio muchas compañías telefónicas ponen a su disposición un servicio de acceso a PADs por RTC (normalmente RTB). Este servicio se denomina normalmente X.28, por ser este estándar el que define el protocolo de comunicaciones entre el terminal de usuario y el PAD.

El rendimiento que se obtiene de un VC X.25 depende de muchos factores: velocidad de los accesos físicos implicados, número de VC simultáneos, tráfico en cada uno de ellos, carga de la red, infraestructura, etc.

En España Telefónica inició un servicio de red pública de conmutación de paquetes en 1971 con la red RSAN, basada en unos protocolos propios, no estándar. Esta red hoy desaparecida fue la segunda red de conmutación de paquetes del mundo (después de ARPAnet que empezó en 1969), y la primera establecida por un operador de telefonía. En 1984 Telefónica inició la red Iberpac, que ya obedecía a los estándares X.25. A través de Iberpac es posible acceder a más de 200 redes similares en todo el mundo. Las velocidades de acceso a Iberpac pueden ser de 2,4 a 2.048 Kb/s. Es posible contratar PVCs, aunque lo normal es utilizar SVCs. La tarificación se hace por tres conceptos: en primer lugar una cuota fija mensual según la velocidad de la línea de acceso, en segundo por el tiempo que dura cada llamada (o lo que es lo mismo, el tiempo que esta establecido cada SVC), y en tercer lugar por el número de paquetes transferidos por llamada. Para los dos últimos conceptos existen tres ámbitos de tarificación: nacional, europeo e internacional (en X.25 cuesta lo mismo transferir datos entre dos oficinas vecinas que entre Valencia y La Coruña). Telefónica dispone también de un servicio de acceso X.28 a su red Iberpac, conocido como Datex28.

Los protocolos X.25 se diseñaron pensando en los medios de transmisión de los años setenta, líneas de baja velocidad con tasa de errores elevada. El objetivo era aprovechar lo mejor posible las lentas líneas de transmisión existentes, aun a costa de hacer un protocolo de proceso pesado. Por si esto fuera poco, las redes X.25 casi siempre se utilizan para encapsular tráfico correspondiente a otros protocolos, por ejemplo TCP/IP, SNA o DECNET (podríamos decir que los paquetes de estos protocolos viajan 'disfrazados' en paquetes X.25); cuando se encapsula un protocolo como TCP/IP en X.25 se realizan de forma redundante las tareas de la capa de red, con lo que el resultado es aún mas ineficiente. Para resolver este tipo de problemas a partir de 1990 se empezaron a crear redes basadas en Frame Relay.

Frame Relay


Frame Relay (que podríamos traducir como retransmisión de tramas) nació a partir de los trabajos de estandarización del servicio RDSI, en un intento por crear una versión 'light' de X.25, que permitiera aprovechar las ventajas de los circuitos virtuales pero sin la pérdida de eficiencia que suponían los protocolos excesivamente 'desconfiados' de X.25. En X.25 la capa de enlace y la capa de red eran sumamente complejas; en cambio en Frame Relay ambas se intentaron reducir a su mínima expresión, dejando en manos de los equipos finales toda la labor de acuse de recibo, retransmisión de tramas erróneas y control de flujo; de esta forma Frame Relay se convertía en el complemento perfecto a otros protocolos, tales como TCP/IP. En muchos casos se considera que Frame Relay no es un protocolo a nivel de red sino a nivel de enlace (de ahí su nombre), y aun visto como nivel de enlace resulta bastante ligero.

El servicio que suministra Frame Relay consiste básicamente en identificar el principio y final de cada trama, y detectar errores de transmisión. Si se recibe una trama errónea simplemente se descarta, confiando en que el protocolo de nivel superior de los equipos finales averiguará por sí mismo que se ha perdido una trama y decidirá si quiere recuperarla o si por el contrario prefiere ignorarla. A diferencia de X.25, Frame Relay no tiene control de flujo ni genera acuse de recibo de los paquetes (estas tareas se dejan al nivel de transporte o de aplicación en los equipos finales). El tamaño máximo de los paquetes varía según las implementaciones entre 1 KB y 8 KB. La velocidad de acceso a la red típicamente esta entre 64 y 2.048 Kb/s, aunque también se ha estandarizado la velocidad de 34 Mb/s.

Una novedad importante de Frame Relay estriba en que se define un ancho de banda 'asegurado' para cada circuito virtual mediante un parámetro conocido como CIR (Committed Information Rate). Un segundo parámetro, conocido como EIR (Excess Information Rate) define el margen de tolerancia que se da al usuario, es decir, cuanto se le va a dejar 'pasarse' del CIR contratado. Por ejemplo, supongamos que un ordenador se conecta a una red Frame Relay mediante una línea de acceso a la red de 1.984 Kb/s, y tiene dos circuitos permanentes (PVCs) establecidos con otros dos ordenadores, cada uno de ellos con un CIR de 256 Kb/s y un EIR de 256 Kb/s; en este caso cada circuito tendrá asegurado un ancho de banda de 256 Kb/s como mínimo, y si la red no está saturada podrá llegar a 512 Kb/s; si un circuito intenta utilizar mas de 512 Kb/s el conmutador Frame Relay empezará a descartar tramas. Obsérvese que en este caso la línea de acceso nunca llegaría a saturarse, ya que como mucho podrían enviarse 512 Kb/s por cada circuito. La especificación del CIR para un circuito virtual se hace de forma independiente para cada sentido de la transmisión, y puede hacerse asimétrica, es decir con un valor distinto del CIR para cada sentido.

Cuando un usuario hace uso del EIR (es decir, genera un tráfico superior al CIR contratado en un circuito virtual) el conmutador Frame Relay pone a 1 en las tramas excedentes un bit especial denominado DE (Discard Elegibility). Si se produce congestión en algún punto de la red el conmutador en apuros descartará en primera instancia las tramas con el bit DE marcado, intentando resolver así el problema. Este mecanismo permite a un usuario aprovechar la capacidad sobrante en la red en horas valle sin perjudicar la calidad de servicio a otros usuarios en horas punta, ya que entonces se verá limitado a su CIR. En realidad el CIR tampoco está garantizado, ya que si la congestión no se resuelve descartando las tramas DE el conmutador empezará a descartar tramas normales (no marcadas como DE) que pertenecen a usuarios que no han superado su CIR. Afortunadamente las redes Frame Relay se suelen dimensionar de forma que el CIR de cada usuario esté prácticamente garantizado en todo momento. En cierto modo podemos imaginar el bit DE como equivalente a la 'reserva de asiento' en un billete de tren (el bit a 0 significaría en este caso tener hecha la reserva).

Una red Frame Relay podría utilizarse en vez de líneas dedicadas para interconectar conmutadores X.25; a la inversa (usar una red X.25 para unir entre sí conmutadores Frame Relay) sería mucho más difícil ya que al ser X.25 una red más lenta los retardos introducidos serían apreciados por los usuarios de Frame Relay.

En ocasiones se utilizan redes Frame Relay para transmitir voz digitalizada; esto no es posible con X.25 debido a la lentitud del protocolo, que introduciría unos retardos excesivos; el envío de voz por una red tiene unos requerimientos especialmente severos en cuanto a retardos para que la transmisión se efectúe correctamente.

La red pública Frame Relay de Telefónica se denomina Red Uno, y esta operativa desde 1992. Aunque Telefónica anunció la disponibilidad de SVCs en Frame Relay para 1997, parece que estos aun no están disponibles y el único servicio contratable es el de PVCs. La tarificación se realiza por dos conceptos: el primero es una cuota fija mensual en función de la velocidad de acceso a la red; el segundo es una cuota fija al mes por cada circuito según el valor de CIR que se tenga contratado; en ambos casos la tarifa depende de la distancia. El EIR no se especifica en el contrato, y por tanto no se paga, pero tampoco se compromete su valor por parte de Telefónica. La velocidad del acceso físico puede tener valores comprendidos entre 64 y 1.984 Kb/s. El CIR puede ser de 0 a 1.984 Kb/s. Al no existir circuitos conmutados la Red Uno no es una red abierta como lo son Iberpac o la RTC. Es posible la conexión internacional con muchas otras redes Frame Relay gracias a acuerdos suscritos con diversos operadores.

ATM y B-ISDN


Casi todos los servicios de comunicación que hemos visto hasta ahora fueron diseñados para la transmisión de voz o datos, pero no ambos. La RTB y la red GSM, pensadas para la voz, pueden transmitir datos, pero no están diseñadas para ello y sólo pueden hacerlo a muy bajas velocidades. Las líneas dedicadas y redes Frame Relay, pensadas para datos, pueden transmitir voz si se utilizan los equipos apropiados y se respetan ciertas restricciones.

El único servicio de los que hemos visto hasta ahora que se diseñó pensando en voz y datos es la RDSI (de ahí el nombre de Red Digital de Servicios Integrados). Pero la RDSI tiene dos inconvenientes importantes:

Al ser una red de conmutación de circuitos reales la reserva del ancho de banda se realiza durante todo el tiempo que está establecida la comunicación, independientemente de que se estén transfiriendo datos o no (o en el caso de transmitir voz independientemente de que se esté hablando o se esté callado).

El estándar RDSI se empezó a definir en 1984. En aquel entonces las líneas dedicadas eran de 9.6 Kb/s en el mejor de los casos y hablar de enlaces a 64 Kb/s parecía algo realmente avanzado; sin embargo el proceso de estandarización tardó mas de lo previsto (cosa que ocurre a menudo) y cuando aparecieron los primeros servicios RDSI diez años más tarde la red 'avanzada' resultaba interesante sólo en entornos domésticos y de pequeñas oficinas; resultando claramente insuficiente para las nuevas aplicaciones.

Una de esas nuevas aplicaciones era el vídeo en movimiento (videoconferencia y vídeo bajo demanda) que tiene unos requerimientos distintos a la voz y los datos. De una forma muy concisa resumimos en la siguiente tabla las características esenciales de cada tipo de tráfico:


Tipo de información
Capacidad
Pérdida tolerable
Retardo
Fluctuación Retardo
Datos
Variable
Muy baja
Alto
Alto
Audio en tiempo real unidireccional (monólogo)
Baja
Baja
Bajo
Muy baja
Audio en tiempo real bidireccional (diálogo)
Baja
Baja
Muy bajo
Muy baja
Vídeo en tiempo real unidireccional
Alta
Media
Bajo
Baja
Vídeo en tiempo real bidireccional (videoconferencia)
Alta
Media
Muy bajo
Baja

Tabla 1.3.- Necesidades de los diversos tipos de tráfico


Cuando una red está preparada para transmitir tanto audio y vídeo como datos informáticos decimos que es una red multimedia. Generalmente el tráfico multimedia tiene unas necesidades muy variables de ancho de banda, se dice que es un tráfico a ráfagas ('bursty traffic').

Cuando se tiene tráfico a ráfagas resulta especialmente útil disponer de una red de conmutación de paquetes con circuitos virtuales, ya que de ese modo unos usuarios pueden aprovechar en un determinado instante el ancho de banda sobrante de otros. Sin embargo las redes de este tipo que hemos visto hasta ahora (X.25 y Frame Relay) no son apropiadas para tráfico multimedia porque el retardo y la fluctuación de éste (también llamada ‘jitter’) son generalmente excesivos (especialmente en X.25) y además resultan impredecibles cuando la red está cargada.

Las compañías telefónicas vienen trabajando desde hace bastante tiempo en el diseño de una red adecuada al tráfico multimedia que permita aprovechar las ventajas de la conmutación de paquetes, para así utilizar de forma más eficiente las infraestructuras y ofrecer servicios nuevos, tales como la videoconferencia o el vídeo bajo demanda. La tecnología que permite todo esto se denomina ATM (Asynchronous Transfer Mode) y sus orígenes se remontan nada menos que a 1968, cuando se concibió en los laboratorios Bell el primer sistema de transmisión de celdas. En esencia lo que se intenta con esta nueva tecnología es integrar todos los servicios (audio, vídeo y datos) en una única red digital, es decir lo mismo que pretendía la RDSI más el vídeo (aunque como hemos visto RDSI llegó demasiado tarde). Por este motivo ATM también se denomina a veces RDSI de banda ancha, RDSI-BA o B-ISDN (Broadband-ISDN). Por contraste a la 'antigua' RDSI se la denomina en ocasiones RDSI de banda estrecha; RDSI-BE o N-ISDN (Narrowband-ISDN).

En 1986 la CCITT definió el concepto de RDSI-BA y eligió ATM como la tecnología sobre la que se basarían los futuros estándares. En aquel entonces ATM interesaba exclusivamente a las compañías telefónicas. Gradualmente los fabricantes de ordenadores se fueron percatando de las posibilidades de ATM y en 1991 decidieron crear el ATM forum, una organización que produciría estándares con un dinamismo mayor que la CCITT. En el ATM forum participan compañías telefónicas y fabricantes de ordenadores de todo el mundo, y es actualmente allí donde se decide fundamentalmente la evolución de ATM; la mayoría de los estándares aprobados por el ATM Forum son refrendados posteriormente por la CCITT. El primer conmutador ATM comercial apareció precisamente en 1991.

ATM es en parte una evolución de Frame Relay. La principal diferencia es que los ‘paquetes’ ATM tienen una longitud fija de 53 bytes (5 de cabecera y 48 de datos) frente al tamaño variable y mucho mayor de las tramas Frame Relay. Debido a su tamaño pequeño y constante los paquetes ATM se denominan celdas, y por esto en ocasiones a ATM se le denomina cell relay (retransmisión de celdas). Manejar celdas de un tamaño tan reducido tiene la ventaja de que permite responder con mucha rapidez a tráfico de alta prioridad que pueda llegar inesperadamente mientras se están transmitiendo otro menos urgente, algo muy importante en tráfico multimedia. El hecho de que todas las celdas sean del mismo tamaño simplifica el proceso, cuestión esencial cuando se quiere que dicho proceso sea lo más rápido posible. En el lado negativo está el overhead del 9,4% (5/53) debido a la información de cabecera presente en cada celda.

Al igual que en X.25 o Frame Relay, una red ATM se constituye mediante conmutadores interconectados por líneas dedicadas, y ordenadores o hosts conectados a dichos conmutadores. Mientras que en X.25 o Frame Relay se utilizan normalmente velocidades de 64 Kb/s a 2 Mb/s, en ATM las velocidades normales son de 155,52, 622,08 Mb/s o incluso superiores (aunque también s posible utilizar ATM a velocidades de 2 ó 34 Mb/s). Estos valores de 155,52 Mb/s en adelante son los que se utilizan en el sistema de transmisión SONET/SDH (Synchronous Optical NETwork/Synchronous Digital Hierarchy), desarrollado por la CCITT más o menos en la misma época que ATM. SONET/SDH es una tecnología de transporte de información sobre fibra óptica para redes WAN y es el que están utilizando las compañías telefónicas de todo el mundo actualmente en el desarrollo de sus infraestructuras de alta capacidad.

ATM da al usuario muchas mas facilidades que X.25 o Frame Relay para controlar las características de su circuito virtual: se puede fijar un ancho de banda máximo utilizable, un margen de tolerancia sobre dicho máximo, un ancho de banda mínimo garantizado, un ancho de banda asimétrico, un perfil horario de forma que el ancho de banda fluctúe con la hora del día de una forma preestablecida, etc. Además es posible definir prioridades y distintos tipos de tráfico según se prefiera fiabilidad o rapidez, tráfico constante o a ráfagas, etc.

El modelo de referencia ATM

ATM tiene su propio modelo de referencia, constituido por tres capas denominadas capa física, capa ATM y capa de adaptación ATM, también llamada capa AAL (ATM Adaptation Layer).

La capa física está formada por dos subcapas: la PMD (Physical Media Dependent) y la TC (Transmission Convergence). La subcapa PMD describe la interfaz física con el medio de transmisión, y equivale a la capa física del modelo OSI. La subcapa TC se ocupa de 'deshacer' las celdas en bits para pasarlos a la subcapa PMD en el envío, y de recibir los bits de la subcapa PMD para reconstruir las celdas en la recepción. Si consideramos la celda como equivalente a la trama del modelo OSI la subcapa TC desempeñaría la función de la capa de enlace, por lo que la estudiaremos en ese capítulo.

La capa ATM trata de la estructura de las celdas y su transporte. También realiza las tareas de señalización, es decir establece y termina los circuitos virtuales, y realiza el control de congestión. Sus funciones son una mezcla de la capa de enlace y la capa de red en el modelo OSI.

La capa de adaptación ATM (capa AAL) se divide también en dos subcapas; la inferior, denominada subcapa SAR (Segmentation And Reassembly) se ocupa de fragmentar el paquete que recibe desde ‘arriba’ (normalmente mayor de 48 bytes) en celdas para su envío, y de reensamblarlo en la recepción cuando se lo entrega la capa ATM. La subcapa CS (Convergence Sublayer) se ocupa de suministrar distintos tipos de servicio adecuados al tipo de tráfico (vídeo, audio, datos. etc.). Haciendo la equivalencia con el modelo OSI podemos decir que la capa AAL corresponde a la capa de transporte.

Obsérvese que en el modelo de referencia ATM no se habla de aplicaciones. En realidad el modelo contempla la existencia de capas por encima de la capa AAL, pero no se especifican sus funciones ni características. El modelo deja total libertad en el diseño de aplicaciones sobre ATM. Actualmente el principal uso de ATM es como medio de transporte para otros protocolos; hay muy pocas aplicaciones que hayan sido diseñadas para funcionar de manera nativa en ATM, es decir directamente sobre la capa AAL.

Futuro de ATM

Hace unos años nadie cuestionaba el liderazgo de la tecnología ATM cuando se trata de redes de alta capacidad. Hoy en día se estima que aproximadamente el 80% del tráfico de datos  nivel mundial atraviesa en algún punto una red ATM. Sin embargo las previsiones para ATM no son actualmente tan optimistas como lo eran hace unos años. Por un lado no ha sido capaz de imponerse como protocolo de red, la mayoría de las aplicaciones actualmente siguen funcionando sobre IP, incluso en el campo de aplicaciones multimedia en tiempo real que parecía ser el territorio ideal para ATM; por otro lado se plantean tecnologías competidoras, tales como Gigabit Ethernet en LAN y POS (Packet Over SONET) en WAN. Aunque sin duda ATM seguirá dando mucho que hablar durante bastantes años las cosas ya no apuntan a que se convierta en la ‘tecnología universal’ como parecía en 1996-1997.

En España Telefónica inició en 1996 dos servicios de red ATM denominados servicio Gigacom y  Servicio Cinco (Comunicaciones Integrales Corporativas). Estos servicios están orientados a clientes con grandes necesidades de transmisión de datos multimedia; solo se permite la constitución de PVCs; las velocidades de acceso van de 512 Kb/s a 155 Mb/s. Este servicio es una alternativa interesante a las líneas dedicadas de alta velocidad, ya que permite contratar servicios de acuerdo a horarios preestablecidos, por ejemplo un periódico que necesita 4 Mb/s de capacidad entre sus oficinas de Madrid y Barcelona todos os días de 1 a 2 de la madrugada para transmitir la edición del día siguiente.