Redes
sábado, 9 de marzo de 2013
Estandares
En nuestra vida diaria estamos rodeados de estándares,
incluso para las cosas más triviales como los pasos de rosca o el tamaño de las
hojas de papel. En algunos casos el estándar hace la vida más cómoda (por
ejemplo el formato A4 permite una manipulación cómoda de documentos), en otros
es necesario para asegurar la interoperabilidad (roscar una tuerca en un
tornillo, por ejemplo). Los estándares en materia de telecomunicaciones
pertenecen al segundo tipo, es decir, son esenciales para asegurar la
interoperabilidad entre diversos fabricantes, cosa esencial si se quieren hacer
redes abiertas, es decir si no se quiere ser cautivo de un fabricante en
particular. Los estándares pueden ser de ámbito regional, nacional o
internacional; por ejemplo en Estados Unidos el formato habitual de papel no es
el A4 sino el tamaño carta o letter, que es un poco mas pequeño y
constituye un estándar nacional. Las telecomunicaciones son probablemente la
primera actividad humana en la que se reconoció la necesidad de definir
estándares internacionales; ya en 1865 representantes de muchos países europeos
se reunieron para crear una organización que se ocupara de estandarizar las
comunicaciones por telégrafo, acordando cosas tales como el código a utilizar;
dicha organización fue la predecesora de la actual ITU (International
Telecommunication Union).
Conviene destacar que la pertenencia de un país a una
determinada organización no asegura su adhesión a los estándares emanados de la
misma. Por ejemplo, el tamaño de papel A4 es parte de un estándar de la ISO
(International Organization for Standardization) que es seguido por la mayoría
de los países del mundo pero no por Estados Unidos, donde como ya hemos
comentado se prefiere el tamaño carta, a pesar de que Estados Unidos también es
miembro de la ISO.
Generalmente se suele distinguir dos tipos de estándares: de
facto y de jure. Los estándares de facto (del latín 'del hecho')
ocurren cuando un determinado producto o pauta de comportamiento se extiende en
una comunidad determinada sin una planificación previa, hasta el punto de que
ese producto o comportamiento se considera 'normal' dentro de esa comunidad.
Los estándares de facto ocurren de forma natural y progresiva, sin una
planificación previa ni un proceso formal que los refrende. Por ejemplo en
informática personal podemos decir que el PC IBM o compatible (generalmente con
software Microsoft) es un estándar de facto; en entornos universitarios de
docencia e investigación en informática el uso de sistemas operativos UNIX es
mayoritario, por lo que podemos decir que es un estándar de facto. Los
estándares de facto también se llaman a veces 'estándares de la industria'.
Los estándares de jure (del latín 'por ley') son fruto de un
acuerdo formal entre las partes implicadas, después de un proceso de discusión,
consenso y a menudo votación. Se adoptan en el seno de una organización cuya
principal misión es la elaboración o aprobación de estándares; si dicha
organización tiene ámbito internacional el estándar definido es internacional.
Existen dos tipos de organizaciones internacionales: las que podemos denominar
'oficiales' se crean por acuerdo entre los gobiernos de las naciones
participantes; en este grupo se encuentran por ejemplo la ITU o la ISO. En otra
categoría se encuentran las organizaciones que existen gracias al esfuerzo
voluntario de sus miembros y que podemos denominar ‘extraoficiales’; en esta
categoría están por ejemplo la Internet Society o el ATM forum.
En el mundo de las redes de ordenadores existen hoy en día
como hemos visto dos conjuntos de protocolos estándar, el OSI y el TCP/IP, pero
ambos son relativamente recientes. En los años setenta y ochenta en que no
había protocolos estándar la forma más sencilla de constituir una red
multifabricante era utilizar los protocolos de IBM: SNA o su predecesor el NJE,
Network Job Entry; como los equipos IBM eran los más extendidos casi todos los
fabricantes disponían de productos que implementaban estos protocolos en sus
equipos; además, en muchos casos la mayoría de los ordenadores a conectar era
IBM por lo que el software necesario era fácil de obtener o venía incluido con
el sistema operativo. Podemos decir que en los años setenta y parte de los
ochenta los protocolos SNA y NJE eran un ‘estándar de facto’.
Pasaremos ahora a describir con más detalle las principales
organizaciones que tienen alguna relación con los estándares del campo de la
telemática.
La ISO
Muchos países tienen organizaciones nacionales de estándares
donde expertos de la industria y las universidades desarrollan estándares de
todo tipo. Entre ellas se encuentran por ejemplo las que aparecen en la tabla
1.4.
País
|
Abreviatura
|
Nombre completo
|
Estados Unidos
|
ANSI
|
American National
Standards Institute
|
Alemania
|
DIN
|
Deutsches Institut fuer
Normung
|
Reino Unido
|
BSI
|
British Standards
Institution
|
España
|
AENOR
|
Asociación Española de Normalización
|
Francia
|
AFNOR
|
Association Francaise de
Normalisation
|
Italia
|
UNI
|
Ente Nazionale Italiano de Unificatione
|
Países Bajos
|
NNI
|
Nederlands
Normalisatie-Instituut
|
Australia
|
SAA
|
Standards Australia
|
Nueva Zelanda
|
SANZ
|
Standards Association
of New Zealand
|
Noruega
|
NSF
|
Norges
Standardiseringsforbund
|
Dinamarca
|
DS
|
Dansk Standard
|
Tabla 1.4.- Organizaciones de estandarización/normalización de algunos
países del mundo.
La ISO (International Organization for Standardization) es
una organización voluntaria (es decir, no es fruto de tratados internacionales)
creada en 1946 con sede en Ginebra, Suiza. Sus miembros son las organizaciones
nacionales de estándares de los 89 países miembros. A menudo un estándar de uno
de sus miembros es adoptado por ISO como estándar internacional; esto ocurre
especialmente con los miembros más importantes, ANSI, DIN, BSI y AFNOR.
ISO emite estándares sobre todo tipo de asuntos, como por
ejemplo: el sistema métrico de unidades de medida, tamaños de papel, sobres de
oficina, tornillos y tuercas, reglas para dibujo técnico, conectores
eléctricos, regulaciones de seguridad, componentes de bicicleta, números ISBN
(International Standard Book Number), lenguajes de programación, protocolos de
comunicaciones, etc. Hasta la fecha se han publicado unos 10.000 estándares ISO
que afectan a prácticamente cualquier actividad de la vida moderna.
Para realizar esta ingente labor ISO se organiza en cerca de
200 comités técnicos denominados TC (Technical Committee) que se numeran en
orden ascendente según su fecha de creación. El que nos interesa a nosotros es
el TC97 que trata de ordenadores y proceso de la información. Cada comité tiene
subcomités (SCs) que a su vez se dividen en grupos de trabajo o WGs (Working Groups).
El proceso de creación de un estándar ISO es como sigue. Uno
de sus miembros (una organización nacional de estándares) propone la creación
de un estándar internacional en un área concreta. Entonces ISO constituye un
grupo de trabajo que produce un primer documento denominado borrador del comité
o CD (Committee Draft). El CD se distribuye a todos los miembros de ISO, que
disponen de un plazo de seis meses para exponer críticas. El documento,
modificado de acuerdo con las críticas recibidas, se somete entonces a votación
y si se aprueba por mayoría se convierte en un estándar internacional borrador
o DIS (Draft International Standard) que se difunde para recibir comentarios,
se modifica y se vota nuevamente. En base a los resultados de esta votación se
prepara, aprueba y publica el texto final del estándar internacional o IS
(International Standard). En áreas muy polémicas un CD o un DIS han de superar
varias versiones antes de conseguir un número de votos suficiente, y el proceso
entero puede llevar años.
ISO ha generado multitud de estándares en telemática y en
tecnologías de la información en general, siendo OSI su ejemplo más
significativo. Además a menudo ISO adopta estándares producidos por sus
organizaciones miembros o por otras organizaciones relacionadas; por ejemplo
ISO adopta sistemáticamente los estándares 802 del IEEE sobre redes locales.
La ITU-T
La ITU (International Telecommunication Union) fue creada en
1934, y con la creación de la ONU se vinculó a ésta en 1947. La ITU tiene tres
sectores de los cuales solo nos interesa el conocido como ITU-T que se dedica a
la estandarización de las telecomunicaciones. Desde 1956 a 1993 la ITU-T se
conoció con el nombre CCITT, acrónimo del nombre francés Comité Consultatif
International Télégraphique et Téléphonique. En 1993 el CCITT fue reorganizada
y se le cambió el nombre a ITU-T; estrictamente hablando el cambio de nombre
tiene efectos retroactivos, es decir, los documentos vigentes, aun cuando
fueran producidos antes de 1993, son hoy documentos de la ITU-T y no del CCITT.
Los miembros de la ITU-T son
de cinco clases:
- Representantes de los países.
- Operadores privados reconocidos (por Ej. British Telecom, Global One, AT&T).
- Organizaciones regionales de telecomunicaciones (p. Ej. el ETSI).
- Empresas que comercializan productos relativos a telecomunicaciones y organizaciones científicas
- Otras organizaciones interesadas (bancos, líneas aéreas, etc.)
Entre los miembros hay unos 200 representantes de países,
unos cien operadores privados y varios cientos de miembros de las otras clases.
Sólo los representantes de los países tienen derecho a voto, pero todos los
miembros pueden participar en el trabajo.
Para desarrollar su trabajo la ITU-T se organiza en Grupos
de Estudio, que pueden estar formados por hasta 400 personas. Los Grupos de
Estudio se dividen en Equipos de Trabajo (Working Parties), que a su vez se
dividen en Equipos de Expertos (Expert Teams).
Las tareas de la ITU-T comprenden la realización de
recomendaciones sobre interfaces de teléfono, telégrafo y comunicaciones de
datos. A menudo estas recomendaciones se convierten en estándares reconocidos
internacionalmente, por ejemplo la norma ITU-T V.24 (también conocida como EIA
RS-232) especifica la posición y el significado de las señales en el conocido
conector de 25 contactos utilizado en muchas comunicaciones asíncronas.
La ITU-T denomina a sus estándares 'recomendaciones'; con
esto se quiere indicar que los países tienen libertad de seguirlas o no.
Ignorarlas puede suponer quedar aislado del resto del mundo, por lo que en la
práctica a menudo las recomendaciones se traducen en obligaciones.
Todos los estándares de la ITU-T se nombran mediante una
letra seguida de un punto seguido a su vez de números. La letra identifica la
serie, por ejemplo todo lo relativo a módems se encuentra en la serie V (V.32,
V.42, ...); la serie X trata sobre redes de datos y OSI (X.25, X.400,...), las
series I y Q definen la RDSI, la serie H comprende todo lo relativo a
codificación digital de vídeo y videoconferencia (H.263, H.323, etc.).
Foros industriales
El proceso de elaboración de estándares de la ITU-T y la ISO
siempre se ha caracterizado por una gran lentitud, debido quizá a la necesidad
de llegar a un consenso entre muchos participantes y a procedimientos
excesivamente complejos y burocratizados. Esa lentitud fue uno de los factores
que influyó en el rechazo de los protocolos OSI, por ejemplo. En el caso de
RDSI la ITU-T empezó a elaborar el estándar en 1972, y lo finalizó en 1984; los
servicios comerciales aparecieron hacia 1994, 22 años después de iniciado el
proceso.
Los fabricantes de equipos, que perdían gran cantidad de
mercado por culpa de estos retrasos, no estaban dispuestos a seguir funcionando
de la misma forma. Por ello a principios de los noventa surgió un nuevo
mecanismo para acelerar la creación de estándares, que fue la creación de foros
industriales. La idea era simple: un conjunto de fabricantes, usuarios y
expertos interesados en desarrollar una tecnología concreta forman un consorcio
que se ocupa de fijar los estándares necesarios para garantizar la
interoperabilidad entre diversos fabricantes; los estándares se hacen públicos
de forma que cualquier fabricante que lo desee puede desarrollar productos
conformes con dicho estándar.
Los foros no pretenden competir con las organizaciones
internacionales de estándares, sino cooperar con ellas y ayudarlas a acelerar
su proceso, especialmente en la parte más difícil, la que corresponde a la
traducción de los documentos en implementaciones que funcionen en la práctica.
Generalmente los foros trabajan en los mismos estándares intentando aclarar
ambigüedades y definir subconjuntos de funciones que permitan hacer una
implementación sencilla en un plazo de tiempo más corto y comprobar la
viabilidad y la interoperabilidad entre diversos fabricantes; así los
organismos de estandarización pueden disponer de prototipos reales del estándar
que se está definiendo. En cierto modo es como traer a la ISO e ITU-T el estilo
de funcionamiento de la IETF.
Otra característica de los foros es que se establecen fechas
límite para la producción de estándares, cosa que no hacen los organismos
oficiales; de esta manera los fabricantes pueden planificar la comercialización
de sus productos de antemano, ya que saben para qué fecha estarán fijados los
estándares necesarios.
Como ejemplo de forums industriales que existen o han
existido podemos mencionar el Forum Frame Relay, el Forum ATM, el Forum ADSL
(Asymmetric Digital Subscriber Loop), el Forum IPv6, la alianza Gigabit Ethernet,
etc. El forum ATM, creado en 1991 por Northern Telecom, Sprint, Sun
Microsystems, y Digital Equipment Corporation (DEC), cuenta en la actualidad
con más de 500 miembros
Otras organizaciones
La Internet Society, aunque no es una organización de
estándares ‘oficial’, es la que se ocupa de aprobar todo lo relacionado con los
estándares Internet. Debido a su importancia y estrecha relación con la propia
Internet aplazaremos el estudio de dicha organización a la descripción de la
evolución de Internet que abordaremos en el capítulo 9.
El IEEE (Institute of Electrical and Electronics Engineers)
es una asociación profesional de ámbito internacional. Aparte de otras muchas
tareas el IEEE (también llamado IE cubo) tiene un grupo que desarrolla
estándares en el área de ingeniería eléctrica e informática. Entre ellos se
encuentran por ejemplo los estándares 802 que cubren casi todo lo relacionado
con redes locales. Los estándares 802 son adoptados regularmente por ISO con el
número 8802.
El ANSI es como ya hemos dicho la organización de estándares
de los Estados Unidos. Debido a que muchos fabricantes de equipos de
comunicaciones diseñan o desarrollan sus productos en Estados Unidos muchos
estándares ANSI son de interés también en otros países. Además muchos
estándares ANSI son adoptados posteriormente por ISO como estándares
internacionales.
El NIST (National Institute of Standards and Technology) es
una agencia del Departamento de Comercio de los Estados Unidos., antes conocido
como el NBS (National Bureau of Standards). Define estándares para la
administración de los Estados Unidos.
El ETSI (European Telecommunications Standards Institute) es
una organización internacional dedicada principalmente a la estandarización de
las telecomunicaciones europeas. Es miembro de la ITU-T. Entre sus misiones
está elaborar especificaciones detalladas de los estándares internacionales
adaptadas a la situación de Europa en los aspectos históricos, técnicos y
regulatorios.
La EIA (Electrical
Industries Association) es una organización internacional que agrupa a la
industria informática y que también participa en aspectos de la elaboración de
estándares.
La ECMA (European Computer Manufacturers Association),
creada en 1961, es un foro de ámbito europeo donde expertos en proceso de datos
se ponen de acuerdo y elevan propuestas para estandarización a ISO, ITU-T y
otras organizaciones.
La CEPT (Conference European of Post and Telecommunications)
es una organización de las PTTs europeas que participa en la implantación de estándares
de telecomunicaciones en Europa. Sus documentos se denominan Norme Europeene de
Telecommunication (NET). La CEPT está avalada por la Comunidad Europea.
Transmisión de datos en redes WAN
Dado que cualquier usuario puede solicitar un acceso a las
redes que operan las compañías telefónicas, a éstas se las denomina redes
públicas de datos (PDN, Public Data Networks). Cuando se desea interconectar
ordenadores o redes locales ubicadas a cierta distancia es preciso normalmente
utilizar los servicios de alguna de esas redes públicas. Dichos servicios
pueden clasificarse de acuerdo con el tipo de conexión que ofrecen, permanente
o temporal, y con el tipo de circuito, real o virtual. Esquemáticamente sería:
Tipo de circuito
|
Tipo de conexión
|
|
Permanente
|
Temporal
|
|
Real
|
Líneas dedicadas
|
Redes de conmutación de circuitos
(RTB, RDSI, GSM)
|
Virtual
|
Redes de conmutación con PVCs (X.25, Frame Relay,
ATM)
|
Redes de conmutación con SVCs (X.25, Frame Relay,
ATM)
|
Tabla 1.2.- Clasificación de los tipos de servicio de transmisión de
datos por líneas telefónicas según el tipo de circuito y conexión.
En la práctica suele utilizarse en cada caso el servicio más
conveniente por sus prestaciones y precio, por lo que las redes suelen mezclar
varios de los servicios que hemos mencionado. Vamos a dar una pequeña
descripción de cada uno de ellos.
Líneas dedicadas
La solución mas simple para una red es el circuito real
permanente, constituido por lo que se conoce como líneas dedicadas o líneas
alquiladas (leased lines en inglés); está formado por un enlace punto a
punto permanente entre los ordenadores o routers que se desean unir. Una línea
dedicada es únicamente un medio de transmisión de datos a nivel físico, todos
los protocolos de niveles superiores han de ser suministrados por el usuario.
La red ARPAnet que hemos visto anteriormente se constituyó
mediante líneas dedicadas. La Internet incorpora actualmente todos los
servicios que hemos mencionado.
Normalmente no es posible contratar una línea dedicada de
una velocidad arbitraria, existen unas velocidades prefijadas que son las que
suelen ofrecer las compañías telefónicas y que tienen su origen en la propia
naturaleza del sistema telefónico, como veremos más adelante. Por ejemplo
Telefónica de España ofrece líneas dedicadas de las siguientes velocidades:
9,6, 64, 128, 192, 256, 512 y 2.048 Kb/s. El precio de una línea dedicada es
una cuota fija mensual que depende de la velocidad y de la distancia entre los
dos puntos que se unen. La cuota es independiente del uso (corresponde por
tanto con lo que se conoce como ‘tarifa plana’).
En las líneas dedicadas la capacidad contratada está
reservada de forma permanente en todo el trayecto. Su costo es elevado y por
tanto su instalación generalmente sólo se justifica cuando el uso es elevado
(al menos tres o cuatro horas al día). Por este motivo las líneas dedicadas no
suelen utilizarse en casos en que se necesita una conexión esporádica, por
ejemplo una oficina que requiere conectarse unos minutos al final del día para
transferir unos ficheros, o un usuario doméstico que se conecta a Internet en
los ratos de ocio.
Para mostrar el elevado consumo de recursos que representan
las líneas dedicadas pondremos un ejemplo: supongamos que la empresa X con sede
central en Valencia ha abierto treinta sucursales en distintos puntos de
España, y necesita que los ordenadores de las sucursales comuniquen con la sede
central todos los días durante treinta minutos cada uno para transferir 2
MBytes de información. Para esto la empresa solicita 30 líneas dedicadas de 64
Kb/s a la compañía telefónica, constituyendo una red con topología de estrella.
Aunque cada línea se utiliza únicamente el 2% del tiempo (0,5/24) con una
eficiencia del 14% (2 MB*8/(0,064*30*60)) el ancho de banda está reservado en
su totalidad de forma permanente. Además, se requieren treinta interfases
físicas en el servidor, lo cual encarece y complica bastante la red.
Conmutación de circuitos
La conmutación de circuitos supone una utilización más
óptima de los recursos que las líneas dedicadas, ya que la conexión extremo a
extremo sólo se establece durante el tiempo necesario. Para la transmisión de
datos mediante conmutación de circuitos se utiliza la misma red que para la
transmisión de la voz, mediante módems o adaptadores apropiados. Genéricamente
se la denomina Red Telefónica Conmutada (RTC) o PSTN (Public Switched Telephone
Network) y comprende en realidad tres redes diferentes:
La Red de Telefonía Básica (RTB) también llamada POTS (Plain
Old Telephone Service); Está formada por las líneas analógicas tradicionales y
por tanto requiere el uso de módems; la máxima velocidad que puede obtenerse en
este tipo de enlaces es de 33.6 Kb/s, salvo el caso en que la transmisión se
origine en un acceso RDSI, en cuyo caso puede obtenerse una velocidad máxima de
56 Kb/s.
La Red Digital de Servicios Integrados (RDSI) también
llamada ISDN (Integrated Services Digital Network). Está formada por enlaces
digitales hasta el bucle de abonado, por lo que el circuito es digital de extremo
a extremo. La velocidad por circuito (también llamado canal) es de 64 Kb/s,
pudiendo con relativa facilidad agregarse varios canales en una misma
comunicación para obtener mayor ancho de banda.
La Red GSM
(Global System for Mobile communications). Se trata de conexiones
digitales, como en el caso de la RDSI, pero por radioenlaces. La capacidad
máxima de un circuito GSM cuando se transmiten datos es de 9.6 Kb/s.
La RDSI apareció en España hacia 1994, y la red GSM hacia
1995. Dado que hasta fechas recientes el único sistema de RTC era la RTB a
menudo se utilizan ambos términos indistintamente para indicar la red
telefónica analógica. Para evitar confusiones conviene usar el término RTB al
referirse a la red telefónica analógica, y reservar el término RTC para
referirnos al conjunto de todas las redes conmutadas existentes, ahora o en el
futuro.
En el caso de la RTC cualquier par de usuarios puede
comunicar entre sí siempre que conozca su dirección o número de teléfono, por
lo que podemos ver la RTC como una gran nube a la que se conectan multitud de
usuarios. Una vez establecido un circuito entre dos abonados la función que
desempeña para los protocolos de nivel superior es equivalente a la de una
línea dedicada.
Telefónica de España dispone de los tres tipos de RTC (RTB,
RDSI y GSM), con tarificación por tiempo de conexión. En el caso de RTB y RDSI
se aplica una tarificación con cuatro ámbitos: metropolitano, provincial,
nacional e internacional (éste último depende del país). En el caso de la red GSM
(conocida como MoviStar) hay sólo dos ámbitos: nacional e internacional.
También existen servicios GSM ofrecidos por Airtel y Retevisión (Amena).
Es posible la interconexión entre ordenadores de redes
diferentes (RDSI, RTB o GSM); en cuyo caso la velocidad de transmisión será
igual a la más lenta de las conexiones implicadas; en algunos casos puede ser
necesario disponer de equipos específicos o contratar servicios especiales.
Siguiendo con nuestro ejemplo anterior de la empresa X, en
vez de líneas dedicadas se podría haber utilizado la red telefónica conmutada
(por ejemplo la RDSI). En este caso el costo de cada conexión es normalmente
menor, ya que sólo se paga por el tiempo que se esta utilizando. Además, la
sede central podría contratar menos de treinta enlaces si se planifica un
horario escalonado de conexión de las sucursales, o si simplemente se considera
que la probabilidad de que todas llamen a la vez es muy reducida. Esto se
conoce como sobresuscripción (‘oversubscription’) o sobrereserva
(‘overbooking’) y es algo muy normal en redes cuando el número de usuarios
es razonablemente elevado y se puede jugar con el factor estadístico (es algo
similar a lo que hacen las compañías aéreas con los billetes de avión). Por
ejemplo, supongamos que inicialmente la sede central contrata diez accesos y
observa que solo durante el 0,1% del tiempo están todos utilizados; entonces se
puede afirmar que el servicio tiene una disponibilidad del 99,9%, es decir, el
99,9% del tiempo hay líneas libres para recibir llamadas de las sucursales; a
la vista de esto la empresa puede decidir si aumenta o reduce el número de
accesos, según la disponibilidad que se quiera tener y el costo de cada acceso
(aquí además del costo de la compañía telefónica se deberá tener en cuenta el
de interfaces , módems, equipo auxiliar, etc.).
Conmutación de paquetes
Con la conmutación de circuitos hemos avanzado en el
aprovechamiento de la infraestructura. Sin embargo nos encontramos aún con tres
inconvenientes:
En ocasiones no podremos establecer la conexión por no haber
circuitos libres, salvo que contratemos un número de circuitos igual al máximo
número posible de conexiones simultáneas, lo cual sería muy costoso.
Que un circuito se esté utilizando no garantiza que se esté
aprovechando el ancho de banda que tiene asignado; en nuestro ejemplo cada
sucursal está conectada 30 minutos para enviar 2 MBytes de información, que
cual supone un aprovechamiento del 14% suponiendo que se trata de conexiones de
64 Kb/s.
El servidor ha de tener una conexión física por cada
circuito, aun cuando la ocupación media sea reducida.
Para evitar estos inconvenientes se crearon redes en las que
el usuario puede mantener una única conexión física a la red, y sobre ella
varios circuitos virtuales con equipos remotos. De esta forma podemos
dotar a nuestro ordenador central de treinta circuitos virtuales, con lo que
las sucursales siempre van a encontrar un circuito libre sobre el cual
establecer la conexión. Al mantener un solo enlace físico el costo de las
interfaces, módems, etc., es fijo e independiente del número de circuitos
virtuales utilizados. Lógicamente al tener el ordenador central que atender a
todas las conexiones por el mismo enlace físico sería conveniente (aunque no
necesario) incrementar la velocidad de este; en nuestro ejemplo con conexiones
el 2% del tiempo y con un tráfico medio del 14%; para las 30 oficinas agregadas
nos daría una ocupación media del 8,4% (0.02x0.14x30) suponiendo un reparto
homogéneo, cosa poco probable. Como previsiblemente muchas oficinas querrán
conectar más o menos a la misma hora sería conveniente ampliar el enlace del
servidor a 128 o 256 Kb/s por ejemplo para evitar congestión en horas punta.
Para poder definir circuitos virtuales es preciso disponer
de equipos inteligentes en la red que puedan hacer la distribución de los
paquetes en función de su destino. Por esto a las redes que permiten crear
circuitos virtuales se las denomina redes de conmutación de paquetes, y
en cierto sentido podemos considerarlas como la evolución de las redes de
conmutación de circuitos. Existen dos tipos de redes de conmutación de
paquetes, según ofrezcan servicios orientados a conexión o no orientados a
conexión (envío de datagramas). La primera red de conmutación de paquetes que
existió fue como ya hemos visto ARPAnet, pero como no era orientada a conexión
no se adaptaba bien a un servicio de compañía telefónica. Para facilitar la
facturación las redes públicas de conmutación de paquetes suelen ofrecer
servicios orientados a conexión en el nivel de red. Actualmente hay tres tipos
de redes públicas de conmutación de paquetes orientadas a conexión
estandarizadas: X.25, Frame Relay y ATM. Las tres representan implementaciones
bastante completas de los tres primeros niveles del Modelo de Referencia OSI, y
tienen muchos puntos en común, según veremos a continuación.
La subred de una red de conmutación de paquetes se
constituye mediante conmutadores unidos entre sí por líneas dedicadas. La
distribución de los conmutadores y la forma como éstos se interconectan, es
decir la topología de la red, es algo que decide el proveedor del servicio y
que fija la carga máxima que la red podrá soportar en lo que se refiere a
tráfico entre conmutadores; la topología fija también la fiabilidad de la red,
es decir cuan resistente será a fallos; por ejemplo una red muy mallada será
muy fiable y tendrá una gran disponibilidad, ya que en caso de avería de un
enlace o conmutador será fácil encontrar un camino alternativo. Cuando un
usuario desea conectar un equipo a la red el acceso se hace normalmente
mediante una línea dedicada entre el equipo a conectar y el conmutador mas
próximo del proveedor de servicio. La velocidad de la conexión entre el equipo
y el conmutador establece de entrada un máximo a las prestaciones que ese
usuario podrá obtener de la red. Puede haber además otras limitaciones
impuestas por la capacidad de la red, por saturación o porque se hayan impuesto
limitaciones de acuerdo con lo contratado por el usuario con el proveedor del
servicio.
Aunque estamos considerando el caso en que la red de
conmutación de paquetes la gestiona una compañía Telefónica (con lo que tenemos
una red pública de conmutación de paquetes), también es posible que una
organización o conjunto de organizaciones (por ejemplo una gran empresa, una
administración o un conjunto de universidades) establezcan una red privada
basada en X.25, Frame Relay o ATM. En este caso normalmente la gestión de la
red se asigna a algún grupo especializado (por ejemplo el departamento de
comunicaciones en el caso de la empresa) que se ocupa de diseñar topología,
solicitar los enlaces correspondientes, instalar los conmutadores, etc. Si se
desea que la red privada esté interconectada con la red pública es preciso
prever que al menos uno de los conmutadores de la red privada esté conectado
con la red pública. Desde el punto de vista técnico ambas redes son
equivalentes en su funcionamiento, salvo que normalmente en una red privada no
se tarifica la utilización, por lo que el control de su utilización no es tan
crítico.
En X.25, Frame Relay y ATM existe el concepto de circuito
virtual (VC), que puede ser de dos tipos: conmutado o SVC (Switched Virtual
Circuit) y permanente o PVC (Permanent Virtual Circuit). El conmutado se
establece y termina a petición del usuario, mientras que el permanente tiene
que ser definido por el proveedor del servicio, mediante configuración en los
conmutadores a los que se conectan los equipos implicados, normalmente mediante
modificación contractual con el cliente. En cierto modo podemos considerar los
PVCs como 'líneas dedicadas virtuales' mientras que los SVCs son como
conexiones RTC 'virtuales'.
X.25
X.25 fue el primer protocolo estándar de red de datos
pública. Se definió por primera vez en 1976 por el CCITT (Comité Consultatif International
Télégraphique and Téléphonique). Aunque el protocolo ha sido revisado múltiples
veces (la última en 1993) ya se ha quedado algo anticuado y no es en la
actualidad un servicio interesante en general, debido a su baja eficiencia y
velocidad; normalmente no supera los 64 Kb/s, aunque se pueden contratar
conexiones de hasta 2.048 Kb/s. A pesar de estas desventajas conviene conocer
los aspectos básicos de X.25 pues aun existe una gran cantidad de usuarios de
este tipo de redes. Además, en el protocolo X.25 se definieron por primera vez
muchos de los conceptos en que se basa Frame Relay y ATM, que podemos
considerar en cierto sentido como el X.25 versión 2 y versión 3,
respectivamente. El conjunto de estándares que definen X.25 ha sido adoptado
como parte del modelo OSI para los tres primeros niveles.
X.25 es un servicio fiable orientado a conexión; los
paquetes llegan en el mismo orden con que han salido. Una vez establecido un
circuito entre dos NSAPs la información se transfiere en paquetes que pueden
ser de hasta 128 bytes (aunque en muchas redes se permiten tamaños de hasta 4
KBytes). En la red los paquetes son transferidos de cada conmutador al
siguiente por la técnica de almacenamiento y reenvío y solo son borrados cuando
se recibe la notificación de recepción; es necesario que se produzca una
confirmación de la correcta recepción del paquete en cada salto que éste
realiza en la red. Un mismo NSAP puede tener establecidos varios VCs (PVCs y/o
SVCs) hacia el mismo o diferentes destinos.
A nivel físico se definen en X.25 dos interfaces, la X.21
cuando se usa señalización digital (cosa poco habitual) y la X.21bis (un
subconjunto de la EIA-232D/V.24) cuando es analógica.
A nivel de enlace se utiliza un protocolo llamado LAP-B
(Link Access Procedure-Balanced) que es una versión modificada del estándar ISO
HDLC (High-level Data Link Control), que veremos en detalle al estudiar la capa
de enlace.
El protocolo utilizado a nivel de red se conoce como X.25
PLP (Packet Layer Protocol). En este nivel se realizan todas las funciones de
control de flujo, confirmación y direccionamiento. Cada NSAP (Network Services
Access Point) en una red X.25 viene representado por una interfaz de un
conmutador X.25, y tiene una dirección única. Las direcciones son numéricas y
típicamente pueden tener entre nueve y quince dígitos. Las redes X.25 públicas
de muchos países están interconectadas, como ocurre con las redes telefónicas.
Para facilitar su direccionamiento la CCITT ha establecido un sistema
jerárquico análogo al sistema telefónico en la recomendación X.121; así es
posible por ejemplo llamar desde Iberpac (la red X.25 pública española) a una
dirección de Transpac (la red pública X.25 francesa), sin más que añadir el
prefijo correspondiente a dicha red en la dirección de destino.
Los ordenadores que se conectan a un conmutador X.25
necesitan tener la capacidad suficiente para procesar los complejos protocolos
X.25. Cuando se definió el estándar X.25 los ordenadores personales eran caros
y poco potentes; muchos usuarios que tenían necesidad de conectarse a redes
X.25 no disponían de un ordenador adecuado. Para estos casos se diseñó un
equipo capaz de conectar un terminal asíncrono, que trabaja en modo carácter
(es decir, un paquete por carácter) a una red X.25. A dicho equipo se le
denominó PAD (Packet Assembler Disassembler) ya que se ocupaba de ensamblar y
desensamblar los paquetes X.25 que recibía. A través de un PAD un usuario de un
PC, o incluso de un terminal 'tonto', podía conectarse a un host en una red
X.25 y trabajar como un terminal remoto de aquel. La CCITT publicó tres
documentos para especificar todo lo relacionado con el funcionamiento de un
PAD: el X.3 describe las funciones propias del PAD, el X.28 define el protocolo
de comunicación entre el PAD y el terminal asíncrono, y el X.29 define el
protocolo entre el PAD y la red X.25. El uso conjunto de estos tres protocolos
permite iniciar una sesión interactiva desde un terminal conectado a un PAD con
un ordenador remoto, por lo que se le conoce como el logon remoto XXX. Cuando
un usuario en un ordenador conectado a X.25 desea establecer una conexión como
terminal remoto de otro ordenador a través de una red X.25 lo hace mediante un
programa en su ordenador que emula el comportamiento de un PAD (PAD Emulation).
El logon remoto XXX ofrece en redes X.25 un servicio equivalente al de Telnet
en TCP/IP. Para el caso de usuarios que no dispongan de un PAD propio muchas
compañías telefónicas ponen a su disposición un servicio de acceso a PADs por
RTC (normalmente RTB). Este servicio se denomina normalmente X.28, por ser este
estándar el que define el protocolo de comunicaciones entre el terminal de
usuario y el PAD.
El rendimiento que se obtiene de un VC X.25 depende de
muchos factores: velocidad de los accesos físicos implicados, número de VC
simultáneos, tráfico en cada uno de ellos, carga de la red, infraestructura,
etc.
En España Telefónica inició un servicio de red pública de
conmutación de paquetes en 1971 con la red RSAN, basada en unos protocolos
propios, no estándar. Esta red hoy desaparecida fue la segunda red de
conmutación de paquetes del mundo (después de ARPAnet que empezó en 1969), y la
primera establecida por un operador de telefonía. En 1984 Telefónica inició la
red Iberpac, que ya obedecía a los estándares X.25. A través de Iberpac es
posible acceder a más de 200 redes similares en todo el mundo. Las velocidades
de acceso a Iberpac pueden ser de 2,4 a 2.048 Kb/s. Es posible contratar PVCs,
aunque lo normal es utilizar SVCs. La tarificación se hace por tres conceptos:
en primer lugar una cuota fija mensual según la velocidad de la línea de
acceso, en segundo por el tiempo que dura cada llamada (o lo que es lo mismo,
el tiempo que esta establecido cada SVC), y en tercer lugar por el número de
paquetes transferidos por llamada. Para los dos últimos conceptos existen tres
ámbitos de tarificación: nacional, europeo e internacional (en X.25 cuesta lo
mismo transferir datos entre dos oficinas vecinas que entre Valencia y La
Coruña). Telefónica dispone también de un servicio de acceso X.28 a su red
Iberpac, conocido como Datex28.
Los protocolos X.25 se diseñaron pensando en los medios de
transmisión de los años setenta, líneas de baja velocidad con tasa de errores
elevada. El objetivo era aprovechar lo mejor posible las lentas líneas de
transmisión existentes, aun a costa de hacer un protocolo de proceso pesado.
Por si esto fuera poco, las redes X.25 casi siempre se utilizan para encapsular
tráfico correspondiente a otros protocolos, por ejemplo TCP/IP, SNA o DECNET
(podríamos decir que los paquetes de estos protocolos viajan 'disfrazados' en
paquetes X.25); cuando se encapsula un protocolo como TCP/IP en X.25 se
realizan de forma redundante las tareas de la capa de red, con lo que el
resultado es aún mas ineficiente. Para resolver este tipo de problemas a partir
de 1990 se empezaron a crear redes basadas en Frame Relay.
Frame Relay
Frame Relay (que podríamos traducir como retransmisión de
tramas) nació a partir de los trabajos de estandarización del servicio
RDSI, en un intento por crear una versión 'light' de X.25, que permitiera
aprovechar las ventajas de los circuitos virtuales pero sin la pérdida de
eficiencia que suponían los protocolos excesivamente 'desconfiados' de X.25. En
X.25 la capa de enlace y la capa de red eran sumamente complejas; en cambio en
Frame Relay ambas se intentaron reducir a su mínima expresión, dejando en manos
de los equipos finales toda la labor de acuse de recibo, retransmisión de
tramas erróneas y control de flujo; de esta forma Frame Relay se convertía en
el complemento perfecto a otros protocolos, tales como TCP/IP. En muchos casos
se considera que Frame Relay no es un protocolo a nivel de red sino a nivel de
enlace (de ahí su nombre), y aun visto como nivel de enlace resulta bastante ligero.
El servicio que suministra Frame Relay consiste básicamente
en identificar el principio y final de cada trama, y detectar errores de
transmisión. Si se recibe una trama errónea simplemente se descarta, confiando
en que el protocolo de nivel superior de los equipos finales averiguará por sí
mismo que se ha perdido una trama y decidirá si quiere recuperarla o si por el
contrario prefiere ignorarla. A diferencia de X.25, Frame Relay no tiene
control de flujo ni genera acuse de recibo de los paquetes (estas tareas se
dejan al nivel de transporte o de aplicación en los equipos finales). El tamaño
máximo de los paquetes varía según las implementaciones entre 1 KB y 8 KB. La
velocidad de acceso a la red típicamente esta entre 64 y 2.048 Kb/s, aunque
también se ha estandarizado la velocidad de 34 Mb/s.
Una novedad importante de Frame Relay estriba en que se
define un ancho de banda 'asegurado' para cada circuito virtual mediante un
parámetro conocido como CIR (Committed Information Rate). Un segundo parámetro,
conocido como EIR (Excess Information Rate) define el margen de tolerancia que
se da al usuario, es decir, cuanto se le va a dejar 'pasarse' del CIR
contratado. Por ejemplo, supongamos que un ordenador se conecta a una red Frame
Relay mediante una línea de acceso a la red de 1.984 Kb/s, y tiene dos
circuitos permanentes (PVCs) establecidos con otros dos ordenadores, cada uno
de ellos con un CIR de 256 Kb/s y un EIR de 256 Kb/s; en este caso cada
circuito tendrá asegurado un ancho de banda de 256 Kb/s como mínimo, y si la
red no está saturada podrá llegar a 512 Kb/s; si un circuito intenta utilizar
mas de 512 Kb/s el conmutador Frame Relay empezará a descartar tramas.
Obsérvese que en este caso la línea de acceso nunca llegaría a saturarse, ya
que como mucho podrían enviarse 512 Kb/s por cada circuito. La especificación
del CIR para un circuito virtual se hace de forma independiente para cada
sentido de la transmisión, y puede hacerse asimétrica, es decir con un valor
distinto del CIR para cada sentido.
Cuando un usuario hace uso del EIR (es decir, genera un
tráfico superior al CIR contratado en un circuito virtual) el conmutador Frame
Relay pone a 1 en las tramas excedentes un bit especial denominado DE (Discard
Elegibility). Si se produce congestión en algún punto de la red el conmutador
en apuros descartará en primera instancia las tramas con el bit DE marcado,
intentando resolver así el problema. Este mecanismo permite a un usuario
aprovechar la capacidad sobrante en la red en horas valle sin perjudicar la
calidad de servicio a otros usuarios en horas punta, ya que entonces se verá
limitado a su CIR. En realidad el CIR tampoco está garantizado, ya que si la
congestión no se resuelve descartando las tramas DE el conmutador empezará a
descartar tramas normales (no marcadas como DE) que pertenecen a usuarios que
no han superado su CIR. Afortunadamente las redes Frame Relay se suelen
dimensionar de forma que el CIR de cada usuario esté prácticamente garantizado
en todo momento. En cierto modo podemos imaginar el bit DE como equivalente a
la 'reserva de asiento' en un billete de tren (el bit a 0 significaría en este
caso tener hecha la reserva).
Una red Frame Relay podría utilizarse en vez de líneas
dedicadas para interconectar conmutadores X.25; a la inversa (usar una red X.25
para unir entre sí conmutadores Frame Relay) sería mucho más difícil ya que al
ser X.25 una red más lenta los retardos introducidos serían apreciados por los
usuarios de Frame Relay.
En ocasiones se utilizan redes Frame Relay para transmitir
voz digitalizada; esto no es posible con X.25 debido a la lentitud del
protocolo, que introduciría unos retardos excesivos; el envío de voz por una
red tiene unos requerimientos especialmente severos en cuanto a retardos para
que la transmisión se efectúe correctamente.
La red pública Frame Relay de Telefónica se denomina Red
Uno, y esta operativa desde 1992. Aunque Telefónica anunció la disponibilidad
de SVCs en Frame Relay para 1997, parece que estos aun no están disponibles y
el único servicio contratable es el de PVCs. La tarificación se realiza por dos
conceptos: el primero es una cuota fija mensual en función de la velocidad de
acceso a la red; el segundo es una cuota fija al mes por cada circuito según el
valor de CIR que se tenga contratado; en ambos casos la tarifa depende de la
distancia. El EIR no se especifica en el contrato, y por tanto no se paga, pero
tampoco se compromete su valor por parte de Telefónica. La velocidad del acceso
físico puede tener valores comprendidos entre 64 y 1.984 Kb/s. El CIR puede ser
de 0 a 1.984 Kb/s. Al no existir circuitos conmutados la Red Uno no es una red
abierta como lo son Iberpac o la RTC. Es posible la conexión internacional con
muchas otras redes Frame Relay gracias a acuerdos suscritos con diversos operadores.
ATM y B-ISDN
Casi todos los servicios de comunicación que hemos visto
hasta ahora fueron diseñados para la transmisión de voz o datos, pero no ambos.
La RTB y la red GSM, pensadas para la voz, pueden transmitir datos, pero no
están diseñadas para ello y sólo pueden hacerlo a muy bajas velocidades. Las
líneas dedicadas y redes Frame Relay, pensadas para datos, pueden transmitir
voz si se utilizan los equipos apropiados y se respetan ciertas restricciones.
El único servicio de los que hemos visto hasta ahora que se
diseñó pensando en voz y datos es la RDSI (de ahí el nombre de Red Digital de Servicios
Integrados). Pero la RDSI tiene dos inconvenientes importantes:
Al ser una red de conmutación de circuitos reales la
reserva del ancho de banda se realiza durante todo el tiempo que está
establecida la comunicación, independientemente de que se estén transfiriendo
datos o no (o en el caso de transmitir voz independientemente de que se esté
hablando o se esté callado).
El estándar RDSI se empezó a definir en 1984. En aquel
entonces las líneas dedicadas eran de 9.6 Kb/s en el mejor de los casos y
hablar de enlaces a 64 Kb/s parecía algo realmente avanzado; sin embargo el
proceso de estandarización tardó mas de lo previsto (cosa que ocurre a menudo)
y cuando aparecieron los primeros servicios RDSI diez años más tarde la red
'avanzada' resultaba interesante sólo en entornos domésticos y de pequeñas
oficinas; resultando claramente insuficiente para las nuevas aplicaciones.
Una de esas nuevas aplicaciones era el vídeo en movimiento
(videoconferencia y vídeo bajo demanda) que tiene unos requerimientos distintos
a la voz y los datos. De una forma muy concisa resumimos en la siguiente tabla
las características esenciales de cada tipo de tráfico:
Tipo de información
|
Capacidad
|
Pérdida
tolerable
|
Retardo
|
Fluctuación
Retardo
|
Datos
|
Variable
|
Muy baja
|
Alto
|
Alto
|
Audio en tiempo
real unidireccional (monólogo)
|
Baja
|
Baja
|
Bajo
|
Muy baja
|
Audio en tiempo
real bidireccional (diálogo)
|
Baja
|
Baja
|
Muy bajo
|
Muy baja
|
Vídeo en tiempo
real unidireccional
|
Alta
|
Media
|
Bajo
|
Baja
|
Vídeo en tiempo
real bidireccional (videoconferencia)
|
Alta
|
Media
|
Muy bajo
|
Baja
|
Tabla 1.3.-
Necesidades de los diversos tipos de tráfico
Cuando una red está preparada para transmitir tanto audio y
vídeo como datos informáticos decimos que es una red multimedia. Generalmente
el tráfico multimedia tiene unas necesidades muy variables de ancho de banda,
se dice que es un tráfico a ráfagas ('bursty traffic').
Cuando se tiene tráfico a ráfagas resulta especialmente útil
disponer de una red de conmutación de paquetes con circuitos virtuales, ya que
de ese modo unos usuarios pueden aprovechar en un determinado instante el ancho
de banda sobrante de otros. Sin embargo las redes de este tipo que hemos visto
hasta ahora (X.25 y Frame Relay) no son apropiadas para tráfico multimedia
porque el retardo y la fluctuación de éste (también llamada ‘jitter’) son
generalmente excesivos (especialmente en X.25) y además resultan impredecibles
cuando la red está cargada.
Las compañías telefónicas vienen trabajando desde hace
bastante tiempo en el diseño de una red adecuada al tráfico multimedia que
permita aprovechar las ventajas de la conmutación de paquetes, para así
utilizar de forma más eficiente las infraestructuras y ofrecer servicios
nuevos, tales como la videoconferencia o el vídeo bajo demanda. La tecnología
que permite todo esto se denomina ATM (Asynchronous Transfer Mode) y sus
orígenes se remontan nada menos que a 1968, cuando se concibió en los
laboratorios Bell el primer sistema de transmisión de celdas. En esencia
lo que se intenta con esta nueva tecnología es integrar todos los servicios
(audio, vídeo y datos) en una única red digital, es decir lo mismo que
pretendía la RDSI más el vídeo (aunque como hemos visto RDSI llegó demasiado
tarde). Por este motivo ATM también se denomina a veces RDSI de banda ancha,
RDSI-BA o B-ISDN (Broadband-ISDN). Por contraste a la 'antigua' RDSI se la
denomina en ocasiones RDSI de banda estrecha; RDSI-BE o N-ISDN
(Narrowband-ISDN).
En 1986 la CCITT definió el concepto de RDSI-BA y eligió ATM
como la tecnología sobre la que se basarían los futuros estándares. En aquel
entonces ATM interesaba exclusivamente a las compañías telefónicas.
Gradualmente los fabricantes de ordenadores se fueron percatando de las
posibilidades de ATM y en 1991 decidieron crear el ATM forum, una
organización que produciría estándares con un dinamismo mayor que la CCITT. En
el ATM forum participan compañías telefónicas y fabricantes de ordenadores de
todo el mundo, y es actualmente allí donde se decide fundamentalmente la
evolución de ATM; la mayoría de los estándares aprobados por el ATM Forum son
refrendados posteriormente por la CCITT. El primer conmutador ATM comercial
apareció precisamente en 1991.
ATM es en parte una evolución de Frame Relay. La principal
diferencia es que los ‘paquetes’ ATM tienen una longitud fija de 53 bytes (5 de
cabecera y 48 de datos) frente al tamaño variable y mucho mayor de las tramas
Frame Relay. Debido a su tamaño pequeño y constante los paquetes ATM se
denominan celdas, y por esto en ocasiones a ATM se le denomina cell
relay (retransmisión de celdas). Manejar celdas de un tamaño tan reducido tiene
la ventaja de que permite responder con mucha rapidez a tráfico de alta
prioridad que pueda llegar inesperadamente mientras se están transmitiendo otro
menos urgente, algo muy importante en tráfico multimedia. El hecho de que todas
las celdas sean del mismo tamaño simplifica el proceso, cuestión esencial
cuando se quiere que dicho proceso sea lo más rápido posible. En el lado
negativo está el overhead del 9,4% (5/53) debido a la información de cabecera
presente en cada celda.
Al igual que en X.25 o Frame Relay, una red ATM se
constituye mediante conmutadores interconectados por líneas dedicadas, y
ordenadores o hosts conectados a dichos conmutadores. Mientras que en X.25 o
Frame Relay se utilizan normalmente velocidades de 64 Kb/s a 2 Mb/s, en ATM las
velocidades normales son de 155,52, 622,08 Mb/s o incluso superiores (aunque
también s posible utilizar ATM a velocidades de 2 ó 34 Mb/s). Estos valores de
155,52 Mb/s en adelante son los que se utilizan en el sistema de transmisión
SONET/SDH (Synchronous Optical NETwork/Synchronous Digital Hierarchy),
desarrollado por la CCITT más o menos en la misma época que ATM. SONET/SDH es
una tecnología de transporte de información sobre fibra óptica para redes WAN y
es el que están utilizando las compañías telefónicas de todo el mundo
actualmente en el desarrollo de sus infraestructuras de alta capacidad.
ATM da al usuario muchas mas facilidades que X.25 o Frame
Relay para controlar las características de su circuito virtual: se puede fijar
un ancho de banda máximo utilizable, un margen de tolerancia sobre dicho
máximo, un ancho de banda mínimo garantizado, un ancho de banda asimétrico, un
perfil horario de forma que el ancho de banda fluctúe con la hora del día de
una forma preestablecida, etc. Además es posible definir prioridades y
distintos tipos de tráfico según se prefiera fiabilidad o rapidez, tráfico
constante o a ráfagas, etc.
El modelo de referencia
ATM
ATM tiene su propio modelo de
referencia, constituido por tres capas denominadas capa física, capa
ATM y capa de adaptación ATM, también llamada capa AAL (ATM
Adaptation Layer).
La capa física está formada por dos subcapas: la PMD
(Physical Media Dependent) y la TC (Transmission Convergence). La subcapa PMD
describe la interfaz física con el medio de transmisión, y equivale a la capa
física del modelo OSI. La subcapa TC se ocupa de 'deshacer' las celdas en bits
para pasarlos a la subcapa PMD en el envío, y de recibir los bits de la subcapa
PMD para reconstruir las celdas en la recepción. Si consideramos la celda como
equivalente a la trama del modelo OSI la subcapa TC desempeñaría la función de
la capa de enlace, por lo que la estudiaremos en ese capítulo.
La capa ATM trata de la estructura de las celdas y su
transporte. También realiza las tareas de señalización, es decir establece y
termina los circuitos virtuales, y realiza el control de congestión. Sus
funciones son una mezcla de la capa de enlace y la capa de red en el modelo
OSI.
La capa de adaptación ATM (capa AAL) se divide también en
dos subcapas; la inferior, denominada subcapa SAR (Segmentation And Reassembly)
se ocupa de fragmentar el paquete que recibe desde ‘arriba’ (normalmente mayor
de 48 bytes) en celdas para su envío, y de reensamblarlo en la recepción cuando
se lo entrega la capa ATM. La subcapa CS (Convergence Sublayer) se ocupa de
suministrar distintos tipos de servicio adecuados al tipo de tráfico (vídeo,
audio, datos. etc.). Haciendo la equivalencia con el modelo OSI podemos decir
que la capa AAL corresponde a la capa de transporte.
Obsérvese que en el modelo de referencia ATM no se habla de
aplicaciones. En realidad el modelo contempla la existencia de capas por encima
de la capa AAL, pero no se especifican sus funciones ni características. El
modelo deja total libertad en el diseño de aplicaciones sobre ATM. Actualmente
el principal uso de ATM es como medio de transporte para otros protocolos; hay
muy pocas aplicaciones que hayan sido diseñadas para funcionar de manera nativa
en ATM, es decir directamente sobre la capa AAL.
Futuro de ATM
Hace unos años nadie cuestionaba el liderazgo de la
tecnología ATM cuando se trata de redes de alta capacidad. Hoy en día se estima
que aproximadamente el 80% del tráfico de datos
nivel mundial atraviesa en algún punto una red ATM. Sin embargo las
previsiones para ATM no son actualmente tan optimistas como lo eran hace unos
años. Por un lado no ha sido capaz de imponerse como protocolo de red, la
mayoría de las aplicaciones actualmente siguen funcionando sobre IP, incluso en
el campo de aplicaciones multimedia en tiempo real que parecía ser el
territorio ideal para ATM; por otro lado se plantean tecnologías competidoras,
tales como Gigabit Ethernet en LAN y POS (Packet Over SONET) en WAN. Aunque sin
duda ATM seguirá dando mucho que hablar durante bastantes años las cosas ya no
apuntan a que se convierta en la ‘tecnología universal’ como parecía en
1996-1997.
En España Telefónica inició en 1996 dos servicios de red ATM
denominados servicio Gigacom y Servicio
Cinco (Comunicaciones Integrales Corporativas). Estos servicios están
orientados a clientes con grandes necesidades de transmisión de datos
multimedia; solo se permite la constitución de PVCs; las velocidades de acceso
van de 512 Kb/s a 155 Mb/s. Este servicio es una alternativa interesante a las
líneas dedicadas de alta velocidad, ya que permite contratar servicios de
acuerdo a horarios preestablecidos, por ejemplo un periódico que necesita 4
Mb/s de capacidad entre sus oficinas de Madrid y Barcelona todos os días de 1 a
2 de la madrugada para transmitir la edición del día siguiente.
Suscribirse a:
Entradas (Atom)