Redes de Área Local

noviembre 3, 2018 on 12:02 pm | In galería de imágenes, retroinformática, telecomunicaciones | 5 Comments

Adolfo García Yagüe | Con el comienzo de la década de los ’80 se produjo una transformación en la forma de trabajar de muchas organizaciones. Cómo hemos visto, los ordenadores personales se convirtieron en una herramienta que aumentaba la productividad de los empleados y hacía más competitivas a sus respectivas compañías. En gran parte, esta nueva tendencia se debida a la capacidad que ofrecían los nuevos equipos personales pero, además, a la posibilidad de compartir remotamente con otros usuarios recursos tan valiosos como una impresora, un disco duro, la mensajería electrónica y alguna aplicación o archivo.

Antes de esta transformación se estilaba un modelo centralizado donde todo el proceso y tratamiento de datos giraba alrededor de una o varias máquinas del centro de cálculo. Al principio, este proceso centralizado se basaba en que el resto de departamentos como el financiero, producción o incluso los programadores necesitaban definir con exactitud lo que deseaban del ordenador central y allí, el pequeño ejército de empleados, se encargaban de procesar los datos para entregar las respuestas a los interesados.

Más adelante se empezaron a utilizar terminales y las líneas de un operador de telecomunicaciones para permitir el acceso remoto al ordenador central, es la época del Teleproceso. Estas terminales eran como “pequeñas ventanas” a través de las cuales era posible interactuar directamente con el ordenador. Por esta razón, en aquellos tiempos, se empieza a hablar de capacidades Multiusuario al referirse a la característica que tiene un ordenador central y sistema operativo de atender a múltiples usuarios al mismo tiempo y dar la sensación de que trabaja solo para ellos.

Aquellas ventanas o terminales dependían de la conexión y cable serie RS-232 o V.24. Este cable estaba a su vez compuesto por varios hilos de cobre: uno para transmitir datos, otro para recibirlos, otro para señalizar la confirmación de la recepción y así un largo etcétera que, a menudo, difería de cada fabricante y máquina. Además, la conexión RS-232 imponía un límite importante en su velocidad que, como máximo, era de 9600 bps. Por eso IBM, en su arquitectura SNA, empezó a utilizar cables coaxiales en la comunicación de sus terminales con el ordenador central. Aun así, para conexiones distantes con el ordenador central, no quedaba más remedio de recurrir a los módems y las redes de operador.

Estas razones llevaron a la Universidad de Hawái, en 1970, a poner en práctica un modelo que comunicara sus terminales, dispersos a kilómetros, usando señales de radiofrecuencia. A aquella red la llamarón ALOHANET y, básicamente, consistía en un mecanismo por el cual todos los terminales eran capaces de enviar información por el mismo canal radio UHF (407,350 MHz) hacia el ordenador central y, en caso de que dos o más terminales ocuparan el canal de envío al mismo tiempo (colisión), se establecía un mecanismo de acceso aleatorio entre ellos para resolver esta colisión. En el caso contrario, cuando era el ordenador central el que enviaba la información, se empleaba un canal distinto (413,475 MHz) y este llegaba a todos los terminales a la vez (broadcast) y solo el destinatario abría.

La experiencia de ALOHANET y la Universidad de Hawái sirvió para que Robert Metcalfe (1946) y David Reeves Boggs (1950), unos jóvenes empleados del Xerox PARC en California, desarrollaran una tecnología de comunicación llamada Ethernet empleando un cable coaxial como medio físico. Estamos en 1976 y este modelo de comunicación fue implementado en el ordenador Alto y permitía la comunicación a una velocidad 3Mbps. Este fue un ordenador experimental, adelantado a todo lo existente, con el que Xerox pretendía redefinir el trabajo en las oficinas. No tenía un propósito comercial y, aunque se cedieron máquinas Alto a unas cuantas universidades, era una prueba de nuevos conceptos como la citada conexión Ethernet y las redes locales o LAN (Local Area Network), el entorno gráfico o el ratón como dispositivo apuntador.

Como hemos dicho, hacia finales de los años ´70, las redes locales y los sistemas de comunicación empezaban a ser una preocupación para algunas compañías. Ethernet era una tecnología más junto a otras como ARCnet (Attached Resource Computer), desarrollada en 1977 por John Murphy (1943) y Gordon Peterson en la compañía Datapoint Corporation. Realmente, ARCnet fue la primera en llegar comercialmente al mercado y podía presumir de tener como cliente al Chase Manhattan Bank. A simple vista Ethernet y ARCnet podían parecer similares. Ambas prescindían de los cables RS-232 y resolvían la conectividad en un edificio facilitando que varias máquinas se conectaran entre sí. La diferencia más llamativa era que el cableado ARCnet era muy sencillo, empleaba coaxiales flexibles del tipo RG-62/U y su topología se basaba en una estrella pasiva donde se conectan los diferentes brazos, o máquinas, mientras Ethernet usaba un cable coaxial grueso y rígido RG-8 en el que había que “pinchar” literalmente cada máquina y obligaba a respetar unas distancias entre equipos.

Como vemos en ambos casos estamos en un medio compartido –el cable coaxial- donde tenemos que gestionar el acceso simultáneo. En ARCnet no se producían colisiones porque un testigo pasaba de una máquina a otra y solo el propietario del citado testigo podía enviar información (Token Passing). En cambio, en Ethernet, se pensó en una técnica derivada de ALOHA pero con alguna mejora. En este caso cada máquina escucha el medio (el cable coaxial) y si está desocupado se envía información. Si por alguna circunstancia se produce una colisión, esta se detecta y se espera un tiempo aleatorio para reenviar el paquete de información: Carrier Sense Multiple Access with Collision Detection (CSMA/CD).

ARCnet era más eficiente a pesar de que su velocidad era solo de 2Mbps. No obstante, era una tecnología propietaria de Datapoint, lo que significaba que está compañía tenían pleno control sobre ella, y Ethernet -sin llegar a considerarse libre- tenía un modelo de patentes más flexible lo que podía animar a cualquier fabricante a desarrollar un producto. Esta aproximación más laxa hizo que Ethernet triunfara en los primeros años frente a otras aproximaciones que, sobre el papel, demostraban ser mejores. De aquel cambio de concepto, difusión y éxito se encargaría Robert Metcalfe. Ya hemos visto como esta tecnología fue coinventada por él tras su paso por Xerox. Un poco más tarde de aquello, en 1979, Metcalfe propuso constituir un consorcio a Digital Equipment Corporation, Intel y a Xerox (DIX) para reescribir las especificaciones técnicas de Ethernet y publicarlas para que cualquiera las implementase y pudiese comprar, si lo deseaba, chips Ethernet de Intel o equipos de Digital y Xerox. Así se lanzó Ethernet II (DIX v2.0) donde se diferenciaba 10Base5 describiendo el uso de un cable coaxial grueso RG-8/U (Thick) y 10Base2 para un coaxial más flexible RG-58/U (Thin), ambas a una velocidad de 10Mbps. Robert Metcalfe, por su parte, montó una empresa especializada en productos Ethernet llamada 3Com (Computer Communication Compatibility).

El éxito de 3Com fue en aumento al comercializar el primer adaptador Ethernet y software de red local para el IBM modelo 5150. El mercado Ethernet no paraba de crecer con las soluciones de 3Com y de otros fabricantes, animándose así, la bajada de precios e innovaciones sobre el estándar de Xerox, Intel y Digital. En vista de ello, Ethernet fue elevado al IEEE (Institute of Electrical and Electronics Engineers) quien se encargó de regular su evolución y mejoras bajo el estándar 802.3.

IBM, aun teniendo un papel importante en el mundo de las redes de área local, parecía no sentirse cómoda. Por un lado, en su negocio principal, la venta de ordenadores centrales, aquello de las redes locales “chocaba” un poco con su arquitectura SNA. Por otro lado, en los genes de IBM no estaba -en aquella época- seguir un estándar que ellos no habían inventado y sobre el cuál no tenían control. En resumen, ante aquel tsunami, empezaron comercializando en 1984 la PC Network, cuya tecnología estaba basada en solución de la empresa Sytek pero alcanzando velocidades de 2Mbps. Esta también recurría a los cables coaxiales pero en este caso emplea convencionales RG-6/U, de los usados en televisión. Para ello se emitía en canales VHF dentro de las regiones de los 70-106MHz y 206-226MHz, y se empleaba CSMA/CD para acceso al medio y detección de colisiones. Como acabo de citar, Sytek desarrolló está tecnología en 1982 y comercializó unos módems llamados LocalNet 20/100 para conectar terminales a coaxiales a velocidades de 128Kbps. Como dato importante, en la PC Network encontramos, por primera vez, una BIOS específica para las tareas de red: el NetBIOS.

Aunque la tecnología de Sytek pretendía ser más sencilla que Ethernet al emplear coaxiales más baratos y comunes, la realidad es que la electrónica de las tarjetas de red es mucho más cara y compleja al incluir etapas de alta frecuencia. Supongo que esta fue una de las razones que impulsó a IBM a desarrollar su propia tecnología de red y lanzar así Token Ring en 1986.

Token Ring fue desarrollada en los laboratorios de investigación de IBM en Zúrich, Suiza. Al frente de esta tecnología estaban Werner Bux y Hans Müller. En Token Ring se pretendía suplir las carencias de Ethernet y de otras tecnologías de red. Para empezar se pensó en la alta disponibilidad, tan común en el mundo mainframe o gran ordenador. Es decir, tenía que ser posible bloquear a una estación si esta daba errores al entrar en un entorno compartido como un cable. También tenía que ser posible llegar al mainframe por diferentes caminos o anillos con la misma dirección de destino. Tampoco agradaba a IBM un modelo de acceso basado en las colisiones pues esto impedía hacer de la red local un espacio determinista donde fuese posible estimar el tiempo en que hablaba cada máquina. Para ello se recurrió al sistema de paso de un testigo (Token) y, de forma parecida a ARCnet, solo el propietario del Token podía hablar. Por último y más importante, se prescindía de los buses de cable coaxial y en cambio se proponía una topología basada en anillo (Ring), donde a uno o más elementos centrales o MAU (Multi-Access Unit) se conectaba cada máquina con cables STP (Shielded Twisted Pair), también conocidos como IBM Categoria 1 y constituidos en su interior por dos parejas de dos hilos cada una y un apantallamiento metálico o blindaje. Este tipo de cableado y las MAU, como elemento central, sentarían las bases de lo que en 1991 sería la norma EIA/TIA 568 para cableado estructurado.

Token Ring gozó de la aceptación del mercado, especialmente en aquellos clientes tradicionales de IBM como banca y las empresas de seguros. La primera versión ofrecía velocidades de 4Mbps y, al poco tiempo, se puso en el mercado una tarjeta de velocidad dual a 4 y 16Mbs. Conscientes del potencial de Token Ring, IBM también estandarizó a través del IEEE su tecnología bajo la norma IEEE 802.5 abriéndola a otros fabricantes pero sobre la que siempre pesó la poca oferta de soluciones y productos, y su elevado precio en comparación con Ethernet. En este sentido, no puedo evitar recordar a la danesa Olicom, donde trabajé y fabricábamos productos Token Ring y ATM, y de la estimulante competencia que manteníamos con la británica Madge.

Aunque en el mundo LAN (Local Area Network) han existido más soluciones, con ARCnet, Token Ring y Ethernet quedan bien resumidos estos primeros años. Quizás habría que añadir FDDI (Fiber Distributed Data Interface), aparecida al comienzo de los ’90, y ATM (Asynchronous Transfer Mode) hacia mediados de la misma década. Con ambas tecnologías se venía a dotar a Ethernet y Token Ring de velocidades de 100Mbps (FDDI), 155Mbps y 622Mbps en conexiones de troncales o en la conexión de estaciones de trabajo. Ambas tuvieron su momento y buenas referencias hasta que se desarrolló y arrasó con el mercado la aparición de Gigabit Ethernet a una velocidad de 1Gbps.

Por último, tampoco me puedo olvidar de los sistemas operativos de red, que son tan importantes como las redes físicas. Ni de la electrónica asociada, como concentradores o hubs, repetidores, bridges o conmutadores. Todo ello queda para próximos textos.

Visitar la colección

5 Comments »

RSS feed for comments on this post. TrackBack URI

  1. […] siendo de 8 bits. La funcionalidad de red local, aunque innovadora, no podía competir con una Ethernet o ARCnet ya en uso. Sus pocas aplicaciones profesionales tampoco alcanzaban la oferta de un PC Compatible. […]

    Pingback by ccapitalia.net » En los límites de la Innovación — 3 noviembre 2018 #

  2. […] of Electrical and Electronics Engineers). Allí optaron por la norma EPON que básicamente es Ethernet punto-multipunto. Así las cosas, ya se empezaba a hablar de un nuevo estándar llamado GPON […]

    Pingback by ccapitalia.net » 56K, ADSL y GPON — 3 noviembre 2018 #

  3. […] que esta Red se ha usado para el envío de otros datos “más pesados” como Ibertex y conectar Redes Locales, no obstante, para este último fin, la red carece de capacidad y su uso es caro. Esta fue una de […]

    Pingback by ccapitalia.net » ARPANET, X.25 e Iberpac — 3 noviembre 2018 #

  4. […] En efecto, con Microsoft y con IBM estábamos atascados en los protocolos (sus protocolos) NetBIOS y NetBEUI. Aquello resolvía la comunicación básica en una red de área local pero presentaba numerosas […]

    Pingback by ccapitalia.net » Internet e Infovía — 3 noviembre 2018 #

  5. […] en contacto a usuarios de un mismo grupo de trabajo o de un departamento afín. Veíamos como ARCnet, Ethernet o Token Ring son tecnologías de Red a través de las cuales se han conectado nuestros ordenadores, compartiendo […]

    Pingback by ccapitalia.net » Sistemas Operativos de Red — 2 diciembre 2018 #

Deja tu opinión

XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>



(c) 1999-2018 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress