Electrónica de Red

diciembre 9, 2018 on 5:06 pm | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | En un entorno conectado, como el de las Redes Locales, ha sido necesario establecer un modelo que asegurara la interconexión de sistemas de diferentes fabricantes. En lugar de seguir un planteamiento monolítico, a veces propietario, era necesario separar las distintas funciones y atribuciones de una Red Local en niveles. Esta forma de estructurar el proceso de comunicación ha permitido que niveles con el mismo desempeño pudieran dialogar entre ellos a través de los niveles inferiores. Esto se consiguió tomando como referencia el modelo OSI (Open System Interconnection) promovido por el ISO (International Organization for Standardization) en 1980. En él se identifican siete niveles, cada uno de ellos especializado en una función de Red. Así, por ejemplo, el nivel más cercano al medio de transmisión se denomina Físico, y el más próximo al usuario es conocido como Aplicación. Entre medias hay cinco niveles encargados de cómo se trasportan los datos, el establecimiento de una sesión de comunicación y la topología de red, entre otros.

Este modelo ha sido y es una estupenda guía para la construcción de Redes y lograr que fabricantes diferentes se entiendan. En este texto seguiré este modelo para comprender la posición que han ocupado algunos dispositivos que han estado presentes en las Redes y han hecho posible que estás crezcan e interoperen. Como es de suponer el primer dispositivo trabaja a Nivel Físico, es decir, solo entiende de niveles de tensión. Aquí, los más ortodoxos, identificarán a la MAU (Multi-Access Unit) de IBM. Este era un elemento que no se conectaba a la red eléctrica para funcionar y sus relés internos eran activados remotamente por cada ordenador Token Ring y así formar parte del anillo.

Un poco más inteligentes que las MAU eran los Repetidores Ethernet. Estos equipos operaban también a Nivel Físico y se encargaban de regenerar la señal eléctrica de un bus Ethernet para así poder extender su alcance. Realmente desconocían formatos de tramas y eran transparentes a cualquier evento que se produjese en un segmento Ethernet limitándose a acondicionar eléctricamente la señal Ethernet, amplificarla y retrasmitirla. En este aspecto, su electrónica suele ser compleja aunque carente de circuitos integrados especializados en datos.

En el párrafo anterior mencionaba el empleo del Repetidor en Ethernet y su importancia en la extensión de segmentos Ethernet. En este punto es necesario recordar que un bus basado en cable coaxial fino -o thin- 10Base2 podía tener una longitud máxima de 185m y un límite de 30 máquinas presentes en él. En cambio, los que empleaban coaxial grueso o thick (10Base-5) podían extenderse a 500 metros y soportaban hasta 100 máquinas. Ambos umbrales en distancia y número de ordenadores representan una limitación importante si se deseaba extender una Red Local en un gran edificio. Por eso, en 1985, Digital Equipment Corporation lanzó al mercado un dispositivo Repetidor para ocho buses 10Base-2. Este aparato se comportaba como punto central y, por ejemplo, si queríamos desplegar una Ehetnet en un edificio de ocho plantas podíamos instalar un bus coaxial por planta y, cada extremo de este, conectarlo a una boca de un repetidor. Así teníamos una red Ethernet capaz de albergar hasta 232 usuarios (29 usuarios por planta o bus por 8 segmentos coaxiales). Al igual que el Repetidor de dos puertos, funcionaba a Nivel Físico.

En el mismo nivel OSI operaba el Hub Activo para redes ARCnet. Este disponía de 8 conectores coaxiales donde podían conectarse Hub Pasivos de cuatro puertos, uno de estos se destinaba a la conexión con el Hub Activo. Este nos permitía desarrollar redes con capacidad de hasta un máximo de 28 usuarios. Una vez más, si ojeamos en su interior, apreciamos con claridad, ocho etapas de electrónica analógica encargadas de acondicionar la señal ARCnet.

Hasta ahora hemos visto algunos equipos que operaban a Nivel Físico es decir, a niveles eléctricos. Extendiendo sus capacidades hasta el nivel más alto, o Aplicación, encontramos a los Servidores de Terminales. Estos equipos se instalaban en una Red Ethernet con cableado coaxial permitiendo dar servicio a máquinas que solo sabían hablar por RS-232. Es decir, hacían de intermediarios entre un ordenador central y terminales “tontos” a través del medio Ethernet y coaxial. Estos equipos se estilaban en las primeras redes de ordenadores Digital donde el protocolo era LAT (Local Area Transport) y, posteriormente, TELNET y TCP/IP. También se han usado Servidores de Terminales para dar entrada a una red a usuarios remotos que usan modem y líneas telefónicas.

Obviamente su funcionamiento depende de las capacidades de un microprocesador que, en el caso del Terminal Server de Micom-Interlan de nuestra colección, era un Intel 80186 a 8 MHz. Este es el encargado de correr LAT, TELNET y TCP, y ofrecer una sesión TTY tipo Unix a cada usuario y encaminar esta hacia un ordenador central. En el Terminal Server de Micom-Interlan también se aprecia un circuito integrado clásico para trabajar de Ethernet, el Intel 82586.

El uso de cables coaxiales Ethernet o ARCnet hacia complicadas las reconfiguraciones de una Red. Aunque en un primer momento, cuando se despliega la Red, parecían cómodos, a la hora de reubicar puestos o departamentos la historia cambiaba y era evidente su complejidad. En cambio IBM, con su tecnología Token Ring, cableados STP y MAU como elemento central, demostró un planteamiento acertado. Además, su aproximación de cableado, permitía estructurar fácilmente los tendidos de cable al contemplar centros de cableado, armarios repartidores, distancias, etc. Era, por tanto, necesario reinventar la capa Física de Ethernet para que pudiese trabajar con cables trenzados y existiese un elemento central, a modo de Repetidor, donde se conectaran todos los ordenadores. Así es como Synoptics desarrolló el repetidor LattisNet, que no era otra cosa que un concentrador o hub que empleaba cable de pares trenzados. Ellos, junto con AT&T y su StarLAN 10, redefinieron el nivel físico de Ethernet para trabajar con cables sin apantallar UTP dando así el primer paso del que luego sería, con pequeñas modificaciones, el estándar 10Base-T. Synoptics también impulsaría el empleo de la fibra óptica en redes Ethernet comercializando uno de los primeros transceptores o convertidores de medio que sentó las bases de 10Base-FL.

La segmentación de redes cambiaría con la aparición de los Bridges Ethernet y Token Ring. Estos equipos eran capaces trabajar a Nivel Físico y, además, podían operar con tramas es decir, a Nivel de Enlace. Esto les permitía poder abrir las tramas e ir anotando las direcciones MAC (Media Access Control) para saber en qué segmento de red se encontraba cada ordenador. Estas direcciones son exclusivas de cada tarjeta de red y es, en último término, la dirección tomada en cuenta en la comunicación entre dos equipos. Por lo tanto podían filtrar el tráfico entre dos segmentos de Red -o las colisiones- y solo dejar pasar el estrictamente necesario para una comunicación.

La capacidad de los Bridges para trabajar con tramas MAC les convertía en máquinas potentes. En el equipo Cabletron NE-25E de la colección, identificamos un microprocesador 80186 de Intel, unos bancos de memoria RAM donde se mantenía una tabla con todas las direcciones MAC encontradas y el número de puerto del que cuelgan, y un chip de Intel especializado en el refresco de la RAM, el Intel 82C08. También, es fácil distinguir las etapas Ethernet y sus circuitos integrados 8390 de National Semiconductor y puertos AUI (Attachment Unit Interface). Estos se caracterizan por su conector DB-25 donde se conecta un transceptor 10Base-2, 10Base-5 o en fibra 10Base-FL.

No obstante, aun siendo un gran invento, su capacidad era limitada cuando teníamos que gestionar tráfico de más de dos puertos o dos segmentos Ethernet. Por otra parte, este equipo también tenía que hablar con otros Bridges para identificar bucles y eliminar estos de la topología de una Red a través del bloqueo de uno de sus puertos. Este protocolo era Spanning Tree (802.1D) y fue inventado por Radia Perlman (1951) en Digital en 1985. En resumen, estas y otras tareas para una máquina específica (o sistema embebido) de finales de los ochenta no eran triviales aun destinando un 80186 a 16MHz. Por supuesto, en aquellos años podíamos recurrir a procesadores más potentes si queríamos trabajar con más puertos pero esto era caro y complejo.

Como hemos visto, con el empleo Hubs UTP, Bridges para segmentar redes y el protocolo Spanning Tree, la fisonomía de las redes locales estaba cambiando. También, gracias a sistemas operativos como Novell NetWare y tarjetas de red baratas como la NE2000 las redes se convertían en una tendencia tecnológica que era considerada por numerosas empresas. En este momento de apogeo, dos emprendedores de garaje, Vinod Bhardwaj y Larry Blair, con el apoyo de fondos de inversión, fundaron Kalpana y plantearon una solución ambiciosa e innovadora al unificar las capacidades de un Bridge con la flexibilidad los puertos de un hub UTP. Aquel dispositivo fue llamado Conmutador o Switch porque, como una centralita telefónica, era capaz de poner en contacto dos puertos para que dos ordenadores hablaran. Esto podía ser simultaneado y así, por ejemplo, el puerto 2 hablaba con el 12, mientras que el 3 hablaba con el 8. Concibieron unos chips de diseño a medida o ASIC (Application-Specific Integrated Circuit) que eran capaces de interpretar direcciones MAC de una trama y realizar la conmutación entre puertos. También recurrieron, una vez más, al procesador 80186 de Intel para poder correr un protocolo como Spanning Tree, programar algún filtro entre los puertos y acceder al conmutador por un puerto RS-232 para su configuración.

La tecnología de conmutación fue una auténtica revolución y permitió pensar en la transmisión full dúplex, 100BaseTX y ATM. El reconocimiento de Kalpana como marca fue efímero porque en 1994 -en pleno éxito- fue comprada por Cisco Systems quien la integró en su estrategia que, hasta la fecha, se basaba en vender Routers. Aquella y otras compras permitieron a Cisco entrar en un mercado, el de conmutadores, creando así la línea Catalyst.

Si uno atiende a los textos que hay en Internet, hablar de los origines de Cisco puede resultar confuso. Es fácil toparse con alguna reseña donde se cuentan los conflictos de propiedad con la Universidad de Stanford a raíz del equipo que allí ya se utilizaba para conectar las redes de sus departamentos, campus y la NSFNet. En aquellas redes trabajaban como empleados de la Universidad la pareja formada con Sandy Lenner (1955) y Leonard Bosack (1952). Ellos y otros colegas fundaron Cisco para comercializar algo parecido a los equipos de Stanford mientras seguían trabajando en la propia Universidad y, en teoría, se beneficiaban de esta. Aquello desembocaría en un conflicto sobre quién era el propietario intelectual de la solución que Cisco vendía y tuvo que resolverse con un acuerdo entre ambos.

Estos equipos, conocidos como Encaminadores, Enrutador o Router, no eran una novedad y se inspiraban en las capacidades de los viejos IMP (Interface Message Processor). Aun así, el Router de Cisco se convirtió en un pequeño éxito al contar con un software especializado en trabajar en los Niveles Físico, Enlace y Red al que llamaron Cisco IOS (Internetwork Operating System). Su hardware, también de uso exclusivo, estaba basado en un microprocesador 68000 de Motorola y una arquitectura de bus Multibus. La primera familia de productos que comercializaron fueron los Cisco AGS. Era 1987 y aquellos equipos no tardaron en convertirse en un estándar de la nueva Internet que nacía gracias al impulso de la NSFNet. A España llegaron de la mano de Unitronics, quien los introdujo tras conocer sus capacidades en una feria en EE.UU. mientras eran presentados por los propios Sandy y Leo.

Desde hace años Cisco es una de las compañías más importantes de mundo tecnológico. Ellos han logrado mantenerse como líderes mientras que el resto de competidores fracasaron al intentar evolucionar del área en la que triunfaron. Posiblemente, esta capacidad de supervivencia, es consecuencia de la rápida profesionalización que experimentó su gestión con John Morgridge (1933) y John Chambers (1949) como CEOs al frente de la compañía, borrando así de su historia los controvertidos años iniciales y apartando a Sandy Lenner y Leo Bosack. Sin duda, de haber mantenido aquel espíritu original, habría sido difícil la toma de decisiones tan ambiciosas como la compra e integración de decenas de empresas.

La conexión de las empresas a Internet, unido al pleno desarrollo de las redes locales Ethernet, puso de manifiesto la importante brecha de seguridad que aquello suponía. Por ejemplo, cuando trabajaba en Unitronics a finales de los ´90, mi ordenador tenía una dirección IP pública con la que podía ser visto por cualquiera desde Internet. Hoy aquello sonará raro pero en aquel momento era habitual contar con un rango de direcciones asignadas públicas. En resumen, era relativamente fácil colarse en los servidores de correo o en la web de cualquier compañía. Por eso era necesario contar con algún equipo con al menos dos adaptadores Red de Ethernet que hiciera de cortafuegos entre un segmento potencialmente inseguro, como la conexión a Internet, y una red segura o nuestra red interna. Para detectar una intrusión sospechosa este equipo tenía que inspeccionar todo el tráfico a Nivel Red  (IP), mensajes ICMP e IGMP y Transporte (UDP y TCP) y poder, llegado el caso, filtrar un determinado intento de conexión. A este equipo, por razones evidentes, se le denominó Firewall y solía consistir en un ordenador potente, como una máquina Sun Microsystems, donde se instalaban varios adaptadores de Red, uno para cada segmento Ethernet. Por último y más importante, sobre esta máquina y su sistema operativo Solaris, corría un software especializado en seguridad llamado Firewall-1 de la firma Check Point.

Check Point es una compañía israelí que ha desarrollado y distribuye un software que hace posible establecer un punto de demarcación lógico y seguro entre redes locales. Inicialmente ellos trabajaban sobre máquinas de uso genérico como Sun Microsystems y Solaris. Más tarde empezaron a comercializar su solución en un hardware de uso específico fabricado por Nokia y el sistema operativo IPSO. ¿Nokia? Si, la misma marca de los teléfonos móviles y que, en aquellos años ya contaba con una fuerte división de equipos de red. Nokia compró a una empresa californiana llamada Ipsilon Network que era un fabricante de conmutadores ATM. Ipsilon también desarrolló un sistema operativo especializado que hacia de plano de control de sus conmutadores. Este se llamaba IPSO. De hecho, de la combinación de sus conmutadores ATM y su IPSO nació IPSwitch que era una de las fuentes (junto a otras) que inspiraría MPLS. IPSO a su vez estaba basado en Unix FreeBSD. En resumen, aunque el Firewall-1 de Check Point ha podido correr en otros sistemas operativos, tras la compra en 1997 de Ipsilon Networks y su IPSO por parte de Nokia, esta ha sido su plataforma hardware y sistema operativo habitual. Tanto es así que en el año 2009 Check Point se independizaría de Nokia al comprarle esta área. Aquel hardware ya estaba basado en procesadores Intel Pentium II y Pentium III. Más allá de esto y volviendo a las bondades de Check Point, estaba su capacidad de hacer firewalling Stateful. Esto es, entender la comunicación que se establece entre dos máquinas y conocer al acuerdo que llegan ambas para trabajar en un determinado puerto TCP o UDP y, si procedía, abrirlo para que se comuniquen. Esto a velocidad de línea y para un montón de usuarios…

Visitar la colección

Sin comentarios »

RSS feed for comments on this post. TrackBack URI

Deja tu opinión

XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>



(c) 1999-2019 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress