Sistemas Operativos de Red

diciembre 2, 2018 on 9:09 pm | In galería de imágenes, retroinformática, telecomunicaciones | 1 Comment

Adolfo García Yagüe | En el texto anterior expliqué como un medio compartido -como el cable coaxial- ponía en contacto a usuarios de un mismo grupo de trabajo o de un departamento afín. Veíamos como ARCnet, Ethernet o Token Ring son tecnologías de Red a través de las cuales se han conectado nuestros ordenadores, compartiendo un medio físico -el cable- y definiendo como la información viajaba por este, pero ahí acaba su competencia. Por lo tanto, estas y otras soluciones, no saben nada de aplicaciones, compartición de recursos o ficheros. Para esta tarea se han empleado dos aproximaciones: Por un lado era posible añadir a nuestro sistema operativo un conjunto de capacidades que nos permitiera estar en red, al alcance de otros usuarios y, otra posibilidad, es especializar a un sistema operativo en estas labores y que, sin llegar a ser un gran ordenador, desempeñe el papel de máquina central o Servidor.

Hay que decir que en 1980 aquel sistema operativo especializado en trabajar con muchos usuarios a la vez existía y estaba a disposición de ordenadores de tamaño mediano, también conocidos como miniordenadores. Era Unix de los Bell Labs. Como podemos ver en la galería donde se recogen las piezas de la cuarta generación, el Unix ya era objeto de estudio en las aulas universitarias en la década ´70 gracias a los apuntes publicados por John Lions (1937-1998) y la propia Bell Labs. No obstante, Unix quedaba un poco lejos de la potencia que podía ofrecer una máquina personal de aquella década. A pesar de esto, Microsoft compró en 1978 una licencia a Bell Labs para desarrollar una distribución de Unix para máquinas personales a la espera de que estas fueran lo suficiente potentes. Así fue como en 1980, aprovechado las capacidades del 8086 de Intel, se anunció un sistema operativo basado en Unix bajo el nombre de Xenix. Aquello estaba adelantado a su tiempo y su impacto no fue muy grande. Otra prueba de que Unix ya podía funcionar en Red fue que, también en 1980, 3Com presentaría UNET para el Digital PDP-11, convirtiéndose así en una de las primeras implementaciones conocidas de TCP/IP para Unix y Ethernet.

Más cercano a lo que los usuarios conocían fue la apuesta de Digital Research. Como he comentado en otro texto, esta compañía dominaba el mercado de los sistemas operativos para el 8080 de Intel y el Z80 de Zilog y su planteamiento, en el ámbito de la conectividad, fue más práctico al añadir capacidades de conexión remota a una máquina central para que, desde otros ordenadores CP/M, fuese posible acceder. A este sistema operativo lo llamarón MP/M (Multi-Programming Monitor Control Program) y representó un éxito al estar basado en una línea de comandos ya conocida y que no requería máquinas con capacidades muy avanzadas. Recordar que era 1979 y la conexión aún se hacía a través de líneas RS-232. De aquellos primeros ordenadores departamentales y multiusuario con MP/M el más destacado fue el Altos Computer System ACS 8000 que empleaba un procesador Z80 de Zilog (no confundir con el legendario Alto de Xerox). Unos años después, en 1981, Altos aposto por Xenix para intentar ofrecer más capacidades y así aprovechar al máximo su futura línea de máquinas ACS 8600, ya basadas en un 8086 de Intel.

MP/M, y el mundo CP/M en general, quedaría en un segundo plano cuando Microsoft lanzó su DOS. Con este sistema de 16 bits y la consiguiente apuesta de IBM por él, Digital Research tenía enfrente dos grandes compañías y en el mercado se empezaba a hablar de nuevas formas de conexión como Ethernet o ARCnet para las que CP/M y MP/M aún no estaban preparados. Aquella tendencia fue detectada por 3Com quien, en 1982, puso en el mercado una tarjeta de red Ethernet para el IBM PC acompañada del software EtherSeries para DOS y cuyas comunicaciones reposaban en el protocolo de comunicación XNS de Xerox. De esta forma, de manera sencilla, se ofrecía al usuario una tarjeta Ethernet de 3Com, el protocolo y aplicaciones necesarios para constituir una pequeña red local o grupo de trabajo.

En aquel momento era difícil desacoplar la tarjeta de Red y las aplicaciones y pretender ser compatible con el software de terceros, o desarrollar un software que trabajase con cualquier tarjeta de red. Esta situación animó a Microsoft a comercializar en 1984 el MS-Net y ofrecerlo a otros fabricantes como licencia de desarrollo. Esto significa que ellos -Microsoft- ponen a disposición de terceros el software con el que se dota de capacidades de Red a DOS pero este, el fabricante del adaptador, se tiene que trabajar las capas inferiores, o drivers, para usar sus tarjetas de Red. Así es como IBM lanzó para su tarjeta PC Network el PC Network Program. Para simplificar las cosas, Microsoft en el lado de las aplicaciones de su MS-Net, y Sytek e IBM en la tarjeta de Red, implementaron una serie de mensajes o API (Application Programming Interface) conocidos como NetBIOS para, a través de ellos, acceder de forma sencilla y normalizada a las rutinas básicas para que un sistema operativo, aplicación u ordenador trabajen en Red. El uso de NetBIOS llegó a convertirse en algo habitual en las redes Microsoft e IBM hasta la populación de TCP/IP y su API basada en Sockets y Winsock.

En aquel entonces se recomendaba instalar PC Network Program y EtherSeries en una máquina potente para desempeñar las funciones de Servidor. A pesar de esto no se resolvía bien todo lo que a un sistema así se le podía pedir, en particular rapidez, capacidad para trabajar simultáneamente con muchos usuarios y alta disponibilidad. Este importante hueco sería ocupado por Novell y su NetWare. Ellos comenzaron en 1983 comercializando un software especializado en tareas de Red Local para máquinas propias empleando un microprocesador 68000 de Motorola. Concibieron su software desde cero, no dependiendo así de ningún sistema operativo anterior como DOS, CP/M o Unix. Es decir, ellos crearon un sistema operativo de Red para ordenador central o Servidor. Como Servidor, este solo estaría dedicado a tal fin, no siendo utilizado por usuarios en sus tareas cotidianas. También cambiaron el enfoque hecho hasta entonces y, en lugar de compartir discos, atomizaron el elemento de compartición, es decir el fichero y estos, además de residir en el disco, se mantenían en memoria RAM desde la cual se compartía en Red. Esto se traducía en un gran incremento en el tiempo de acceso. También, inspirados por lo que hacía Unix, crearon un sistema de archivos más rico en atributos donde era posible bloquear el acceso a un determinado fichero en función de los permisos de acceso que tenía cada usuario y grupo al que pertenecía, o el uso simultaneo que se podía hacer de él. Además concibieron en NetWare un conjunto de mecanismos que aseguraban la alta disponibilidad de la solución. Aunque de configuración compleja, había que mirar a los grandes sistemas para ver algo parecido. Era el NetWare System Fault Toleran (SFT) y había diferentes grados de producto en función del nivel de criticidad que resolvían: Level I, II y III.

Otra de las grandes ventajas de Novell NetWare residía en la posibilidad de usar otra tarjeta de red diferente a las fabricadas por IBM o 3Com. Esta característica permitía a NetWare abstraerse de una determinada topología de Red como Ethernet o Token Ring pudiendo, por ejemplo, utilizar ARCnet y tarjetas del fabricante Standard Microsystems Corporation (SMC). En sentido, en 1987 y con el fin de fomentar el desarrollo de las redes, Novell desarrolló los adaptadores Ethernet NE1000 y NE2000 cuyo diseño de referencia fue puesto a disposición de cualquier fabricante y los liberó del pago de royalties. Así estás tarjetas se convirtieron en un estándar de mercado seguido por numerosas marcas.

En 1986 Microsoft seguía ofreciendo su MS-Net a fabricantes como IBM. Esta es la razón de que se lanzara PC LAN Program donde ya se contemplaba el uso de la tarjeta Token Ring de IBM. Como hemos visto este software, junto a EtherSeries y PC Network Program, reforzaban la venta de tarjetas de Red al facilitar el desarrollo de pequeñas redes locales pero, si queríamos una gran red, teníamos que recurrir a soluciones como NetWare.

Es por eso que, coincidiendo con el desarrollo del sistema operativo OS/2 entre IBM y Microsoft, cobraba fuerza la idea de competir de igual a igual con Novell. Así es como en 1988 Microsoft, junto con 3Com, pusieron en el mercado LAN Manager y este fue ofrecido a fabricantes como IBM quien lo comercializó bajo el nombre de LAN Server. Aquel lanzamiento y su dependencia de OS/2 apenas araño cuota de mercado a NetWare quien seguía manteniéndose como líder. Para agravar la situación, tras el abandono del codesarrollo de OS/2 por Microsoft, IBM se quedó solo promocionando este software de red como complemento de red para su OS/2. LAN Server funcionaba muy bien y su grado de robustez era alto y además, a través de una configuración basada en las ventanas de OS/2, era relativamente fácil montar un Servidor de Red. Como pasaba con Token Ring, el binomio OS/2 y LAN Server se tenía en cuenta solo en los clientes más fieles a IBM y esto, como no, limitaba las ventas y el crecimiento al que aspiraba Microsoft.

En mayo de 1991 Bill Gates (1955) anunció que la asociación con IBM en la apuesta por OS/2 se daba por concluida y que todos los recursos de desarrollo pasaban a enfocarse en Windows. Así, en 1993, aparecerá la versión 3.11 for Workgroups con la que se incluían las capacidades básicas de Red y, por otro lado, se lanzaba Windows NT 3.1 con el que se redefinió el papel de un Servidor de Red. Con ambos productos se ponía al alcance de muchas organizaciones la posibilidad de levantar una Red casi por intuición. Para arropar esta estrategia, Microsoft fue lanzando una serie de productos como Exchange y SQL Server con los que cualquiera podía tener acceso a servicios de correo electrónico o bases de datos en Red.

Windows NT era lo opuesto a Novell NetWare. Es indiscutible que NetWare era muy bueno pero su grado de complejidad era alto y su amigabilidad nula. En cambio, a través de las ventanas de NT, uno se movía con cierta familiaridad y los conceptos eran fáciles de entender. Cualquiera que haya trabajado aquellos años con NT y NetWare sabe de lo que hablo. Era habitual ver como algunos clientes creaban redes con NT sin ninguna idea pero aquello funcionaba relativamente bien. En cambio, cada vez que -el escribe- asistía a alguna instalación o problema con NetWare, daban escalofríos solo con ver la multitud de manuales que acompañaban al producto…

He comentado como a Unix le sobraban capacidades para trabajar en Red. De hecho, algunas empresas como Banyan presentaron en 1984 su sistema operativo de red, el Vines, basado en Unix. En este sentido, como olvidarse del Unix de Unisys, NCR, HP e incluso IBM con su AIX y, como no, el Solaris de Sun Microsystems. Otras empresas, como Siemens, optaron por usar el Xenix de Microsoft hasta que esta se desprendió de él y acabó en las manos de SCO (The Santa Cruz Operation). Durante buena parte de la década de los noventa, SCO fue el líder del Unix para el mundo PC y representaba una gran opción cuando se pensaba usar Sistemas Abiertos. Todo ello cambiaría con el desarrollo de GNU/Linux.

Aunque ya se ha contado cientos de veces como apareció GNU/Linux, merece la pena recordar que este sistema ha nacido y se ha desarrollado alrededor la figura de Linux Torvals (1969), Richard Stallman (1953) y miles de desarrolladores, mayoritariamente anónimos. El primero, a partir de las ideas de Andrew S. Tanenbaum (1944) y su Minix escrito en 1987 con propósitos docentes, creó un núcleo o kernel de apariencia Unix que corría en un 80386 de Intel. Stallman, por su parte, había desarrollado un conjunto de utilidades para Unix pero libres, sin restricciones del copyright, como un editor, un compilador y shell o línea de comandos, pero le faltaba el kernel. Así se unieron ambos y pusieron a disposición de la comunidad un sistema operativo compatible con el POSIX de Unix (Portable Operating System Interface uniX). No olvidemos que ponerlo a disposición de la comunidad significa abrir su código y distribuirlo libremente para que cualquiera lo pueda modificar y adapte a sus necesidades. Esto sucedió en la primera mitad de los noventa, justo cuando Internet empezó a ser popular y era necesario montar fácilmente un servidor web. En este escenario TCP/IP, donde la unidad de información eran decenas de pequeños objetos a los que apuntaba un fichero HTML, las capacidades de NetWare y Windows NT y su licenciamiento quedaban lejos de los presupuestos y la flexibilidad que esperaba, sobre todo, el mundo académico.

GNU/Linux resolvía a la perfección la posibilidad de poner en marcha un servidor en Internet incluso, los más atrevidos, se lanzaban a poner en marcha una Intranet Corporativa pero, en este caso, se echaba en falta el respaldo de una compañía que certificara una determinada versión y, además, ofreciera alguna línea de soporte más allá de abrir un hilo en la comunidad de desarrolladores. Para paliar este hueco nace Red Hat en 1993. Red Hat, además de ser un importante contribuyente del desarrollo de GNU/Linux, ofrece servicios de soporte para que sus distribuciones sean adoptadas dentro de un entorno empresarial. Es, además, una empresa que cotiza en bolsa y recientemente ha sido adquirida por IBM. En cambio, en otras distribuciones como Debian, también aparecida en 1993, es una comunidad de desarrolladores quien se encarga de su evolución y evita, escrupulosamente, utilizar cualquier software cuya licencia pueda ser privativa. Ambas distribuciones: Debian y Red Hat son las más importantes en este momento y, a partir de ellas, nacen otras muchas como Ubuntu, CentOS, Fedora, Raspbian, etc

Hoy recurrir a un servidor GNU/Linux no es una aventura. Millones de CRM (Customer Relationship Management) y ERP (Enterprise Resource Planning), bases de datos, máquinas virtuales y servidores web reposan sobre él. Por su parte, aun teniendo una importante presencia en Internet, el entorno habitual de los servidores de Microsoft es la empresa. Ahí son los reyes indiscutibles al ofrecer una integración perfecta con la ofimática existente en los escritorios de usuario.

Con este texto he intentado acercar al recién llegado lo que ha pasado en este sector en las últimas décadas. Realmente todo ha sido mucho más complejo de lo que cuento pero, en buena medida, resume lo sucedido y lo vivido en primera persona. Por eso, pido disculpas si echáis en falta algún dato o más precisión. Hasta pronto.

Visitar la colección

1 comentario »

RSS feed for comments on this post. TrackBack URI

  1. […] último, tampoco me puedo olvidar de los sistemas operativos de red, que son tan importantes como las redes físicas. Ni de la electrónica asociada, como […]

    Pingback by ccapitalia.net » Redes de Área Local — 2 diciembre 2018 #

Deja tu opinión

XHTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>



(c) 1999-2018 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress