Electrónica de Red

diciembre 9, 2018 on 5:06 pm | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | En un entorno conectado, como el de las Redes Locales, ha sido necesario establecer un modelo que asegurara la interconexión de sistemas de diferentes fabricantes. En lugar de seguir un planteamiento monolítico, a veces propietario, era necesario separar las distintas funciones y atribuciones de una Red Local en niveles. Esta forma de estructurar el proceso de comunicación ha permitido que niveles con el mismo desempeño pudieran dialogar entre ellos a través de los niveles inferiores. Esto se consiguió tomando como referencia el modelo OSI (Open System Interconnection) promovido por el ISO (International Organization for Standardization) en 1980. En él se identifican siete niveles, cada uno de ellos especializado en una función de Red. Así, por ejemplo, el nivel más cercano al medio de transmisión se denomina Físico, y el más próximo al usuario es conocido como Aplicación. Entre medias hay cinco niveles encargados de cómo se trasportan los datos, el establecimiento de una sesión de comunicación y la topología de red, entre otros.

Este modelo ha sido y es una estupenda guía para la construcción de Redes y lograr que fabricantes diferentes se entiendan. En este texto seguiré este modelo para comprender la posición que han ocupado algunos dispositivos que han estado presentes en las Redes y han hecho posible que estás crezcan e interoperen. Como es de suponer el primer dispositivo trabaja a Nivel Físico, es decir, solo entiende de niveles de tensión. Aquí, los más ortodoxos, identificarán a la MAU (Multi-Access Unit) de IBM. Este era un elemento que no se conectaba a la red eléctrica para funcionar y sus relés internos eran activados remotamente por cada ordenador Token Ring y así formar parte del anillo.

Un poco más inteligentes que las MAU eran los Repetidores Ethernet. Estos equipos operaban también a Nivel Físico y se encargaban de regenerar la señal eléctrica de un bus Ethernet para así poder extender su alcance. Realmente desconocían formatos de tramas y eran transparentes a cualquier evento que se produjese en un segmento Ethernet limitándose a acondicionar eléctricamente la señal Ethernet, amplificarla y retrasmitirla. En este aspecto, su electrónica suele ser compleja aunque carente de circuitos integrados especializados en datos.

En el párrafo anterior mencionaba el empleo del Repetidor en Ethernet y su importancia en la extensión de segmentos Ethernet. En este punto es necesario recordar que un bus basado en cable coaxial fino -o thin- 10Base2 podía tener una longitud máxima de 185m y un límite de 30 máquinas presentes en él. En cambio, los que empleaban coaxial grueso o thick (10Base-5) podían extenderse a 500 metros y soportaban hasta 100 máquinas. Ambos umbrales en distancia y número de ordenadores representan una limitación importante si se deseaba extender una Red Local en un gran edificio. Por eso, en 1985, Digital Equipment Corporation lanzó al mercado un dispositivo Repetidor para ocho buses 10Base-2. Este aparato se comportaba como punto central y, por ejemplo, si queríamos desplegar una Ehetnet en un edificio de ocho plantas podíamos instalar un bus coaxial por planta y, cada extremo de este, conectarlo a una boca de un repetidor. Así teníamos una red Ethernet capaz de albergar hasta 232 usuarios (29 usuarios por planta o bus por 8 segmentos coaxiales). Al igual que el Repetidor de dos puertos, funcionaba a Nivel Físico.

En el mismo nivel OSI operaba el Hub Activo para redes ARCnet. Este disponía de 8 conectores coaxiales donde podían conectarse Hub Pasivos de cuatro puertos, uno de estos se destinaba a la conexión con el Hub Activo. Este nos permitía desarrollar redes con capacidad de hasta un máximo de 28 usuarios. Una vez más, si ojeamos en su interior, apreciamos con claridad, ocho etapas de electrónica analógica encargadas de acondicionar la señal ARCnet.

Hasta ahora hemos visto algunos equipos que operaban a Nivel Físico es decir, a niveles eléctricos. Extendiendo sus capacidades hasta el nivel más alto, o Aplicación, encontramos a los Servidores de Terminales. Estos equipos se instalaban en una Red Ethernet con cableado coaxial permitiendo dar servicio a máquinas que solo sabían hablar por RS-232. Es decir, hacían de intermediarios entre un ordenador central y terminales “tontos” a través del medio Ethernet y coaxial. Estos equipos se estilaban en las primeras redes de ordenadores Digital donde el protocolo era LAT (Local Area Transport) y, posteriormente, TELNET y TCP/IP. También se han usado Servidores de Terminales para dar entrada a una red a usuarios remotos que usan modem y líneas telefónicas.

Obviamente su funcionamiento depende de las capacidades de un microprocesador que, en el caso del Terminal Server de Micom-Interlan de nuestra colección, era un Intel 80186 a 8 MHz. Este es el encargado de correr LAT, TELNET y TCP, y ofrecer una sesión TTY tipo Unix a cada usuario y encaminar esta hacia un ordenador central. En el Terminal Server de Micom-Interlan también se aprecia un circuito integrado clásico para trabajar de Ethernet, el Intel 82586.

El uso de cables coaxiales Ethernet o ARCnet hacia complicadas las reconfiguraciones de una Red. Aunque en un primer momento, cuando se despliega la Red, parecían cómodos, a la hora de reubicar puestos o departamentos la historia cambiaba y era evidente su complejidad. En cambio IBM, con su tecnología Token Ring, cableados STP y MAU como elemento central, demostró un planteamiento acertado. Además, su aproximación de cableado, permitía estructurar fácilmente los tendidos de cable al contemplar centros de cableado, armarios repartidores, distancias, etc. Era, por tanto, necesario reinventar la capa Física de Ethernet para que pudiese trabajar con cables trenzados y existiese un elemento central, a modo de Repetidor, donde se conectaran todos los ordenadores. Así es como Synoptics desarrolló el repetidor LattisNet, que no era otra cosa que un concentrador o hub que empleaba cable de pares trenzados. Ellos, junto con AT&T y su StarLAN 10, redefinieron el nivel físico de Ethernet para trabajar con cables sin apantallar UTP dando así el primer paso del que luego sería, con pequeñas modificaciones, el estándar 10Base-T. Synoptics también impulsaría el empleo de la fibra óptica en redes Ethernet comercializando uno de los primeros transceptores o convertidores de medio que sentó las bases de 10Base-FL.

La segmentación de redes cambiaría con la aparición de los Bridges Ethernet y Token Ring. Estos equipos eran capaces trabajar a Nivel Físico y, además, podían operar con tramas es decir, a Nivel de Enlace. Esto les permitía poder abrir las tramas e ir anotando las direcciones MAC (Media Access Control) para saber en qué segmento de red se encontraba cada ordenador. Estas direcciones son exclusivas de cada tarjeta de red y es, en último término, la dirección tomada en cuenta en la comunicación entre dos equipos. Por lo tanto podían filtrar el tráfico entre dos segmentos de Red -o las colisiones- y solo dejar pasar el estrictamente necesario para una comunicación.

La capacidad de los Bridges para trabajar con tramas MAC les convertía en máquinas potentes. En el equipo Cabletron NE-25E de la colección, identificamos un microprocesador 80186 de Intel, unos bancos de memoria RAM donde se mantenía una tabla con todas las direcciones MAC encontradas y el número de puerto del que cuelgan, y un chip de Intel especializado en el refresco de la RAM, el Intel 82C08. También, es fácil distinguir las etapas Ethernet y sus circuitos integrados 8390 de National Semiconductor y puertos AUI (Attachment Unit Interface). Estos se caracterizan por su conector DB-25 donde se conecta un transceptor 10Base-2, 10Base-5 o en fibra 10Base-FL.

No obstante, aun siendo un gran invento, su capacidad era limitada cuando teníamos que gestionar tráfico de más de dos puertos o dos segmentos Ethernet. Por otra parte, este equipo también tenía que hablar con otros Bridges para identificar bucles y eliminar estos de la topología de una Red a través del bloqueo de uno de sus puertos. Este protocolo era Spanning Tree (802.1D) y fue inventado por Radia Perlman (1951) en Digital en 1985. En resumen, estas y otras tareas para una máquina específica (o sistema embebido) de finales de los ochenta no eran triviales aun destinando un 80186 a 16MHz. Por supuesto, en aquellos años podíamos recurrir a procesadores más potentes si queríamos trabajar con más puertos pero esto era caro y complejo.

Como hemos visto, con el empleo Hubs UTP, Bridges para segmentar redes y el protocolo Spanning Tree, la fisonomía de las redes locales estaba cambiando. También, gracias a sistemas operativos como Novell NetWare y tarjetas de red baratas como la NE2000 las redes se convertían en una tendencia tecnológica que era considerada por numerosas empresas. En este momento de apogeo, dos emprendedores de garaje, Vinod Bhardwaj y Larry Blair, con el apoyo de fondos de inversión, fundaron Kalpana y plantearon una solución ambiciosa e innovadora al unificar las capacidades de un Bridge con la flexibilidad los puertos de un hub UTP. Aquel dispositivo fue llamado Conmutador o Switch porque, como una centralita telefónica, era capaz de poner en contacto dos puertos para que dos ordenadores hablaran. Esto podía ser simultaneado y así, por ejemplo, el puerto 2 hablaba con el 12, mientras que el 3 hablaba con el 8. Concibieron unos chips de diseño a medida o ASIC (Application-Specific Integrated Circuit) que eran capaces de interpretar direcciones MAC de una trama y realizar la conmutación entre puertos. También recurrieron, una vez más, al procesador 80186 de Intel para poder correr un protocolo como Spanning Tree, programar algún filtro entre los puertos y acceder al conmutador por un puerto RS-232 para su configuración.

La tecnología de conmutación fue una auténtica revolución y permitió pensar en la transmisión full dúplex, 100BaseTX y ATM. El reconocimiento de Kalpana como marca fue efímero porque en 1994 -en pleno éxito- fue comprada por Cisco Systems quien la integró en su estrategia que, hasta la fecha, se basaba en vender Routers. Aquella y otras compras permitieron a Cisco entrar en un mercado, el de conmutadores, creando así la línea Catalyst.

Si uno atiende a los textos que hay en Internet, hablar de los origines de Cisco puede resultar confuso. Es fácil toparse con alguna reseña donde se cuentan los conflictos de propiedad con la Universidad de Stanford a raíz del equipo que allí ya se utilizaba para conectar las redes de sus departamentos, campus y la NSFNet. En aquellas redes trabajaban como empleados de la Universidad la pareja formada con Sandy Lenner (1955) y Leonard Bosack (1952). Ellos y otros colegas fundaron Cisco para comercializar algo parecido a los equipos de Stanford mientras seguían trabajando en la propia Universidad y, en teoría, se beneficiaban de esta. Aquello desembocaría en un conflicto sobre quién era el propietario intelectual de la solución que Cisco vendía y tuvo que resolverse con un acuerdo entre ambos.

Estos equipos, conocidos como Encaminadores, Enrutador o Router, no eran una novedad y se inspiraban en las capacidades de los viejos IMP (Interface Message Processor). Aun así, el Router de Cisco se convirtió en un pequeño éxito al contar con un software especializado en trabajar en los Niveles Físico, Enlace y Red al que llamaron Cisco IOS (Internetwork Operating System). Su hardware, también de uso exclusivo, estaba basado en un microprocesador 68000 de Motorola y una arquitectura de bus Multibus. La primera familia de productos que comercializaron fueron los Cisco AGS. Era 1987 y aquellos equipos no tardaron en convertirse en un estándar de la nueva Internet que nacía gracias al impulso de la NSFNet. A España llegaron de la mano de Unitronics, quien los introdujo tras conocer sus capacidades en una feria en EE.UU. mientras eran presentados por los propios Sandy y Leo.

Desde hace años Cisco es una de las compañías más importantes de mundo tecnológico. Ellos han logrado mantenerse como líderes mientras que el resto de competidores fracasaron al intentar evolucionar del área en la que triunfaron. Posiblemente, esta capacidad de supervivencia, es consecuencia de la rápida profesionalización que experimentó su gestión con John Morgridge (1933) y John Chambers (1949) como CEOs al frente de la compañía, borrando así de su historia los controvertidos años iniciales y apartando a Sandy Lenner y Leo Bosack. Sin duda, de haber mantenido aquel espíritu original, habría sido difícil la toma de decisiones tan ambiciosas como la compra e integración de decenas de empresas.

La conexión de las empresas a Internet, unido al pleno desarrollo de las redes locales Ethernet, puso de manifiesto la importante brecha de seguridad que aquello suponía. Por ejemplo, cuando trabajaba en Unitronics a finales de los ´90, mi ordenador tenía una dirección IP pública con la que podía ser visto por cualquiera desde Internet. Hoy aquello sonará raro pero en aquel momento era habitual contar con un rango de direcciones asignadas públicas. En resumen, era relativamente fácil colarse en los servidores de correo o en la web de cualquier compañía. Por eso era necesario contar con algún equipo con al menos dos adaptadores Red de Ethernet que hiciera de cortafuegos entre un segmento potencialmente inseguro, como la conexión a Internet, y una red segura o nuestra red interna. Para detectar una intrusión sospechosa este equipo tenía que inspeccionar todo el tráfico a Nivel Red (IGMP e IP) y Transporte (UDP y TCP) y poder, llegado el caso, filtrar un determinado intento de conexión. A este equipo, por razones evidentes, se le denominó Firewall y solía consistir en un ordenador potente, como una máquina Sun Microsystems, donde se instalaban varios adaptadores de Red, uno para cada segmento Ethernet. Por último y más importante, sobre esta máquina y su sistema operativo Solaris, corría un software especializado en seguridad llamado Firewall-1 de la firma Check Point.

Check Point es una compañía israelí que ha desarrollado y distribuye un software que hace posible establecer un punto de demarcación lógico y seguro entre redes locales. Inicialmente ellos trabajaban sobre máquinas de uso genérico como Sun Microsystems y Solaris. Más tarde empezaron a comercializar su solución en un hardware de uso específico fabricado por Nokia y el sistema operativo IPSO. ¿Nokia? Si, la misma marca de los teléfonos móviles y que, en aquellos años ya contaba con una fuerte división de equipos de red. Nokia compró a una empresa californiana llamada Ipsilon Network que era un fabricante de conmutadores ATM. Ipsilon también desarrolló un sistema operativo especializado que hacia de plano de control de sus conmutadores. Este se llamaba IPSO. De hecho, de la combinación de sus conmutadores ATM y su IPSO nació IPSwitch que era una de las fuentes (junto a otras) que inspiraría MPLS. IPSO a su vez estaba basado en Unix FreeBSD. En resumen, aunque el Firewall-1 de Check Point ha podido correr en otros sistemas operativos, tras la compra en 1997 de Ipsilon Networks y su IPSO por parte de Nokia, esta ha sido su plataforma hardware y sistema operativo habitual. Tanto es así que en el año 2009 Check Point se independizaría de Nokia al comprarle esta área. Aquel hardware ya estaba basado en procesadores Intel Pentium II y Pentium III. Más allá de esto y volviendo a las bondades de Check Point, estaba su capacidad de hacer firewalling Stateful. Esto es, entender la comunicación que se establece entre dos máquinas y conocer al acuerdo que llegan ambas para trabajar en un determinado puerto TCP o UDP y, si procedía, abrirlo para que se comuniquen. Esto a velocidad de línea y para un montón de usuarios…

Visitar la colección

Sistemas Operativos de Red

diciembre 2, 2018 on 9:09 pm | In galería de imágenes, retroinformática, telecomunicaciones | 1 Comment

Adolfo García Yagüe | En el texto anterior expliqué como un medio compartido -como el cable coaxial- ponía en contacto a usuarios de un mismo grupo de trabajo o de un departamento afín. Veíamos como ARCnet, Ethernet o Token Ring son tecnologías de Red a través de las cuales se han conectado nuestros ordenadores, compartiendo un medio físico -el cable- y definiendo como la información viajaba por este, pero ahí acaba su competencia. Por lo tanto, estas y otras soluciones, no saben nada de aplicaciones, compartición de recursos o ficheros. Para esta tarea se han empleado dos aproximaciones: Por un lado era posible añadir a nuestro sistema operativo un conjunto de capacidades que nos permitiera estar en red, al alcance de otros usuarios y, otra posibilidad, es especializar a un sistema operativo en estas labores y que, sin llegar a ser un gran ordenador, desempeñe el papel de máquina central o Servidor.

Hay que decir que en 1980 aquel sistema operativo especializado en trabajar con muchos usuarios a la vez existía y estaba a disposición de ordenadores de tamaño mediano, también conocidos como miniordenadores. Era Unix de los Bell Labs. Como podemos ver en la galería donde se recogen las piezas de la cuarta generación, el Unix ya era objeto de estudio en las aulas universitarias en la década ´70 gracias a los apuntes publicados por John Lions (1937-1998) y la propia Bell Labs. No obstante, Unix quedaba un poco lejos de la potencia que podía ofrecer una máquina personal de aquella década. A pesar de esto, Microsoft compró en 1978 una licencia a Bell Labs para desarrollar una distribución de Unix para máquinas personales a la espera de que estas fueran lo suficiente potentes. Así fue como en 1980, aprovechado las capacidades del 8086 de Intel, se anunció un sistema operativo basado en Unix bajo el nombre de Xenix. Aquello estaba adelantado a su tiempo y su impacto no fue muy grande. Otra prueba de que Unix ya podía funcionar en Red fue que, también en 1980, 3Com presentaría UNET para el Digital PDP-11, convirtiéndose así en una de las primeras implementaciones conocidas de TCP/IP para Unix y Ethernet.

Más cercano a lo que los usuarios conocían fue la apuesta de Digital Research. Como he comentado en otro texto, esta compañía dominaba el mercado de los sistemas operativos para el 8080 de Intel y el Z80 de Zilog y su planteamiento, en el ámbito de la conectividad, fue más práctico al añadir capacidades de conexión remota a una máquina central para que, desde otros ordenadores CP/M, fuese posible acceder. A este sistema operativo lo llamarón MP/M (Multi-Programming Monitor Control Program) y representó un éxito al estar basado en una línea de comandos ya conocida y que no requería máquinas con capacidades muy avanzadas. Recordar que era 1979 y la conexión aún se hacía a través de líneas RS-232. De aquellos primeros ordenadores departamentales y multiusuario con MP/M el más destacado fue el Altos Computer System ACS 8000 que empleaba un procesador Z80 de Zilog (no confundir con el legendario Alto de Xerox). Unos años después, en 1981, Altos aposto por Xenix para intentar ofrecer más capacidades y así aprovechar al máximo su futura línea de máquinas ACS 8600, ya basadas en un 8086 de Intel.

MP/M, y el mundo CP/M en general, quedaría en un segundo plano cuando Microsoft lanzó su DOS. Con este sistema de 16 bits y la consiguiente apuesta de IBM por él, Digital Research tenía enfrente dos grandes compañías y en el mercado se empezaba a hablar de nuevas formas de conexión como Ethernet o ARCnet para las que CP/M y MP/M aún no estaban preparados. Aquella tendencia fue detectada por 3Com quien, en 1982, puso en el mercado una tarjeta de red Ethernet para el IBM PC acompañada del software EtherSeries para DOS y cuyas comunicaciones reposaban en el protocolo de comunicación XNS de Xerox. De esta forma, de manera sencilla, se ofrecía al usuario una tarjeta Ethernet de 3Com, el protocolo y aplicaciones necesarios para constituir una pequeña red local o grupo de trabajo.

En aquel momento era difícil desacoplar la tarjeta de Red y las aplicaciones y pretender ser compatible con el software de terceros, o desarrollar un software que trabajase con cualquier tarjeta de red. Esta situación animó a Microsoft a comercializar en 1984 el MS-Net y ofrecerlo a otros fabricantes como licencia de desarrollo. Esto significa que ellos -Microsoft- ponen a disposición de terceros el software con el que se dota de capacidades de Red a DOS pero este, el fabricante del adaptador, se tiene que trabajar las capas inferiores, o drivers, para usar sus tarjetas de Red. Así es como IBM lanzó para su tarjeta PC Network el PC Network Program. Para simplificar las cosas, Microsoft en el lado de las aplicaciones de su MS-Net, y Sytek e IBM en la tarjeta de Red, implementaron una serie de mensajes o API (Application Programming Interface) conocidos como NetBIOS para, a través de ellos, acceder de forma sencilla y normalizada a las rutinas básicas para que un sistema operativo, aplicación u ordenador trabajen en Red. El uso de NetBIOS llegó a convertirse en algo habitual en las redes Microsoft e IBM hasta la populación de TCP/IP y su API basada en Sockets y Winsock.

En aquel entonces se recomendaba instalar PC Network Program y EtherSeries en una máquina potente para desempeñar las funciones de Servidor. A pesar de esto no se resolvía bien todo lo que a un sistema así se le podía pedir, en particular rapidez, capacidad para trabajar simultáneamente con muchos usuarios y alta disponibilidad. Este importante hueco sería ocupado por Novell y su NetWare. Ellos comenzaron en 1983 comercializando un software especializado en tareas de Red Local para máquinas propias empleando un microprocesador 68000 de Motorola. Concibieron su software desde cero, no dependiendo así de ningún sistema operativo anterior como DOS, CP/M o Unix. Es decir, ellos crearon un sistema operativo de Red para ordenador central o Servidor. Como Servidor, este solo estaría dedicado a tal fin, no siendo utilizado por usuarios en sus tareas cotidianas. También cambiaron el enfoque hecho hasta entonces y, en lugar de compartir discos, atomizaron el elemento de compartición, es decir el fichero y estos, además de residir en el disco, se mantenían en memoria RAM desde la cual se compartía en Red. Esto se traducía en un gran incremento en el tiempo de acceso. También, inspirados por lo que hacía Unix, crearon un sistema de archivos más rico en atributos donde era posible bloquear el acceso a un determinado fichero en función de los permisos de acceso que tenía cada usuario y grupo al que pertenecía, o el uso simultaneo que se podía hacer de él. Además concibieron en NetWare un conjunto de mecanismos que aseguraban la alta disponibilidad de la solución. Aunque de configuración compleja, había que mirar a los grandes sistemas para ver algo parecido. Era el NetWare System Fault Toleran (SFT) y había diferentes grados de producto en función del nivel de criticidad que resolvían: Level I, II y III.

Otra de las grandes ventajas de Novell NetWare residía en la posibilidad de usar otra tarjeta de red diferente a las fabricadas por IBM o 3Com. Esta característica permitía a NetWare abstraerse de una determinada topología de Red como Ethernet o Token Ring pudiendo, por ejemplo, utilizar ARCnet y tarjetas del fabricante Standard Microsystems Corporation (SMC). En sentido, en 1987 y con el fin de fomentar el desarrollo de las redes, Novell desarrolló los adaptadores Ethernet NE1000 y NE2000 cuyo diseño de referencia fue puesto a disposición de cualquier fabricante y los liberó del pago de royalties. Así estás tarjetas se convirtieron en un estándar de mercado seguido por numerosas marcas.

En 1986 Microsoft seguía ofreciendo su MS-Net a fabricantes como IBM. Esta es la razón de que se lanzara PC LAN Program donde ya se contemplaba el uso de la tarjeta Token Ring de IBM. Como hemos visto este software, junto a EtherSeries y PC Network Program, reforzaban la venta de tarjetas de Red al facilitar el desarrollo de pequeñas redes locales pero, si queríamos una gran red, teníamos que recurrir a soluciones como NetWare.

Es por eso que, coincidiendo con el desarrollo del sistema operativo OS/2 entre IBM y Microsoft, cobraba fuerza la idea de competir de igual a igual con Novell. Así es como en 1988 Microsoft, junto con 3Com, pusieron en el mercado LAN Manager y este fue ofrecido a fabricantes como IBM quien lo comercializó bajo el nombre de LAN Server. Aquel lanzamiento y su dependencia de OS/2 apenas araño cuota de mercado a NetWare quien seguía manteniéndose como líder. Para agravar la situación, tras el abandono del codesarrollo de OS/2 por Microsoft, IBM se quedó solo promocionando este software de red como complemento de red para su OS/2. LAN Server funcionaba muy bien y su grado de robustez era alto y además, a través de una configuración basada en las ventanas de OS/2, era relativamente fácil montar un Servidor de Red. Como pasaba con Token Ring, el binomio OS/2 y LAN Server se tenía en cuenta solo en los clientes más fieles a IBM y esto, como no, limitaba las ventas y el crecimiento al que aspiraba Microsoft.

En mayo de 1991 Bill Gates (1955) anunció que la asociación con IBM en la apuesta por OS/2 se daba por concluida y que todos los recursos de desarrollo pasaban a enfocarse en Windows. Así, en 1993, aparecerá la versión 3.11 for Workgroups con la que se incluían las capacidades básicas de Red y, por otro lado, se lanzaba Windows NT 3.1 con el que se redefinió el papel de un Servidor de Red. Con ambos productos se ponía al alcance de muchas organizaciones la posibilidad de levantar una Red casi por intuición. Para arropar esta estrategia, Microsoft fue lanzando una serie de productos como Exchange y SQL Server con los que cualquiera podía tener acceso a servicios de correo electrónico o bases de datos en Red.

Windows NT era lo opuesto a Novell NetWare. Es indiscutible que NetWare era muy bueno pero su grado de complejidad era alto y su amigabilidad nula. En cambio, a través de las ventanas de NT, uno se movía con cierta familiaridad y los conceptos eran fáciles de entender. Cualquiera que haya trabajado aquellos años con NT y NetWare sabe de lo que hablo. Era habitual ver como algunos clientes creaban redes con NT sin ninguna idea pero aquello funcionaba relativamente bien. En cambio, cada vez que -el escribe- asistía a alguna instalación o problema con NetWare, daban escalofríos solo con ver la multitud de manuales que acompañaban al producto…

He comentado como a Unix le sobraban capacidades para trabajar en Red. De hecho, algunas empresas como Banyan presentaron en 1984 su sistema operativo de red, el Vines, basado en Unix. En este sentido, como olvidarse del Unix de Unisys, NCR, HP e incluso IBM con su AIX y, como no, el Solaris de Sun Microsystems. Otras empresas, como Siemens, optaron por usar el Xenix de Microsoft hasta que esta se desprendió de él y acabó en las manos de SCO (The Santa Cruz Operation). Durante buena parte de la década de los noventa, SCO fue el líder del Unix para el mundo PC y representaba una gran opción cuando se pensaba usar Sistemas Abiertos. Todo ello cambiaría con el desarrollo de GNU/Linux.

Aunque ya se ha contado cientos de veces como apareció GNU/Linux, merece la pena recordar que este sistema ha nacido y se ha desarrollado alrededor la figura de Linux Torvals (1969), Richard Stallman (1953) y miles de desarrolladores, mayoritariamente anónimos. El primero, a partir de las ideas de Andrew S. Tanenbaum (1944) y su Minix escrito en 1987 con propósitos docentes, creó un núcleo o kernel de apariencia Unix que corría en un 80386 de Intel. Stallman, por su parte, había desarrollado un conjunto de utilidades para Unix pero libres, sin restricciones del copyright, como un editor, un compilador y shell o línea de comandos, pero le faltaba el kernel. Así se unieron ambos y pusieron a disposición de la comunidad un sistema operativo compatible con el POSIX de Unix (Portable Operating System Interface uniX). No olvidemos que ponerlo a disposición de la comunidad significa abrir su código y distribuirlo libremente para que cualquiera lo pueda modificar y adapte a sus necesidades. Esto sucedió en la primera mitad de los noventa, justo cuando Internet empezó a ser popular y era necesario montar fácilmente un servidor web. En este escenario TCP/IP, donde la unidad de información eran decenas de pequeños objetos a los que apuntaba un fichero HTML, las capacidades de NetWare y Windows NT y su licenciamiento quedaban lejos de los presupuestos y la flexibilidad que esperaba, sobre todo, el mundo académico.

GNU/Linux resolvía a la perfección la posibilidad de poner en marcha un servidor en Internet incluso, los más atrevidos, se lanzaban a poner en marcha una Intranet Corporativa pero, en este caso, se echaba en falta el respaldo de una compañía que certificara una determinada versión y, además, ofreciera alguna línea de soporte más allá de abrir un hilo en la comunidad de desarrolladores. Para paliar este hueco nace Red Hat en 1993. Red Hat, además de ser un importante contribuyente del desarrollo de GNU/Linux, ofrece servicios de soporte para que sus distribuciones sean adoptadas dentro de un entorno empresarial. Es, además, una empresa que cotiza en bolsa y recientemente ha sido adquirida por IBM. En cambio, en otras distribuciones como Debian, también aparecida en 1993, es una comunidad de desarrolladores quien se encarga de su evolución y evita, escrupulosamente, utilizar cualquier software cuya licencia pueda ser privativa. Ambas distribuciones: Debian y Red Hat son las más importantes en este momento y, a partir de ellas, nacen otras muchas como Ubuntu, CentOS, Fedora, Raspbian, etc

Hoy recurrir a un servidor GNU/Linux no es una aventura. Millones de CRM (Customer Relationship Management) y ERP (Enterprise Resource Planning), bases de datos, máquinas virtuales y servidores web reposan sobre él. Por su parte, aun teniendo una importante presencia en Internet, el entorno habitual de los servidores de Microsoft es la empresa. Ahí son los reyes indiscutibles al ofrecer una integración perfecta con la ofimática existente en los escritorios de usuario.

Con este texto he intentado acercar al recién llegado lo que ha pasado en este sector en las últimas décadas. Realmente todo ha sido mucho más complejo de lo que cuento pero, en buena medida, resume lo sucedido y lo vivido en primera persona. Por eso, pido disculpas si echáis en falta algún dato o más precisión. Hasta pronto.

Visitar la colección

El Futuro de Internet

noviembre 28, 2018 on 6:59 pm | In análisis de datos, ciencia ficción, galería de imágenes, internet | No Comments

Parece que el futuro de Internet está en manos de compañías como Facebook, Google y otras tantas… y que la gratuidad de las aplicaciones y redes sociales que estos y otros ofrecen es porque se hacen de oro con nuestros datos… y qué decir del riesgo que corremos expuestos a tanto acoso, narcisismo, vacuidad, odio y noticias falsas… En un golpe de nostalgia, miramos a los años noventa y estamos convencidos de que allí se encontraban las esencias, creyendo que se hace necesario refundar Internet y planteamos un mecanismo de comunicación sin servidores, basado en P2P y Blockchain… Este era el tema central del reciente encuentro de Lisboa en el que participaba gente como Tim Berners-Lee entre otros destacados ponentes.

Tristemente, el tiempo en el que nació Internet en las Universidades y Centros de Investigación impulsado por gente como Berners-Lee pasó. Hicieron aportaciones fundamentales y usaron Internet para lo más básico, que era comunicarse con otros colegas a través de un correo, una news o una web. Aquello debe ser recordado y merece todo tipo de reconocimientos pero hoy, difícilmente, puede competir con el impulso dado por multitud de empresas privadas que han inventado cientos de aplicaciones y formas de comunicarse en Internet, algunas fallidas y ruinosas. Como no, no puedo olvidar a todas esas comunidades que desarrollan software abierto, sin restricciones de uso que operan gracias a Internet. Es evidente su aportación pero casi siempre hay una empresa o iniciativa privada que empuja su desarrollo o incluso termina adoptándolo, cuando no absorbiéndolo: MySQL y Oracle, Microsoft y GitHub, Red Hat e IBM, Hadoop, etc.

Aun así, uno puede seguir siendo “auténtico” en su uso de Internet: Perfectamente puede mantener una página web y escribir artículos de no-se-que. Pero, no lo olvidemos, no se puede pretender que al resto de internautas (expresión anacrónica, de los ´90) le interese lo que estas contando. Es decir, para cierta gente Internet sigue siendo un sitio donde aprender, buscar información y compartir ideas; mientras que para otros, es solo una forma de comprar o mantenerse conectado a través de mensajes cortos, proyectar su vida o curiosear en la de otros. Para entendernos, puedes construir bibliotecas pero no puedes obligar que la gente lea sus libros.

Es lamentable que alguien se comporte mal en Internet o, interesadamente, difunda información envenenada. Desgraciadamente, las personas proyectamos lo que somos a nuestro alrededor. Solo hay que leer los foros de muchos periódicos respetables y te darás cuenta de la cantidad de radicales y odiadores que hay entre sus lectores. En Twitter o en Facebook pasa lo mismo. Por supuesto, puedes ser víctima de información sesgada y formarte una opinión equivocada y ser dirigido. El problema es que técnicamente resulta difícil analizar en tiempo real, interpretar y filtrar todo lo que se publica, sin mencionar a qué Gran Hermano o Censor le damos esta atribución.

Por otra parte, si quiero saber cómo va el tráfico de Madrid a Sevilla consulto Google. Ya sabemos que para que Google pronostique la duración de ese trayecto está recogiendo datos de localización de los móviles Android de todas las personas que están viajando antes que yo. Así estima que el trayecto durará más de 5 horas. Es decir, mis datos de localización y los de otra mucha gente hacen posible esto. Hoy vivimos en una época en que la se cuenta con capacidades técnicas para recoger y procesar -en un instante- miles de millones de datos de todo tipo. Es importante asumir esto y entender por qué se habla de las oportunidades de negocio que puede ofrecer la Economía de Datos. Ante esto, si queremos vivir y relacionarnos en el Siglo XXI, resulta difícil prescindir de nuestro plan de datos y no instalar ninguna App, pero es posible.

Acabo preguntándome por las implicaciones de Red Neutral. Para alguien puede ser no filtrar aplicaciones P2P, incluso si el propósito es el intercambio ilegal de archivos… Por supuesto, no cerrar una web, aunque desde sus páginas se publiquen mentiras o se incite al odio… Otros pueden pensar que neutral significa no ralentizar el tráfico VoIP de WhatsApp, aunque nos quejemos del riesgo de poner nuestros datos y hábitos a su alcance… Aquellos pueden pensar que esto de la Red Neutral es una cosa buena, a pesar de Tor y navegación anónima con fines ilícitos por la Internet Profunda… Y ¿Qué pasa con Bitcoin y los ciberdelitos?… En fin, que no sé muy bien que se pretende ni cómo se hace para que todos nos sintamos tranquilos.

Con estas reflexiones solo pretendo compartir algunas dudas sobre los límites y la posible solución de los problemas a través de la tecnología amparándonos en una supuesta “decadencia” social (o de Internet). Estoy seguro que aparecerán nuevas soluciones como Blockchain, pero esto no resuelve lo más básico que es lo que cada uno de nosotros tenemos en la cabeza y como lo exteriorizamos. Bien distinta es la adecuación de nuestras leyes a este nuevo escenario que es Internet. Poco a poco se empieza a regular el uso de los datos, las actitudes en Internet, se persigue el uso fraudulento y se intenta proteger la propiedad intelectual… Creo que vamos en el camino acertado y cada día los gobiernos, jueces y policía son más sensibles a esto y se adaptan. Cosa que no es fácil ni rápida.

Sonikas, 22 y 23 de Diciembre

noviembre 19, 2018 on 6:59 pm | In arte sonoro, sonikas | No Comments

Han pasado 16 años y aquí seguimos. Una de las claves de esta longevidad es la autenticidad de lo que en Sonikas se escucha, o debería decir se expone. Como sabéis siempre nos hemos movido por terrenos de difícil audición, huyendo de bucólicas melodías y ritmos predecibles. Es por eso que en el festival siempre hemos tratado al sonido como materia plástica sobre la que el artista trabaja su obra, a veces de interpretación áspera. También ha sido la consecuencia de que en este tiempo nos hemos ido despojando de prejuicios y hemos aprendido a escuchar, y nos hemos dado cuenta que el sonido puede ser modelado de muchas formas: por la naturaleza y su paisaje, un instrumento clásico llevado al límite, o un oscilador electrónico.

Con casi 16 ediciones a la espalda, celebramos con vosotros cada nueva edición como un logro y siempre pensamos que puede ser la última vez. Es el precio que tenemos que pagar por movernos en los límites, pero nos gusta.

20H – Centro Cultural Lope de Vega – c/ Concejo de Teverga – Madrid
Entrada gratis hasta completar el aforo. Una vez comenzada cada actuación no se puede acceder.
www.ccapitalia.net/crc

Redes de Área Local

noviembre 3, 2018 on 12:02 pm | In galería de imágenes, retroinformática, telecomunicaciones | 5 Comments

Adolfo García Yagüe | Con el comienzo de la década de los ’80 se produjo una transformación en la forma de trabajar de muchas organizaciones. Cómo hemos visto, los ordenadores personales se convirtieron en una herramienta que aumentaba la productividad de los empleados y hacía más competitivas a sus respectivas compañías. En gran parte, esta nueva tendencia se debida a la capacidad que ofrecían los nuevos equipos personales pero, además, a la posibilidad de compartir remotamente con otros usuarios recursos tan valiosos como una impresora, un disco duro, la mensajería electrónica y alguna aplicación o archivo.

Antes de esta transformación se estilaba un modelo centralizado donde todo el proceso y tratamiento de datos giraba alrededor de una o varias máquinas del centro de cálculo. Al principio, este proceso centralizado se basaba en que el resto de departamentos como el financiero, producción o incluso los programadores necesitaban definir con exactitud lo que deseaban del ordenador central y allí, el pequeño ejército de empleados, se encargaban de procesar los datos para entregar las respuestas a los interesados.

Más adelante se empezaron a utilizar terminales y las líneas de un operador de telecomunicaciones para permitir el acceso remoto al ordenador central, es la época del Teleproceso. Estas terminales eran como “pequeñas ventanas” a través de las cuales era posible interactuar directamente con el ordenador. Por esta razón, en aquellos tiempos, se empieza a hablar de capacidades Multiusuario al referirse a la característica que tiene un ordenador central y sistema operativo de atender a múltiples usuarios al mismo tiempo y dar la sensación de que trabaja solo para ellos.

Aquellas ventanas o terminales dependían de la conexión y cable serie RS-232 o V.24. Este cable estaba a su vez compuesto por varios hilos de cobre: uno para transmitir datos, otro para recibirlos, otro para señalizar la confirmación de la recepción y así un largo etcétera que, a menudo, difería de cada fabricante y máquina. Además, la conexión RS-232 imponía un límite importante en su velocidad que, como máximo, era de 9600 bps. Por eso IBM, en su arquitectura SNA, empezó a utilizar cables coaxiales en la comunicación de sus terminales con el ordenador central. Aun así, para conexiones distantes con el ordenador central, no quedaba más remedio de recurrir a los módems y las redes de operador.

Estas razones llevaron a la Universidad de Hawái, en 1970, a poner en práctica un modelo que comunicara sus terminales, dispersos a kilómetros, usando señales de radiofrecuencia. A aquella red la llamarón ALOHANET y, básicamente, consistía en un mecanismo por el cual todos los terminales eran capaces de enviar información por el mismo canal radio UHF (407,350 MHz) hacia el ordenador central y, en caso de que dos o más terminales ocuparan el canal de envío al mismo tiempo (colisión), se establecía un mecanismo de acceso aleatorio entre ellos para resolver esta colisión. En el caso contrario, cuando era el ordenador central el que enviaba la información, se empleaba un canal distinto (413,475 MHz) y este llegaba a todos los terminales a la vez (broadcast) y solo el destinatario abría.

La experiencia de ALOHANET y la Universidad de Hawái sirvió para que Robert Metcalfe (1946) y David Reeves Boggs (1950), unos jóvenes empleados del Xerox PARC en California, desarrollaran una tecnología de comunicación llamada Ethernet empleando un cable coaxial como medio físico. Estamos en 1976 y este modelo de comunicación fue implementado en el ordenador Alto y permitía la comunicación a una velocidad 3Mbps. Este fue un ordenador experimental, adelantado a todo lo existente, con el que Xerox pretendía redefinir el trabajo en las oficinas. No tenía un propósito comercial y, aunque se cedieron máquinas Alto a unas cuantas universidades, era una prueba de nuevos conceptos como la citada conexión Ethernet y las redes locales o LAN (Local Area Network), el entorno gráfico o el ratón como dispositivo apuntador.

Como hemos dicho, hacia finales de los años ´70, las redes locales y los sistemas de comunicación empezaban a ser una preocupación para algunas compañías. Ethernet era una tecnología más junto a otras como ARCnet (Attached Resource Computer), desarrollada en 1977 por John Murphy (1943) y Gordon Peterson en la compañía Datapoint Corporation. Realmente, ARCnet fue la primera en llegar comercialmente al mercado y podía presumir de tener como cliente al Chase Manhattan Bank. A simple vista Ethernet y ARCnet podían parecer similares. Ambas prescindían de los cables RS-232 y resolvían la conectividad en un edificio facilitando que varias máquinas se conectaran entre sí. La diferencia más llamativa era que el cableado ARCnet era muy sencillo, empleaba coaxiales flexibles del tipo RG-62/U y su topología se basaba en una estrella pasiva donde se conectan los diferentes brazos, o máquinas, mientras Ethernet usaba un cable coaxial grueso y rígido RG-8 en el que había que “pinchar” literalmente cada máquina y obligaba a respetar unas distancias entre equipos.

Como vemos en ambos casos estamos en un medio compartido –el cable coaxial- donde tenemos que gestionar el acceso simultáneo. En ARCnet no se producían colisiones porque un testigo pasaba de una máquina a otra y solo el propietario del citado testigo podía enviar información (Token Passing). En cambio, en Ethernet, se pensó en una técnica derivada de ALOHA pero con alguna mejora. En este caso cada máquina escucha el medio (el cable coaxial) y si está desocupado se envía información. Si por alguna circunstancia se produce una colisión, esta se detecta y se espera un tiempo aleatorio para reenviar el paquete de información: Carrier Sense Multiple Access with Collision Detection (CSMA/CD).

ARCnet era más eficiente a pesar de que su velocidad era solo de 2Mbps. No obstante, era una tecnología propietaria de Datapoint, lo que significaba que está compañía tenían pleno control sobre ella, y Ethernet -sin llegar a considerarse libre- tenía un modelo de patentes más flexible lo que podía animar a cualquier fabricante a desarrollar un producto. Esta aproximación más laxa hizo que Ethernet triunfara en los primeros años frente a otras aproximaciones que, sobre el papel, demostraban ser mejores. De aquel cambio de concepto, difusión y éxito se encargaría Robert Metcalfe. Ya hemos visto como esta tecnología fue coinventada por él tras su paso por Xerox. Un poco más tarde de aquello, en 1979, Metcalfe propuso constituir un consorcio a Digital Equipment Corporation, Intel y a Xerox (DIX) para reescribir las especificaciones técnicas de Ethernet y publicarlas para que cualquiera las implementase y pudiese comprar, si lo deseaba, chips Ethernet de Intel o equipos de Digital y Xerox. Así se lanzó Ethernet II (DIX v2.0) donde se diferenciaba 10Base5 describiendo el uso de un cable coaxial grueso RG-8/U (Thick) y 10Base2 para un coaxial más flexible RG-58/U (Thin), ambas a una velocidad de 10Mbps. Robert Metcalfe, por su parte, montó una empresa especializada en productos Ethernet llamada 3Com (Computer Communication Compatibility).

El éxito de 3Com fue en aumento al comercializar el primer adaptador Ethernet y software de red local para el IBM modelo 5150. El mercado Ethernet no paraba de crecer con las soluciones de 3Com y de otros fabricantes, animándose así, la bajada de precios e innovaciones sobre el estándar de Xerox, Intel y Digital. En vista de ello, Ethernet fue elevado al IEEE (Institute of Electrical and Electronics Engineers) quien se encargó de regular su evolución y mejoras bajo el estándar 802.3.

IBM, aun teniendo un papel importante en el mundo de las redes de área local, parecía no sentirse cómoda. Por un lado, en su negocio principal, la venta de ordenadores centrales, aquello de las redes locales “chocaba” un poco con su arquitectura SNA. Por otro lado, en los genes de IBM no estaba -en aquella época- seguir un estándar que ellos no habían inventado y sobre el cuál no tenían control. En resumen, ante aquel tsunami, empezaron comercializando en 1984 la PC Network, cuya tecnología estaba basada en solución de la empresa Sytek pero alcanzando velocidades de 2Mbps. Esta también recurría a los cables coaxiales pero en este caso emplea convencionales RG-6/U, de los usados en televisión. Para ello se emitía en canales VHF dentro de las regiones de los 70-106MHz y 206-226MHz, y se empleaba CSMA/CD para acceso al medio y detección de colisiones. Como acabo de citar, Sytek desarrolló está tecnología en 1982 y comercializó unos módems llamados LocalNet 20/100 para conectar terminales a coaxiales a velocidades de 128Kbps. Como dato importante, en la PC Network encontramos, por primera vez, una BIOS específica para las tareas de red: el NetBIOS.

Aunque la tecnología de Sytek pretendía ser más sencilla que Ethernet al emplear coaxiales más baratos y comunes, la realidad es que la electrónica de las tarjetas de red es mucho más cara y compleja al incluir etapas de alta frecuencia. Supongo que esta fue una de las razones que impulsó a IBM a desarrollar su propia tecnología de red y lanzar así Token Ring en 1986.

Token Ring fue desarrollada en los laboratorios de investigación de IBM en Zúrich, Suiza. Al frente de esta tecnología estaban Werner Bux y Hans Müller. En Token Ring se pretendía suplir las carencias de Ethernet y de otras tecnologías de red. Para empezar se pensó en la alta disponibilidad, tan común en el mundo mainframe o gran ordenador. Es decir, tenía que ser posible bloquear a una estación si esta daba errores al entrar en un entorno compartido como un cable. También tenía que ser posible llegar al mainframe por diferentes caminos o anillos con la misma dirección de destino. Tampoco agradaba a IBM un modelo de acceso basado en las colisiones pues esto impedía hacer de la red local un espacio determinista donde fuese posible estimar el tiempo en que hablaba cada máquina. Para ello se recurrió al sistema de paso de un testigo (Token) y, de forma parecida a ARCnet, solo el propietario del Token podía hablar. Por último y más importante, se prescindía de los buses de cable coaxial y en cambio se proponía una topología basada en anillo (Ring), donde a uno o más elementos centrales o MAU (Multi-Access Unit) se conectaba cada máquina con cables STP (Shielded Twisted Pair), también conocidos como IBM Categoria 1 y constituidos en su interior por dos parejas de dos hilos cada una y un apantallamiento metálico o blindaje. Este tipo de cableado y las MAU, como elemento central, sentarían las bases de lo que en 1991 sería la norma EIA/TIA 568 para cableado estructurado.

Token Ring gozó de la aceptación del mercado, especialmente en aquellos clientes tradicionales de IBM como banca y las empresas de seguros. La primera versión ofrecía velocidades de 4Mbps y, al poco tiempo, se puso en el mercado una tarjeta de velocidad dual a 4 y 16Mbs. Conscientes del potencial de Token Ring, IBM también estandarizó a través del IEEE su tecnología bajo la norma IEEE 802.5 abriéndola a otros fabricantes pero sobre la que siempre pesó la poca oferta de soluciones y productos, y su elevado precio en comparación con Ethernet. En este sentido, no puedo evitar recordar a la danesa Olicom, donde trabajé y fabricábamos productos Token Ring y ATM, y de la estimulante competencia que manteníamos con la británica Madge.

Aunque en el mundo LAN (Local Area Network) han existido más soluciones, con ARCnet, Token Ring y Ethernet quedan bien resumidos estos primeros años. Quizás habría que añadir FDDI (Fiber Distributed Data Interface), aparecida al comienzo de los ’90, y ATM (Asynchronous Transfer Mode) hacia mediados de la misma década. Con ambas tecnologías se venía a dotar a Ethernet y Token Ring de velocidades de 100Mbps (FDDI), 155Mbps y 622Mbps en conexiones de troncales o en la conexión de estaciones de trabajo. Ambas tuvieron su momento y buenas referencias hasta que se desarrolló y arrasó con el mercado la aparición de Gigabit Ethernet a una velocidad de 1Gbps.

Por último, tampoco me puedo olvidar de los sistemas operativos de red, que son tan importantes como las redes físicas. Ni de la electrónica asociada, como concentradores o hubs, repetidores, bridges o conmutadores. Todo ello queda para próximos textos.

Visitar la colección

5G, no todo se reduce a una rivalidad entre EE.UU, China y Europa

septiembre 24, 2018 on 6:25 pm | In análisis de datos, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Esta mañana leía un interesante artículo de Ignacio del Castillo a quien habitualmente sigo. He de decir que me gustan sus análisis aunque en este caso eché en falta más ángulos desde los que comentar la cuestión. Digo esto porque su último texto sobre 5G se plantea en términos competitivos entre Europa, EE.UU. y China, o fabricantes como Qualcomm y Broadcom. Tras la lectura de estas líneas da la sensación de que la rápida implantación de esta tecnología es una cuestión de Estado en donde “ganará” el País que antes tenga disponible el servicio.

Para llegar a esta conclusión se recurre incluso a una referencia publicada en The Wall Street Journal donde se dice que el éxito digital de EE.UU. es consecuencia de la rápida adopción de 4G. No sé ¿y qué ha sucedido con Amazon siendo contemporánea de la telefonía GSM? ¿Y Google y su Android no son de la época 3G? ¿GPRS?… De Apple no hablemos pues su iPhone y la eclosión de las Apps reposaban sobre la humilde conectividad que ofrecía GPRS y 3G.

Es cierto que 5G permitirá el desarrollo de servicios que hoy parecen inalcanzables con las actuales tecnologías radio. Fundamentalmente me refiero al coche conectado autónomo y el desarrollo de IoT en miles de dispositivos. Más allá de esto, creo que las actuales tecnologías LTE 4G satisfacen las necesidades de navegación y conectividad de millones de usuarios. Qué nadie me interprete mal: no quiero decir que 5G no sea importante y un gran salto, únicamente que detrás de su adopción hay innumerables cuestiones que escapan al texto de Ignacio.

Me parece un poco exagerado plantear solo el análisis solo en términos de rivalidad entre países, aunque pueda llamar mucho la atención el subtítulo que subyace: Oriente vs. Occidente. Aquí no solo hablamos de la tecnología radio y la estación base o BTS. Diría que esto ya está superado y está “atado y bien atado” por las patentes de cada fabricante y los estándares del 3GPP. Ahora la pelota está en el tejado de los Operadores de Telecomunicaciones y no parece claro que tengan la misma urgencia de desplegar 5G salvo que quieran publicar una nota de prensa y así llamar la atención de accionistas, usuarios y periodistas.

Empecemos por el plan de frecuencias. No está claro la idoneidad de las frecuencias asignadas a este servicio y la naturaleza del despliegue actual. Quiero decir que si queremos usar 3500MHz tenemos que poner muchas más estaciones base porque, desde las actuales, hay dificultad para dar cobertura a todos los usuarios y objetos. Aunque sea una opción viable, instalar Small Cells (estaciones muy pequeñas) en cada esquina de una ciudad cuesta mucho dinero, por lo tanto el problema no se reduce solo a comprar el 5G de un determinado fabricante. También podemos optar al segundo dividendo digital y usar la frecuencia la baja de 700MHz, incluso esperar a los 1500 MHz pero esto no será algo rápido. Por cierto, dan escalofríos cuando el Gobierno sondea el mercado sobre el uso de la banda de 26GHz. Por esta razón, parece lógico pensar que, más tarde o más temprano, se debería producir un desacople del actual binomio frecuencia-servicio y las actuales frecuencias bajas (700, 850 y 900 MHz), de mayor propagación y menor ancho de banda, se reserven para aplicaciones IoT y coches en 5G, y las frecuencias altas (1800, 1900, 2100 y 2600MHz) se destinen a la navegación y Apps, también en 5G, e incluso 4G. Pero todos sabemos que estas cosas, los apagones y los reframing, van despacio y suelen estar regulados y, de la noche a la mañana, un operador no se puede “cargar” un servicio.

Capacidad. Plantear o dar a entender que el 5G supera la capacidad de las actuales comunicaciones por fibra es equivocado o al menos incompleto o inexacto. Lo cierto es que a la fibra instalada le queda recorrido para crecer durante décadas con tecnologías como XGSPON o NGPON 2. Esto, a priori, es tan fácil como actualizar con pequeñas modificaciones las actuales OLT GPON y las redes de fibra. En el mundo radio esto no es nada fácil porque exige una minuciosa planificación, contratación de emplazamientos e instalación de nuevas antenas. Por eso, cualquier cambio en la red de acceso radio se hace con mucha cautela y pies de plomo.

En este sentido una vez más me viene bien el comentario que hace The Wall Street Journal. En él se dice que el éxito de Netflix ha sido gracias a que EE.UU. ha liderado la tecnología 4G. En fin, no soy capaz de ver esta relación cuando está demostrado que el éxito de esta plataforma de TV se basa en producir sus propios contenidos y en distribuirlos “devorando” ancho de banda de las redes de fibra y sus tarifas planas. Dicho de otro modo: si dependiéramos del ancho de banda que tenemos en nuestro plan de datos móvil me temo que no veríamos tantas series… Pensemos que mucho antes de cualquier tecnología móvil ya existía en EE.UU. una industria cinematográfica potentísima que solo tenía de trabajar para el dueño que mejor pague…

Servicios y coche conectado. Es cierto que la adopción de 5G abrirá el mercado a nuevos actores que aún no existen. Seguramente estos vengan a través del mundo IoT porque, en el mundo del coche conectado-autónomo, me temo que “el pescado ya está vendido”. Examinado la posible cadena de valor, a menos que alguien invente algo totalmente novedoso, los actores ya están y dudo que se dejen robar una porción del pastel. Empezando por el vehículo: dudo que BMW, el grupo Volkswagen, PSA, Toyota o Daimler dejen de vender coches. Ellos saben fabricar un coche y todos confiamos en alguna de estas y otras marcas (sin olvidar los puestos de trabajo que generan en Europa), tienen sus líneas de producción acostumbradas a cambiar, redes de distribución, proveedores auxiliares, logística, dominan los entresijos políticos, etc. Un caso a destacar sería el de Tesla que tantas pasiones despierta pero realmente cuál es su diferencial ¿Un coche lujoso, su sistema de navegación, sus baterías, puntos de carga que han sido subvencionados?

Por otro lado está el sistema de navegación de a bordo y detección de obstáculos. Aquí puede existir sitio para la innovación, no lo sé. Ahora se están probando muchos sistemos que convergerán con uno, el mejor, y que terminará siendo integrado durante la fabricación del coche. Una vez más dudo que a gente como Bosch esto le suene raro.

Hablemos de cartografías, planificación de rutas, etc. ¿Quién fue el primero y hoy por hoy es el más preciso? Google. Realmente aquí es donde está uno de los diferenciales. Ellos han cartografiado medio mundo y saben recoger y tratar datos masivamente. Con todos mis respetos, la información del tráfico y rutas facilitada por la DGT o los Ayuntamientos, palidece con la precisión de Google. Por eso, si dependemos de los sistemas públicos para que un coche sea autónomo estamos perdidos…

Otro eslabón que cobra fuerza en esta cadena de valor, especialmente en los últimos años, es el alquiler del servicio de transporte. Parece normal que en el futuro existan empresas ofreciendo este servicio con coches autónomos. Todos conocemos los actores que se han posicionado aquí: desde coches sin conductor donde tú conduces, hasta aquellos que viene a recogerte. En último caso, a la vista de lo que en las últimas semanas está pasando con Uber, Cabify y las licencias VTC, parece poco recomendable meterse aquí sin garantías… Me temo que el impacto social es tan fuerte que pocos gobernantes están dispuestos a quemarse en un conflicto con el mundo del taxi. Este ejemplo también debería servir como “aviso para navegantes” para todos aquellos innovadores que pongan en entredicho la viabilidad económica de un servicio o colectivo tradicional…

Por último y vuelvo a los operadores: Ellos y solamente ellos explotarán las nuevas y futuras redes 5G y por las razones anteriores, actualmente, no tienen tanta urgencia en correr hacia un nuevo despliegue.

En los límites de la Innovación

septiembre 6, 2018 on 8:08 pm | In galería de imágenes, innovación, retroinformática | 1 Comment

Adolfo García Yagüe | Hacia mediados de los años ´80 una serie de máquinas domésticas abandonaron los 8 bits apostando por procesadores de 16 bits, aunque ya con registros internos e instrucciones de 32 bits. Hemos visto que, en aquellos años, los 16 y 32 bits solo estaban al alcance de equipos de alta gama. El mercado profesional apostaba por los ordenadores IBM (y sus compatibles) equipados con el microprocesador Intel 8088 y 80286, o seleccionaba el Apple Lisa y Apple Macintosh en cuyo caso se optaba por los 16/32 bits del Motorola 68000. Incluso, en estos años, se empezó a usar la tecnología de procesadores RISC en máquinas de alto rendimiento conocidas como “estaciones de trabajo”.

Como vimos el gran acierto de IBM con su modelo 5150 fue no innovar nada. No innovó al elegir el procesador de Intel ni al optar por el MS-DOS de Microsoft, ni siquiera al usar ciertos periféricos como la unidad de almacenamiento. Se limitó a integrar sabiamente lo que ya existía en el mercado y acertó al entender lo que sus clientes esperaban. En cambio Apple llevó hasta las últimas consecuencias hacer algo totalmente diferente que pocos clientes entendieron. También, con aquella aspiración de hacer algo distinto, llegó a cruzar la arriesgada frontera de querer imponer un nuevo sistema, como por ejemplo los diskettes FileWare del Apple Lisa.

Con el QL (Quantum Leap) de Sinclair, como su nombre indica, se pretendía dar un salto cuántico y ofrecer al mercado algo diferente a lo visto antes, es decir, a los ZX81 y ZX Spectrum. Con este propósito se pensó en una máquina cuyo marketing y posicionamiento comercial se dirigía hacia el profesional y la pequeña empresa. Se intentaba evitar el mercado que tanto éxito le grajeó en el pasado: los juegos y el mercado doméstico. Con este objetivo se pensó en abandonar al veterano Zilog Z80 en favor del 68008 de Motorola. Está elección, aun siendo un gran salto, delataba la aproximación de Sinclair al replicar su viejo modelo: Se pretendía triunfar con una máquina económica, con muchas prestaciones “avanzadas” pero poco competitivas si eran comparadas con otras opciones ya existentes. Por ejemplo, el citado procesador 68008 no podía alcanzar el rendimiento de su hermano mayor el 68000 pues todo el diseño hardware exterior seguía siendo de 8 bits. La funcionalidad de red local, aunque innovadora, no podía competir con una Ethernet o ARCnet ya en uso. Sus pocas aplicaciones profesionales tampoco alcanzaban la oferta de un PC Compatible. Qué decir de su teclado… Aunque era un gran avance si es comparado con el de un ZX Spectrum, ni de lejos llegaba a un teclado de un Apple II. Y el famoso Microdrive, como sistema de almacenamiento, parecía un juguete comparado con los asentados diskettes de 5” ¼. Es cierto que su sistema operativo y BASIC tenían capacidades multitarea pero esto roza lo anecdótico si es enfrentado a un entorno de ventanas como el ofrecido en el Apple Lisa o Macintosh, o el de equipos como Atari ST.

A estas razones hay que añadir el empeño de Clive Sinclair de intentar hacer historia con su vehículo C5 en mercados tan inmaduros -en aquel momento- como la movilidad eléctrica. Aquella dispersión técnica y su personalismo a la hora de tomar cualquier decisión, aunque pueda parecer visionario -y casi heroico-, ejemplifica que es necesario contar con la opinión de expertos en marketing y en asuntos financieros, además de gurús técnicos. La apuesta equivocada en el desarrollo y lanzamiento de una máquina suele llevar a la ruina a una compañía y ese fue el motivo por el que Sinclair acabó comprada por Amstrad, y Apple estuvo cerca de ser una reseña histórica.

Mientras esto sucedía, al otro lado del Atlántico Jack Tramiel dejó Commodore en 1984. Sus diferencias con otro de los dueños eran irreconciliables. Meses después Tramiel compró a Warner Communications la división de equipos del hogar de Atari e impulsó el desarrollo de una máquina de 16/32 bits, el Atari ST, que sería presentado en 1985.  Tramiel supo darse cuenta del potencial de un interfaz gráfico -como el incluido en Apple- para hacer amigables sus capacidades y así llegar a más personas. Por eso, no dudó al presentar su nueva línea “Sixteen/Thirty-two” con las siguientes características: procesador 68000 de Motorola, un mega de RAM, un drive de 3” ½, dos interfaces MIDI (Musical Instrument Digital Interface), alta resolución y un entorno gráfico basado en el GEM de Digital Research. El posicionamiento comercial, aunque contando con capacidades profesionales, fue el del hogar y ajustó su precio para que no resultara inalcanzable como el Macintosh. Además, desde el primer instante, no se huyó del pasado que asociaba la marca Atari con el mundo de los juegos.

Sus capacidades de proceso, interfaz gráfico y disponiblidad de interfaces MIDI, hicieron de los Atari 520 ST y 1040 un clásico de la informática musical. Allí empezó a funcionar el legendario secuenciador Pro24 -posteriormente Cubase– de Steinberg. No obstante, ambos ordenadores carecían de capacidades avanzadas para el tratamiento y síntesis de sonido e imágenes, y ya era evidente que una nueva generación de juegos de ordenador estaba empujando desde plataformas específicas donde se contaba con gran capacidad de proceso y gráficos avanzados. También, fuera de los entornos profesionales, se empezaba a hablar de infografía y multimedia. Estas y otras tendencias llevaron al desarrollo de un equipo, el Commodore Amiga, que inicialmente se pensó como consola y mutó a un ordenador de propósito general. Por eso, esta máquina, mucho antes que un PC, ofrecía mejores capacidades gráficas y sonido. El secreto de tal capacidad fue diseñar sus propios chips para trabajar con audio y video, y así evitar recurrir a la centralización de procesos en torno al microprocesador.

* * *

Durante los ochenta aparecieron numerosos procesadores que cuestionaban la hegemonía de Intel. En proyectos de máquinas de alto desempeño gráfico Intel no era considerado y, por otra parte, ya hemos visto que Motorola y su familia 68000 eran un formidable competidor contra el 8088, 80286 o 80386. Daba la sensación que la famosa Ley de Moore e Intel habían tocado techo. En un microprocesador la capacidad de proceso se conseguía integrando más transistores y subiendo su velocidad de funcionamiento o de reloj. Otra aproximación era optimizar su microcódigo para que en un único ciclo de reloj se ejecute una instrucción –aunque sea sencilla- y simultanear la ejecución de varias de estas instrucciones. En estos planteamientos se resumen las familias existentes en los ’80.

Desde el 4004 Intel se optó por integrar más y más transistores en cada micro. Su depurada técnica de fabricación aseguraba a Intel alumbrar con cada generación semiconductores más complejos e instrucciones más largas y especializadas. Este planteamiento se conoce como CISC (Complex Instruction Set Computer) y es el modelo que también se sigue en el 68000 de Motorola. En cambio, otros fabricantes menos enfocados en la fabricación de semiconductores, seguían una aproximación propuesta durante los ‘70 por IBM e investigadores de las Universidades de Berkeley, Stanford y California y ya llevado a la práctica, en 1965 -con un planteamiento de la época- por Control Data en su superordenador CDC 6500. Este se basaba en simplificar al máximo el set de instrucciones que tiene el núcleo del microprocesador y que cada una de estas fuera sencilla y de igual tamaño. Todo el peso de la optimización del código máquina recae en el compilador, que normalmente generará programas de mayor tamaño que los de un CISC. A ésta microarquitectura se la llamó RISC (Reduced Instruction Set Computer). Esta segunda técnica presenta una serie de ventajas sobre la anterior al facilitar el incremento de rendimiento desde la perspectiva de la ejecución simultánea de varias instrucciones en cada ciclo de reloj (Superescalar) y el aumento de frecuencia, aligerando así la complejidad del microcódigo CISC y su consiguiente consumo energético.

Esta aproximación fue seguida en el diseño de un nuevo microprocesador por parte de la empresa británica Acorn. Como hemos comentado, al comienzo de la década de los ’80, comercializaron el BBC Micro alcanzando una gran aceptación del mercado inglés. Era un ordenador basado en el 6502 de MOS. Ya hemos visto como el mercado de 8 bits flaqueaba y, para los fabricantes que querían seguir compitiendo, era necesario recurrir a nuevos procesadores. Esta necesidad impulsó a Acorn a iniciar un proyecto para desarrollar su propio procesador con la emergente tecnología RISC. Los artífices de esta iniciativa fueron Sophie Wilson (1957) y Steve Furber (1953), dos de los diseñadores del BBC Micro. Así es como en 1986 presentaron el ARM2 (Acorn RISC Machine) de 32 bits usando solo 30.000 transistores (un 68000 empleaba 70.000 y un Intel 80386, 275.000). Esta CPU RISC sería el corazón de su nuevo ordenador Acorn Archimedes A3000. Además de su potencia, aquel procesador fue un éxito entre los desarrolladores habituados al viejo 6502 y el ordenador Archimides cosechó un éxito razonable a pesar de la fuerte competencia de la época. Con el fin de alargar la vida del procesador y ofrecer esta tecnología a otros fabricantes de dispositivos, la gente de Acorn escindió la compañía en dos empresas, una dedicada a la fabricación de hardware es decir, la Arcon original, y otra a la comercialización de su arquitectura RISC: Advanced RISC Machines Ltd.

Aquella decisión demostró ser un éxito y es la razón por la cual hoy numerosos dispositivos estén basados en un procesador ARM, aunque este no esté fabricado por la propia ARM. Esto significa de ARM optó por un modelo en el que ellos licencian el uso de su arquitectura y los licenciatarios se encargan de la fabricación del silicio y, si desean, pueden integrarlo junto a otros componentes específicos, es lo que conocemos como System on Chip (SOC).

En mi opinión, con las máquinas comentadas anteriormente, se cerró una época en la que existió espacio para la innovación del ordenador doméstico. Poco después, en el año 1987, IBM introdujo con sus equipos PS/2 la tarjeta gráfica VGA (Video Graphics Array) que rápidamente estuvo a disposición de otras máquinas. También arrancó la década de los ’90 con la disponibilidad en el mundo de los ordenadores compatibles de una tarjeta de sonido que venía a paliar las limitaciones de un PC: recordemos a la pionera AdLib y, expecialmente, la Sound Blaster, de Creative Labs.

El mundo de los procesadores RISC siguió desarrollándose. De hecho estos procesadores fueron el corazón de una generación de máquinas muy potentes dedicadas a tareas científicas, infografía, servidores de alto rendimiento y consolas de juegos. A los citados ARM se unían los SPARC de Sun Microsystems, los MIPS, el AMD 29000 o los PowerPC de IBM, Motorola y Apple y, en 1989, Intel presentaría el procesador i860, el primero del mundo de 64 bits y basado en arquitectura RISC. Más adelante este procesador fue sustituido por el i960 y, a continuación, el grupo de desarrollo se integró en la línea Pentium Pro donde ya se contaba con núcleo RISC.

Visitar la colección

Home Computer y Retroinformática

agosto 26, 2018 on 8:15 pm | In galería de imágenes, retroinformática | 2 Comments

Adolfo García Yagüe | Normalmente, cuando hacemos referencia a este periodo y a la Retroinformática, nos referimos al momento en el que ordenador llegó a nuestras casas. Es difícil hablar de esta época sin repetir lo que ya se ha dicho y escrito en infinidad de webs y algún libro. De hecho, repartidos por toda la geografía española, tienen lugar numerosas citas “Retro” donde se exponen máquinas de aquellos años y se habla sobre videojuegos clásicos.

En este periodo podemos distinguir dos etapas claras, una, la inicial, marcada por el uso del microprocesador de 8 bits Z80 de Zilog y el 6502 de MOS. La otra, pasada la mitad de los años ´80, que se distingue por el empleo del 68000 de Motorola. Veremos que ambas se solapan y, con permiso de los PCs y equipos más profesionales, coinciden en el mercado algunos años.

Como ya hemos dicho en otro artículo, la premisa principal de esta época era ofrecer un precio lo suficientemente atractivo para hacerse un hueco en la economía doméstica. Con esta máxima se optaba por teclados muy sencillos y se recurría a un televisor como monitor, o al casete como sistema de almacenamiento. Tampoco se andaba sobrado de memoria RAM por lo que hablar de 16KBytes, 48K o 64K era lo habitual. Años más tarde, algunos ordenadores, dieron el salto a los 128K e incluían almacenamiento basado en disco flexible, pero seguían anclados en los 8 bits.

No obstante aquellos 8 bits hicieron posible un gran mercado. España, junto al Reino Unido, llegó a convertirse en una potencia exportadora de videojuegos. A su vez los canales de distribución y venta se desarrollaron enormemente. Por otro lado, eran unos años donde ya existía cierta saturación de revistas y libros que acercaban la informática a cualquiera y, como no olvidarse de las academias que prometían prepararnos para el mañana. Incluso, en aquel entorno, se llegó a fabricar un ordenador británico, el Dragon 32, en Cáceres. No tengo nada contra Extremadura ni la fabricación dentro de nuestras fronteras, pero el hecho no deja de llamar la atención. Esta decisión parecía obedecer más al interés de introducir a una deficitaria compañía en el efervescente mercado nacional y gozar así del respaldo financiero del INI (Instituto Nacional de Industria) y, de paso, vender equipos a los colegios dependientes de la Junta. Igual de sorprendente es el Inves Spectrum +, basado en el Sinclair ZX Spectrum +, que fue castellanizado y fabricado en 1986 por Investrónica (El Corte Inglés) para el mercado nacional.

Aquel apogeo despertó otro fenómeno que alcanzó una popularidad desconocida. Aquí se llegó a comerciar, a plena luz del día, con juegos copiados ilegalmente o pirateados. Con la excusa de su elevado precio algunos no dudaron en montar puestos en el rastro de Madrid ofreciendo cualquier título a un precio ridículo. En aquel momento no lo entendíamos, incluso celebrábamos tal actitud, pero estábamos contribuyendo a cargarnos un mercado que nacía. Posiblemente, ejemplos como este, ilustran aquella falta de visión y por eso pocas empresas lograron sobrevivir. Al comienzo de los ’90 ya habían desaparecido numerosas cadenas de distribución, estudios de programación y revistas. Es cierto que coincidía con un abandono masivo de los 8 bits, pero da la sensación que la industria no era lo suficiente sólida para sostener a todos. Los buenos títulos creados en el pasado demostraban que no era por una falta de talento y capacidad técnica.

Posiblemente faltó educación y una pizca de institucionalización -un plan- en todo este rápido crecimiento. Para desarrollar esta idea pongo el ejemplo del BBC Inglés. Allí, a principios de los años ochenta, la todopoderosa BBC, decidió patrocinar un ordenador como acompañamiento a una serie de televisión que divulgaba la informática entre las familias. Fruto de esta iniciativa, la empresa Acorn creó un ordenador (el BBC Micro) que alcanzó una popularidad que rivalizaba con el -también inglés- ZX Spectrum pero, técnicamente, mucho mejor que este. Esto podría ser una anécdota si no fuera porque hacia finales de los ´80 el BBC Micro evolucionó en un ordenador llamado Archimedes con un microprocesador RISC (Reduced Instruction Set Computer) propio, y de ahí a los microprocesadores ARM (Advanced RISC Machine) de nuestros móviles y millones de dispositivos embebidos… Otro ejemplo de esta visión innovadora y arriesgada fue el lanzamiento del mítico ordenador Jupiter ACE. Hasta la fecha, que yo sepa, esta es la única máquina doméstica que incluyó en su ROM un intérprete del lenguaje FORTH en lugar de BASIC. Esta actividad creativa se concentró mayoritariamente en la región de Cambridge (Universidad de Cambridge…), donde fueron apareciendo empresas que dieron forma a un ecosistema económico. Hoy nos sonará el espíritu con el que se ha creado allí la Raspberry Pi… Acabo recordando como Mi Computer, un coleccionable originario de Reino Unido y publicado aquí a partir de enero de 1984, era distinto de la mayoría de las publicaciones nacionales. No quiero decir que fuéramos más cutres, pero en las páginas de esta enciclopedia se aprecian rasgos para, además de entretener, educar y despertar la pasión por la informática.

Sin duda, uno de los protagonistas de aquella pequeña revolución fue Clive Sinclair (1940). Al finalizar los setenta, este fabricante de calculadoras, relojes digitales y microtelevisores se encontraba en la misma situación que años antes se había vivido en Estados Unidos: tenía que cambiar el rumbo de su negocio y abrirse al incipiente mundo de los microordenadores. Con este propósito creo el ZX80. Con su apariencia de juguete esta máquina evidenciaba la tendencia que tenía Sinclair por miniaturizar sus creaciones. Con un peso de apenas 400 gramos y 22×18 centímetros incluía todos los elementos para poder funcionar. El ZX80 se puso a la venta por 99,95 libras y los más atrevidos lo pudieron adquirir en kit a un precio de 79,95£. Un procesador Z80 a 3,25 MHz direccionaba un exiguo KByte de memoria RAM y 4KB de ROM. A pesar de sus limitadas prestaciones hardware esta máquina fue un éxito rotundo. El camino para Clive Sinclair estaba claro: de inmediato había que poner un nuevo producto en el mercado para no perder el posicionamiento conseguido.

Así es como al año siguiente se presentó el ZX81. También estaba basado en el Z80 pero la placa base se rediseño por completo y se simplificó notablemente gracias a la incorporación de un chip diseñado a medida por Ferranti, la ULA (Uncommitted Logic Array). De esta forma el ZX81 sólo tenía cuatro circuitos integrados: el microprocesador Z80A, la citada ULA, un chip de memoria RAM 4118 de 1Kx8 bits y la memoria ROM del tipo 2364 de 8Kx8 bits. La ROM del sistema se había aumentado a 8 KB de tamaño, y el lenguaje BASIC ahora soportaba aritmética de coma flotante. En el lanzamiento del Sinclair ZX81 se ofreció esta ROM como una actualización para el ZX80. Esta máquina aún se podía adquirir en kit.

El ZX81 llegó a España al poco de su lanzamiento. Ya hemos comentado como cambió el rumbo de los aficionados a la electrónica que empezaban a cacharrear con el Junior Computer. También, desde el teclado táctil del ZX81, comenzarían a dar sus primeros pasos toda una generación de brillantes programadores que, poco tiempo después, dieron forma a la etapa conocida como La edad de oro de software español. La Pulga, de Paco Suárez (1954), es el primer juego desarrollado y posteriormente comercializado en España. Este juego fue programado para un ZX81 y llegó a las manos de Indescomp, uno de los primeros distribuidores españoles. Parece ser que Paco Suárez estaba intentando explicar a su hermano cómo se podía hacer una parábola y, al ver los resultados, decidió incorporar un personaje que fuera el que efectuara dicho movimiento, creando, de esta forma, lo que más tarde iba a ser un famoso juego.

Desde EE.UU., también en 1981, nos llegó el VIC-20 de Commodore. Ya hemos comentado que esta empresa no era nueva en el mercado. Ellos compraron al fabricante de circuitos integrados MOS Technology y lanzaron la serie de ordenadores PET. Su fundador, Jack Tramiel (1928-2012), fue una persona singular, de película, que logró sobrevivir al exterminio nazi. Su madre murió asesinada en Auschwitz y su padre en un campo de trabajo, y él llegó a ser “examinado” por el mismísimo Mengele. Tras su liberación emigró a EE.UU. donde empezó a comercializar calculadoras mecánicas y máquinas de escribir.

El Commodore VIC-20 funcionaba con un microprocesador MOS 6502 con los que manejaba 5KB de memoria RAM. Permitía el uso de colores y sus características técnicas y apariencia eran muy superiores a las de un ZX81. Esta máquina salió al mercado por debajo de los 300 dólares y junto al Atari 400, Texas Instruments TI99, Tandy TRS-80 Color y el posterior Commodore 64 (1982) dominaron el mercado doméstico estadounidense.

En 1982 Sinclair presentaría el ZX Spectrum y con él seguía la senda marcada en los anteriores con ZX80 y ZX81. El bajo precio de este ordenador y la abundancia de juegos lo convirtieron en una máquina tremendamente popular. Seguía basado en un Z80 y se lanzó una versión con 16KB de RAM otra con 48KB. En torno a este equipo y al Commodore 64 se polarizaron los primeros usuarios españoles. Posteriormente, tras la aparición de Amstrad y los sistemas MSX, el mercado ofreció otras opciones. En España, el factor económico era el principal elemento decisorio en entre ambos. El C64 era técnicamente superior al Spectrum y más caro.

Como vemos, en la primera mitad de los ’80 empezaba a existir cierta saturación de modelos. Para las empresas de software resultaba imposible versionar cada programa para atender las demandas de cada nuevo sistema. Con MSX (Machines with Software eXchangeability) se pretendía establecer una norma en el diseño del hardware y software de forma que, independientemente del fabricante, fueran compatibles entre sí. Algo parecido al IBM PC pero en el mercado doméstico.

Un par de años antes de la aparición del MSX, Harry Fox y Alex Weiss, dos importadores de relojes de New York, veían como los avances tecnológicos abarataban los precios. Este hecho les hizo pensar que también era posible fabricar ordenadores económicos. Así, en 1982, fundaron en Hong Kong la compañía Spectravideo y contactaron con Microsoft para desarrollar el software del nuevo ordenador. En este escenario aparece Kazuhiko Nishi (1956), vicepresidente de Microsoft para Asia y más tarde fundador de ASCII Corporation. A Nishi le encantó el proyecto de Fox y Weiss y, tras reunirse con ellos, se implicó realizando modificaciones al diseño original. Nishi había desarrollado el prototipo del futuro estándar MSX sobre la base del Spectravideo SV-318 y SV-328.

Más tarde Nishi promocionó estos diseños en Japón y en marzo de 1983 volvió a Spectravideo como representante de un consorcio empresas japonesas, entre las que destacaba Sony, Panasonic, Canon, Toshiba y Yamaha. Kazuhiko Nishi solicitaba permiso de fabricación a Fox y Weiss. Estos eran conscientes de que en el futuro Nishi podía reclamar parte de los derechos por el diseño, razón por la cual sugirieron a Nishi que diseñase otra máquina, compatible con ambos pero lo suficientemente distinta como para no necesitar una autorización para fabricarla. Tras esas modificaciones nace el estándar MSX. Por este motivo los SV-318 y SV-328 son considerados máquinas pre-MSX, con características muy cercanas al estándar (vídeo, sprites, sonido e interfaces) pero no totalmente compatibles.

En junio de 1983 se presentó en Tokio el estándar MSX. A lo largo de su historia más de 30 compañías fabricaron equipos compatibles, entre ellos Philips. Realmente, donde más presencia tuvo este estándar fue en Japón y Corea del Sur. En Europa, en particular en España y Holanda, tuvo cierta repercusión pero no alcanzó la popularidad del ZX Spectrum y Commodore 64. En EE.UU. apenas penetró, a pesar de que Microsoft desarrolló el sistema operativo y software diverso. El corazón de los MSX seguía siendo un Z80 corriendo el sistema operativo MSX-DOS de Tim Paterson (1956), creador del 86-DOS y antecesor del MS-DOS.

Amstrad fue otra empresa británica que hizo historia en esta época. Además supo moverse en el incipiente mercado de los PC Compatibles y llegó a absorber, y dar su toque personal, a la compañía de Sinclair. Al frente de esta empresa encontramos a Alan Sugar (1947) quien supo hacerse un hueco en el competitivo mundo de los ordenadores domésticos desde el sector de los equipos de sonido. Aquello pasó en 1984 y rompió con todo lo anterior al presentar el Amstrad CPC 464. Esta máquina, a diferencia de las anteriores, incluía un monitor y casete integrado. Su acabado era impecable y sus prestaciones excelentes, aunque seguía dependiendo de la arquitectura de 8 bits de Zilog. Además Amstrad puede presumir de hacer realmente popular el uso de un método de almacenamiento diferente a la cinta de casete. Fueron ellos los que impulsaron en modelos posteriores (CPC 664 y CPC 6128) el uso del disco flexible de tres pulgadas. Esta aproximación también fue seguida con los modelos Spectrum +3.

Visitar la colección

Fibra Óptica

julio 17, 2018 on 8:36 pm | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | Hoy en día el empleo de la fibra óptica como medio de transmisión forma parte de nuestra cotidianidad. En otros textos hemos visto cómo llegó a nuestras casas y, a través de ella, nos conectamos a Internet, hablamos por teléfono o vemos la televisión.

Usar la luz -o los fotones para ser más preciso- como medio de transmisión no es una novedad. Ya en los albores de la telefonía, Alexander Graham Bell (1847-1822) patentó un ingenio llamado Photophone que permitía la comunicación hablada -a pequeñas distancias- usando un rayo luminoso. Aquello, aun considerándolo un hito, quedó como una curiosidad técnica por lo limitado de la distancia alcanzada y su estabilidad. También John Tyndall (1820-1893) estudió como un rayo de luz podía viajar a través de la curva que forma un chorro de agua. Este fenómeno fue antes descrito por Jacques Babinet (1794-1872) y Daniel Colladon (1802-1893). Como digo, estos pasos son importantes y otros, como el Telégrafo Óptico de Claude Chappe (1763-1805), merecen ser recordados en esta historia pero distan mucho de la invención de láser y la fibra óptica. Esto quiere decir que, aunque la idea de enviar voz usando un rayo luminoso fuera llamativa, en el tiempo de Bell, no se sabía lo suficiente.

Por lo anterior podemos establecer como punto de partida la invención de una fuente de luz coherente como es el Láser (Light Amplification by Stimulated Emission of Radiation). Conocemos muchas aplicaciones que éste tiene y por eso hay distintos tipos y, en el tema que nos ocupa, el primer láser inventado en 1960 por Theodore Maiman (1927-2007), no se utiliza en comunicaciones por fibra. Lo importante aquí no es tanto su potencia luminosa como la frecuencia o “color” al que emite, y la capacidad de controlar -o modular- este haz de luz a nuestro antojo. Esta es la razón por la que el descubrimiento de materiales semiconductores con propiedades ópticas, como el Arseniuro de Galio (GaAs), hicieron posible el láser semiconductor y la posibilidad de modular este con un tren de datos a una temperatura controlada. Eso pasó en 1967 en los Laboratorios Bell y fue consecuencia del trabajo previo de muchas personas y compañías.

En el estudio de la fibra óptica sucede igual. Aunque los principios de funcionamiento básicos, casi intuitivos, se pueden comprender desde el estudio de la óptica geométrica (Siglo XVII), no es hasta el desarrollo de las teorías sobre de la naturaleza electromagnética de la luz y la teoría cuántica (en el Siglo XX) cuando se está en condiciones de pensar seriamente en ella, así como en el proceso industrial asociado a su fabricación. Esto último tiene que ver con la purificación del vidrio y la existencia de ciertos iones que absorben los fotones que viajan a su través. También está relacionado con el uso de unas ventanas ópticas próximas a la región infrarroja para la transmisión de datos. Esta dificultad no era desconocida, de hecho el uso de fibras ya se empezaba a usar en los años 60 para enviar luz y recoger imágenes con fines médicos, como las laparoscopias. En este caso se trabaja con fibras de pequeñas longitudes por lo que la atenuación o las pérdidas que la imagen sufre no es un gran problema. En cambio, en comunicaciones, la distancia y atenuación son esenciales. Fueron Charles Kao (1933) y George Hockham (1938-2013) quienes demostraron en 1966 que era posible usar el vidrio a ciertas frecuencias para comunicaciones, pero previamente es necesario “limpiarlo” de impurezas -de tamaño atómico- responsables de la atenuación del rayo de luz. Aquel trabajo sirvió para que en 1970, científicos de Corning Glass Works, fabricaran la primera fibra óptica multimodo con una atenuación inferior a los 20dB por kilómetro. Dos años más tarde se fabricarían fibras multimodo de 4dB/Km y, a continuación, llegarían las fibras monomodo con atenuaciones de 0.4 dB/Km. En 1976, en Atlanta, EE.UU., entró en servicio la primera conexión experimental por fibra entre los centros de la Western Electric y Bell Labs.

Telefónica, la antigua CTNE, en 1980 experimentó con un tendido de 500m entre sus edificios del antiguo Centro de Investigación y Estudios (CIE), en la calle Lérida de Madrid, y la central de la calle Tetuán. Posteriormente y ya en explotación, se unirían las centrales de Atocha, Rios Rosas y Bellas Vistas. No obstante, fue en 1981, cuando RENFE consiguió una “ventaja simbólica” al conectar por fibra óptica y poner en servicio sus centrales telefónicas de las estaciones de Chamartín y Atocha. Fueron los primeros 9,5Km de un cable que llevaba en su interior 4 fibras ópticas y resolvía la inmunidad electromagnética derivada del tendido eléctrico y motores de los trenes. Ya en el año 1986 Telefónica puso en servicio entre Gran Canaria y Tenerife el OPTICAN, el primer cable submarino de fibra óptica del mundo.

Como podéis imaginar, por su tamaño y material de fabricación, la fibra óptica es muy frágil. Si a esta fragilidad le añadimos las leyes geométricas que nos impone para que la luz se propague por su interior, nos encontramos que su utilidad a la intemperie es bien poca como, por ejemplo, en un tendido aéreo, o por la fachada de un edificio, o sumergida en el océano. Es ahí donde reside saber fabricar un cable que proteja a una o cientos de fibras y, a la vez, permita su instalación en entornos donde el cable va a sufrir fuertes estiramientos, torsiones o, mordiscos de ratas… (y no es broma)

España puede presumir de dominar a la perfección la fabricación de cables de fibra óptica. Standard Eléctrica, adaptó su fábrica de Maliaño, Santander, para fabricar este tipo de cable. En Barcelona, en Vilanova i la Geltrú, ocurrió algo parecido con la fábrica que allí tenía Pirelli. Y en Zaragoza, en Malpica, en la fábrica de Cables de Comunicaciones –antiguamente participada por Telefónica y los americanos de General Cable– también se pusieron manos a la obra con esta tecnología.

Hoy en día no se concibe ninguna línea ferroviaria u obra civil sin tender, en paralelo, cable de fibra óptica. De hecho ADIF ofrece en alquiler el uso de estas fibras para que otras compañías puedan conectar sus equipos. Dejando a un lado el uso de la fibra por parte de compañías ferroviarias, autopistas, energía o Correos, la gran red de fibra pertenece a Telefónica. Ya hemos visto que en los años ’80 empezaron a conectar sus nodos principales con este cable. De esta forma, fueron prescindiendo de los pesados y caros cables coaxiales y cuadretes en rutas interprovinciales y urbanas. Así, si en el año 1988 en España tenían algo más de 1000 Km instalados y en 1992 hablaban de 23000Km, actualmente los kilómetros de cable de fibra se deben contar por millones si incluimos todos los países en los que opera, los cables submarinos en los que participa y los tendidos FTTH a hogares.

Este ambicioso despliegue era necesario si se quería poner en servicio nuevas tecnologías de transporte como SDH (Synchronous Digital Hierarchy), o Jerarquía Digital Síncrona como le gusta decir a Telefónica. Por otro lado, los nuevos nodos Frame Relay (Red UNO) que complementaba y a veces sustituía a Iberpac y X.25, ya contemplaban conexiones por fibra. Ambas tecnologías empezaron a funcionar en 1991 y representan un hito de evolución técnica. El gran salto para sus clientes vendría con el Plan Fotón. En efecto, aunque ya comentamos que en 1990 Telefónica empezó a experimentar con la conexión por fibra de los hogares, fue en 1994 cuando decidió llevar la fibra a los edificios de sus primeros 500 clientes corporativos de Madrid, Barcelona, Sevilla, Valencia, Bilbao, Palma, Alicante y Coruña. Aquello supuso sentar las bases para nuevas tecnologías de red como ATM (Asynchronous Transfer Mode) y servicios como Gigacom, necesarios para poder desarrollar comunicaciones multimedia y una Internet que empezaba a nacer.

Visitar la colección

56K, ADSL y GPON

junio 30, 2018 on 5:52 pm | In galería de imágenes, retroinformática, telecomunicaciones | 2 Comments

Adolfo García Yagüe | Hace unas semanas hablábamos sobre el empleo de la red telefónica por los ordenadores. Recordábamos como los cables de cobre se han usado, además de para comunicarnos entre nosotros, para enviar datos. Desde los años ‘60 se han sucedido diferentes recomendaciones técnicas que intentaban aumentar el caudal de datos que podíamos enviar por los citados pares de cobre. Las más habituales fueron V.21, V.22, V.22bis, V.23, V.32, V.34, y así hasta la norma V.92. Aunque implementando diferentes técnicas, la aproximación de los módems y su correspondiente norma, usaban la región espectral dedicada a transportar nuestra voz. En cambio, hacia el final del siglo XX, se usó otra tecnología de transporte que también aprovechaba el cable de cobre pero haciendo uso de otras bandas de trasmisión siendo posible, incluso, simultanear una conversación telefónica con el envío de datos. Me refiero a ADSL (Asymmetric Digital Subscriber Line).

ASDL rompía el techo de los 56Kbps (Kilobits por segundo) alcanzados con la tecnología V.92 y nos ofrecía un escalado de velocidades que arrancaba en los 128Kbps hasta llegar a cerca de 12Mbps. Semejante salto de velocidad se debía al uso simultáneo de todas las bandas de trasmisión existentes en un cable de cobre, y también al factor longitud y calidad del cable que nos unía con la central telefónica. Como he dicho antes, en la tecnología más popular, o ADSL, se respeta la región del espectro -del cable de cobre- dedicada a transportar una conversación.

Del gran salto de velocidad que ofrecía ADSL se aprovechó en la incipiente navegación en Internet. En efecto, fue una de las tecnologías que popularizaron su uso aunque años atrás ya se empezaba navegar con módems V.32bis (19200 bits por segundo), V.34 (28800 bps) y V.90 (56Kbps). ADSL nos brindaba la llamada “Banda Ancha” e introdujo en nuestras vidas los famosos test de velocidad para medir la respuesta de nuestra conexión. Aún hoy esta técnica y sus descendientes (ADSL2, ADSL2+ y VDSL) se siguen utilizando y, para muchas personas, es la única opción ya que carecen de otro medio de transmisión que no sea el veterano par de cobre.

Los grandes núcleos urbanos no tardaron en disponer del ADSL de Telefónica. Incluso los primeros usuarios tuvimos el privilegio de navegar por Internet con una dirección IP pública fija. En cambio, esta celeridad no se daba en pequeños municipios donde, en muchas ocasiones, no llegaban ni siquiera los servicios portadores necesarios para conectar el DSLAM (Digital Subscriber Line Access Multiplexer) a una red de transporte. El DSLAM ADSL es el equipo que se conecta a los pares telefónicos y que agrega nuestro tráfico de datos en un interfaz ATM de 155Mbps o 622Mbps. También hemos comentado las dificultades que tiene ADSL en tramos demasiado largos donde, quizás, se nos presta el servicio de voz desde un pueblo próximo pero separado una distancia incompatible con ADSL. Aun así, con alguna dificultad y soluciones subvencionadas como la conexión vía satélite, en el año 2011, en España, se hizo universal el servicio de Banda Ancha para acceso a Internet a una velocidad mínima de 1Mbps. Todo un logro si pensamos en la cantidad de zonas catalogadas como rurales que hay en nuestro país.

Hacia el año 2005 los Operadores de Telecomunicaciones empezaron a pensar en la evolución de sus redes de acceso. Por un lado era evidente que necesitaban aumentar el ancho de banda que nos ofrecían y, por otro, sus redes de transporte (donde se conectan los DLSAM) estaban en plena evolución a MPLS (Multiprotocol Label Switching), es decir IP. Atrás quedaba, por lo tanto, ATM. Sobre la mesa estaba la evolución natural de ADSL: VDSL. Otra opción era seguir las recomendaciones del ITU-T y el FSAN (Full Service Access Network) donde –desde hacía años- ya se consideraba llevar fibra óptica a cada hogar y usar las tecnologías APON y BPON. En este caso la red de trasporte seguía siendo ATM. Por otra parte, en países como Corea de Sur y Japón, se estaban montando redes de fibra óptica hasta los hogares pero siguiendo las recomendaciones del IEEE (Institute of Electrical and Electronics Engineers). Allí optaron por la norma EPON que básicamente es Ethernet punto-multipunto. Así las cosas, ya se empezaba a hablar de un nuevo estándar llamado GPON (Gigabit-capable Passive Optical Network) como evolución de APON y BPON.

Fijaros que dilema y las opciones que se abren. De una parte estamos hablando de un despliegue VDSL que aprovecha el bucle de abonado existente pero se requiere estar muy cerca de este (del abonado) para poder garantizar más ancho de banda. Telefónica llegó a considerar esta opción y dedicó un gran esfuerzo a ella bajo el nombre de Red 50. Incluso se llegó a plantear la instalación de armarios en las calles y en las propias comunidades de vecinos o RITI (Recinto de Instalación de Telecomunicaciones Inferior) -a menos de 300 metros del abonado- y conectar estos (los armarios) a una red de fibra óptica. Por otro lado, también en Telefónica, se deshojaba margarita con GPON y una red de acceso totalmente de fibra hasta los hogares, pero esto eran palabras mayores ya que estamos hablando de sustituir la actual red de pares por una nueva… Por lo tanto, se enfrentaban a una evolución (VDSL) o plantearlo como una revolución (GPON) que lo cambiaria todo.

En el mundo operador siempre se aprende de la experiencia ajena y, en este sentido, la experiencia asiática de una red totalmente pasiva, de fibra óptica, demostraba que se podía prescindir de los históricos cables de cobre. Por otra parte, en EE.UU., ya se estaban prestando servicios de banda ancha con APON y BPON, y la nueva tecnología GPON era la opción de continuidad. No obstante, la fisionomía de los tendidos y la planta exterior de Japón y EE.UU. difiere de la española y su experiencia no es 100% trasplantable a nuestras ciudades. Por eso, hacia el año 2006, la experiencia en GPON de vecinos como Portugal y Francia era más enriquecedora y, en muchos sentidos, se convirtieron en el referente para toda Europa de lo que estaba por venir.

Por fin, en el año 2008, Telefónica empezó a comercializar su servicio Imagenio de Televisión bajo demanda para fibra donde, además, integraba el tradicional servicio de voz. Es decir, sobre una única red de fibra óptica se transportaban los tres servicios esenciales: Voz fija, Datos y TV (a aquel pack de servicios se le llamó Trio Futura). En aquellos primeros pasos la nueva red se puso a funcionar con equipos de Ericsson, Alcatel-Lucent y Huawei. Al poco tiempo Ericsson dejó de ser una opción válida y quedaron solo Alcatel-Lucent y Huawei. Una cosa curiosa, que no ha pasado con las tecnologías precedentes, era la cuestión de la interoperabilidad entre fabricantes. Es decir, si el equipo de cabecera GPON, u OLT (Optical Line Termination) de Huawei, se conecta al equipo que tenemos en casa, u ONT (Optical Network Units) de Alu (Alcatel-Lucent abreviado), no funciona. Al contrario y entre cualquier fabricante, sucede igual. Es decir, GPON es un estándar pero cada fabricante “personaliza” la configuración para así tener un total control de sus equipos -extremo a extremo-… y exclusividad en la venta de los equipos de usuario…

Así las cosas, a los grandes operadores esto no les agradaba porque les impedía abrir el mercado a otros suministradores de ONTs y tampoco les permitía proyectar su imagen de marca en el dispositivo de usuario. Ante esta limitación, Telefónica encargó a TELNET Redes Inteligentes (empresa española en la que trabajo) un analizador que “viese” lo que estaba pasando con el tráfico y la configuración GPON, y así hacer un análisis de interoperabilidad entre fabricantes. TELNET se puso a trabajar en el proyecto con Tecnalia y ambos presentamos el primer analizador GPON del mundo: el GPON Doctor 8000.

Otro hito fue diseñar y fabricar -para Telefónica- la primera ONT interoperable con Alu y Huawei, y cualquier fabricante de OLT. Además fue un equipo pionero en el mundo en integrar los tres servicios anteriores (Voz, Datos y TV) en una caja y simplificar así la instalación del usuario. A aquello lo llamamos TriWave y fue el germen de las actuales ONTs de Telefónica. Si, esas tan simpáticas de color gris y blanco.

Acabo recordando que en el año 1990 en Tres Cantos, Madrid y en Sant Cugat del Vallés, Barcelona, Telefónica puso en marcha un proyecto piloto de fibra hasta los hogares con equipos del fabricante Raynet. Pocos conocen aquella experiencia pero, sin lugar a dudas, representa una parte de esta historia.

Visitar la colección

Página siguiente »


(c) 1999-2018 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress