Réplica del Apple 1 con la PCB Mimeo

julio 19, 2020 on 9:00 am | In colección, hist. informática | 1 Comment

Adolfo García Yagüe | Durante el pasado confinamiento he retomado algún proyecto que tenía aparcado. Uno de ellos ha sido finalizar la construcción de una réplica del Apple 1, el legendario ordenador que comercializaron Steve Wozniak (1950) y Steve Jobs (1955-2011) en 1976. Se estima que de aquel ordenador se vendieron 200 unidades y que apenas unas decenas han conseguido llegar hasta nuestros días. Hace unos años, en una subasta online, uno de estos incunables alcanzó un precio de más de 250.000 dólares, y en estas fechas se vende otro en eBay por más de un millón. La razón de tal revalorización obedece a que Apple es una de las compañías de más prestigio del planeta y goza de la fidelidad de millones de usuarios. Exageraciones y filias aparte, es cierto que el Apple 1 marcó un antes y después en la informática de aficionado al ser comparado con su contemporáneo el Altair 8800 de MITS.

El Apple 1 costaba $666 y, aunque su precio pueda parecer elevado para aquellos años, este coste era razonable. Ésta máquina se podía conectar a un televisor y a un grabador de casetes doméstico y además disponía de teclado. Nada que ver con los switches empleados por el Altair o IMSAI 8080 para escribir en memoria RAM, o el habitual lector/perforador de cintas de papel para almacenar programas. A lo anterior hay que añadir que el Apple 1 ya contaba con un Programa Monitor en su memoria ROM con el que era posible cargar fácilmente (desde cinta de casete) un intérprete BASIC que lo hacía realmente útil.

Como evidencia el ordenador SOL, de Robert M. Marsh y Lee Felsenstein (1945) y comercializado por Processor Technology, para un emprendedor y asiduo a clubs de usuarios como Homebrew Computer, no era descabellado desarrollar algo similar al Apple 1 inspirándose en los artículos de Radio-Electronics, o en los manuales técnicos del Kim 1 Computer y su microprocesador 6502, ambos de MOS Technology. Por esta razón, más allá de sus prestaciones y diseño, esta máquina demostró la capacidad de trabajo y genialidad de los dos Steve. Ésta clarividencia y tesón fue lo que fascinó a Mike Markkula (1942) quien invirtió en ellos $250.000. A partir de aquel momento se forjaría la leyenda: Apple II y la singular personalidad de Jobs; Lisa, Macintosh y la marcha de Woz de la compañía; la posterior salida de Jobs y su regreso a Apple -tras más de diez años- para reinventarla y convertirla en una de las empresas tecnológicas más importantes de mundo.

Evidentemente, resulta difícil -por no decir imposible- conseguir un Apple 1 original si no eres un coleccionista al que le sobra el dinero o un museo con un presupuesto infinito. No obstante, en estos últimos años, han aparecido réplicas del circuito impreso (PCB) y canales de venta donde aún es posible conseguir algunos de los componentes electrónicos de aquella época y montar tu Apple 1. La apariencia de una de estas réplicas puede llegar a ser casi exacta y solo los expertos identifican la copia. Hay que puntualizar que su construcción no es un proyecto barato pero es posible abordarlo poco a poco e ir adaptando cada etapa de montaje al presupuesto disponible.

La placa base original del Apple 1 fue encargada a Howard Cantin, quien coincidió con Steve Jobs en Atari. En el desarrollo de esta placa se emplearon las técnicas de la época y su diseño está basado en dos capas y su trazado de pistas es fácil de entender. En esta sencillez radica uno de los retos a la hora de conseguir una placa similar en aspecto, ya que los programas actuales de trazado de PCBs trabajan a partir de un esquemático y suelen hacer, de forma automática y óptima, la distribución de componentes, rutas, curvas, serigrafía, tamaño de las pistas, aprovechamiento del espacio, etc. En resumen, mediante la automatización actual es imposible obtener unos resultados similares a los conseguidos por un diseñador que trabajó aplicando su experiencia en el trazado de cada pista. Ante este desafío no queda otra opción que inspirarse en el circuito impreso original e ir haciendo correcciones a un programa de diseño de PCBs para que el resultado se parezca al realizado por Cantin. Ese ha sido el modo de trabajo de Steve Gabaly con su placa Obtronix, Mike Willegal con Mimeo y Mike Ng con Newton. Cada uno de ellos ha empleado fotos de alta calidad de una placa original y han tenido acceso a un Apple 1 para lograr una copia casi perfecta. En mi caso opté por la PCB de Mike Willegal quien me la vendió directamente por 150 dólares y atendió mis dudas de una manera bastante cordial. Junto con la placa también compré la memoria ROM y la tarjeta de expansión para conectar un casete al Apple 1.

Bien, a partir de aquí, cuando dispongas de la PCB es preciso reflexionar donde te has metido… Digo esto porque el proyecto realmente empieza cuando se intenta localizar y adquirir componentes que ya no se fabrican, como los zócalos de Texas Instruments, los trafos de 125V. de Triad o los condensadores de Sprague… el teclado ASCII, las resistencias de carbón de ¼ de vatio o la mayor parte de los chips… Reconozcámoslo, puede parecer entretenido esto de ir rebuscando a través de Internet en almacenes de saldos pero resulta descorazonador. He llegado a comprar componentes en EE.UU., Canadá, Bulgaria, UK, Italia y China, y en ocasiones no eran lo que yo esperaba. Del coste económico… Prefiero no llevar la cuenta del dinero gastado para no asustarme. Cuando estoy a punto de arrepentirme me consuelo pensando que estoy construyendo un mito (aunque sea una vulgar copia) y pienso que el condensador que estoy soldando fue colocado antes por Wozniak y Jobs en el taller que tenían montado en un garaje. También anima consultar el manual y esquemas del Apple 1 comprados a una ONG benéfica y firmados por el propio Steve Wozniak. Lo sé, soy un poco friki, pero ha merecido la pena y por fin tengo un Apple 1.

Colección | Aficionados a la Electrónica (1) | Aficionados a la Electrónica (y 2)

La Impresora Láser

enero 24, 2020 on 7:44 pm | In academia, colección, hist. informática | No Comments

Irene García Fierro | He escrito esta presentación porque creo que la impresora láser es muy útil y porque me gusta mucho imprimir dibujos y textos. También quiero que conozcáis a su inventor, Gary Starkweather y lo importante que han sido los inventos de Xerox y, por supuesto, para que veáis como funciona una impresora.

Haz click para descargar la presentación

Aquí podéis visitar el espacio de la galería donde voy colocando más presentaciones

HarmonyOS y los Sistemas Operativos Móviles

agosto 16, 2019 on 10:48 am | In colección, copyleft, open source, hist. informática, hist. telecomunicaciones, m2m, iot | 1 Comment

Adolfo García Yagüe | Bueno, bueno… pues parece que al final el nuevo sistema operativo de Huawei no será una distribución basada en Android o Linux. Por lo visto está construido alrededor de un microkernel (lo cual le aleja de estos) y, además, Huawei ha dado a entender que ya lo tenía desarrollado para sus sistemas embebidos e IoT y “solo” había que adaptarlo al mundo Smartphone. Originalmente se llamaba HongmengOS y, tras su apresurado lanzamiento, se llamará HarmonyOS. En todo caso, se espera que su adopción en los teléfonos de Huawei sea gradual y dependerá de cómo se desarrolle el conflicto entre EE.UU. y China que, evidentemente, no beneficia a ambas empresas ni a sus usuarios. Por eso es prematuro vaticinar cuál será su éxito.

De lo que no cabe ninguna duda es que no hay que subestimar a Huawei, y mucho menos a China. Tampoco hay que minusvalorar la arquitectura y diseño de HarmonyOS ya que, al menos sobre el papel, es muy potente y se ha concebido para cualquier dispositivo, incluidos vehículos y electrodomésticos. De hecho, desde hace algún tiempo, Google comenta la hipotética jubilación de Android a favor de FuchsiaOS, este último también se plantea como un sistema operativo universal.

Volviendo a Huawei y HarmonyOS, parece evidente que éste se las tendrá que ingeniar y contar con un módulo de emulación que le permita ejecutar la mayoría de las Apps de Android. Esto solo será un paliativo porque, en el medio plazo, uno de los grandes retos, será ganarse el apoyo de los desarrolladores y la industria para ser totalmente independiente de Google. Sin esta característica no creo que llegue muy lejos aunque su arquitectura y potencia sean fabulosos. En este sentido Huawei ya anunciado que HarmonyOS será Open Source y que cualquiera tendrá acceso al código. Dicho esto habrá que ver que entiende este fabricante por Open Source y cuál es su capacidad de persuasión para captar la atención de otros fabricantes y desarrolladores. No obstante es una buena noticia y es la mejor forma de desactivar cualquier suspicacia sobre la seguridad o el control “gubernamental” del teléfono.

Si en el hardware hemos asistido a una evolución casi uniforme, en el software hemos conocido unas cuantas iniciativas que han condenado al olvido a algún fabricante. Hace bien poco el propio Bill Gates recordaba que su mayor fracaso ha sido la movilidad, y eso que Microsoft lo lleva intentando desde 1997 con su Windows CE y antes, en 1993, con su Windows Pen. Desde entonces esta compañía se ha empeñado en convencernos de que la movilidad era una versión para pantalla pequeña del Windows de escritorio (teléfono, acceso menús, navegación, configuración). Hasta que no aparecieron los primeros Nokia Lumia, allá por el 2011, no entraron en razón y ya era demasiado tarde.

A Nokia y a Ericsson les pasó algo parecido. Sus reflejos funcionaron muy bien cuando se hicieron en 1999 con EPOC. Este sistema operativo fue desarrollado por los británicos de Psion, otro histórico. La arquitectura de EPOC permitía abstraerse fácilmente de un determinado hardware y la comunicación de procesos era sencilla y modular. Nada que ver con los anteriores monolitos software. El Ericsson R380 fue el primer teléfono basado en la versión de 32 bits de EPOC, siendo este renombrado y popularizado bajo el nombre de Symbian. A partir de aquí fueron apareciendo numerosos teléfonos inteligentes basados en este sistema operativo que, en la mayoría de los casos, estaban inspirados en un entorno gráfico similar a una PDA. Symbian compartió época con PalmOS, BlackBerry OS y Windows Mobile. De aquel momento, quizás el más rupturista, fue el DangerOS donde ya se aprecian algunos detalles que luego veríamos en Android. Otro que supuso un cambio fue el LG Prada y su pantalla táctil capacitiva, pensada para ser usada solo con los dedos de la mano. En cualquier caso el Danger Hiptop y el LG Prada fueron teléfonos que tuvieron poca repercusión comercial.

Eran años donde los fabricantes apenas arañaban cuota a Nokia o a RIM con sus Blackberry. Nokia tenía la potencia y calidad para inundarnos de teléfonos, sin importar en que gama compitieran: alta, media o baja. Por su parte, Blackberry supo detectar la importancia del correo electrónico para las empresas. RIM venía del mundo de los buscapersonas bidireccionales. Este mercado se inició hacia mediados de la década de los ´90 por la venerable Motorola y la apuesta de RIM fue usar Mobitex, una red radio sencilla y económica, para que los Operadores prestaran este servicio. Eran tiempos donde el uso del correo electrónico en las empresas empezó a ser una revolución y RIM tuvo clara la visión de crear un dispositivo que, en lugar de presentar los escuetos mensajes de busca, sirviese para recibir y contestar los correos electrónicos de la organización. Además, como era algo empresarial, ya se consideró la importancia de la seguridad del dispositivo y, si se deseaba, la Blackberry podía encriptar toda la información en ella contenida.

Así las cosas, llegó Apple y su cuidada capacidad y experiencia para construir un hardware tan bueno o mejor que el de Nokia. Además, desde hacía unos años, Apple gozaba del éxito de iTunes y su iPod lo que le permitía tener claras las ideas: la creación de un ecosistema. No se trataba solamente de hacer un buen teléfono, había que crear una plataforma (hoy lo llamamos nube) donde vender aplicaciones y guardar datos… La idea no era totalmente nueva y hay antecedentes de cosas parecidas, incluso en los tiempos de WAP (Wireless Application Protocol) los Operadores de Telecomunicaciones lo intentaron (e-moción de Telefónica o Conect@ de Airtel) pero nadie como Apple supo darle forma.

La historia puede seguir con Android y su marketplace controlado por Google. Lo importante es que a lo largo de estos años numerosos sistemas operativos vagan en el limbo de la obsolescencia y, aunque algunos sigan en activo, pasan desapercibidos: FirefoxOS, Ubutu para teléfonos, MeeGo, GEOS, Maemo, Tizen… No lo olvidemos. Está por ver que pasara con HarmonyOS.

Colección

Raspberry Pi y ordenadores para crear, no solo consumir

agosto 10, 2019 on 4:42 pm | In colección, copyleft, open source, hist. informática, innovación | No Comments

Hoy, casualmente, he leído una entrevista donde Eben Upton repasa los inicios de la Raspberry Pi. En este texto recuerda que, siendo Jefe de Estudios en la Universidad de Cambridge, él y sus colegas estaban preocupados al ver como menguaban las matriculaciones de alumnos. De aquellos años también rememora como un niño de 11 años le dijo que, cuando fuese mayor, quería ser ingeniero eléctrico y, tras conversar con él, se sintió desolado al comprobar que aquel muchacho solo tenía acceso a una Wii de Nintendo. Por otra parte, en el libro Guía del Usuario de Raspberry Pi, Upton contaba la anécdota de un padre que presumía de su hijo diciendo que era “nativo digital” por configurar con increíble soltura el ordenador…

Aquellas y otras historias llevaron a Eben y a Pete Lomas -entre otros- a diseñar un ordenador económico y abierto donde aprender informática y poder cacharrear sin miedo a romperlo. Evidentemente, para que tuviera algo de éxito había que hacerlo barato y se fijaron el iluso objetivo de no superar los 35 dólares. No sorprende comprobar las dificultades que se encontraron durante todo el proceso de desarrollo y fabricación. En cambio, sí sorprende conocer como cada barrera fue sorteada con una mezcla de audacia, entusiasmo y locura. Bien claro lo dice “si hubiéramos tenido todos los conocimientos (se refiere a costes de materiales y procesos de industrialización, fechas) no nos habríamos atrevido”. Viene a recordar que cuando caminas en esa estrecha línea que separa entre conocer de algo y desconocer de otras materias, es cuando tienes posibilidades de éxito porque es cuando abordas el proyecto. Si sabes de todo y tienes en mente todos los detalles no te metes por miedo a fracasar… y si no conoces de nada -con toda probabilidad- abandonarás ante la primera dificultad.

La entrevista, aunque es del año pasado, es totalmente vigente e invita a la reflexión sobre la educación y la dedicación de tiempo a una idea que carece de aspiraciones comerciales. Quizás la parte donde habla de los nativos digitales es la más preocupante. Resulta paradójico que hoy en día, cuando más tecnología tenemos a nuestro alcance, el número de profesionales en las escuelas de informática y telecomunicaciones esté disminuyendo. Es evidente que se ha producido un cambio en como vemos y sentimos la tecnología. La electrónica, la informática y los ordenadores han dejado de ser sexy. Los más viejos pertenecemos a una generación donde los ordenadores eran sinónimo de futuro, de progreso y bienestar. Poco nos importaba pensar que podríamos conseguir un buen trabajo, lo que nos “movía” era creer que podíamos cambiar el mundo y sentirnos especiales entre nuestros amigos. En la actualidad no sabría decir como un joven percibe la informática y las telecomunicaciones pero el exceso de etiquetas que hay a su alrededor es abrumador y no me extraña huyan espantados: Transformación Digital, Big Data y Ciencia de Datos, Industria 4.0, Inteligencia Artificial, 5G, Ciberseguridad, IoT, Ordenadores Cuánticos, Robots, Coches Autónomos, etc.

Desde luego, el hecho de disponer actualmente de ordenadores, teléfonos inteligentes y sistemas operativos tan sofisticados y herméticos no ayuda. Ahora resulta difícil, casi imposible, entender cómo funciona un dispositivo o sistema operativo. No digamos si queremos “toquetearlo” o repararlo. En este sentido Epton Upton nos recuerda que los ordenadores de antaño estaban diseñados para crear, mientras que los actuales solo sirven para consumir…

Videoconferencia y VoIP (y 2)

febrero 25, 2019 on 7:39 pm | In colección, hist. informática, hist. telecomunicaciones, internet | No Comments

Adolfo García Yagüe | Como hemos visto en otros textos, la evolución tecnológica corre paralela en muchos campos. En los primeros años los procesos de compresión dependían de grandes circuitos integrados fabricados a medida (ASIC), más tarde este proceso reposaba sobre chips comerciales de compañías como Texas Instruments, Philips o Siemens que simplificaban enormemente el diseño de una tarjeta de codificación. Lo mismo sucedía con el 80486 y, especialmente, con la familia Pentium de Intel. Estos microprocesadores y el consiguiente software permitían procesar en tiempo real un caudal de vídeo o de audio. Todo esto desembocó en sistemas de videoconferencia que aprovechaban las capacidades de un ordenador personal y se integraban entre nuestras herramientas ofimáticas. De todas ellas, una de las más destacadas fue la que lanzó Intel en 1994: Intel ProShare. Este producto consistía en un par de tarjetas, una para capturar vídeo y la segunda para tratar el audio y la comunicación RDSI, y el software correspondiente. Intel ProShare representa un avance desde el punto de vista de integración electrónica y aprovechamiento de un PC al poner a disposición de un usuario individual las posibilidades de la videoconferencia pero, al depender de una conexión RDSI, su ámbito de empleo estaba restringido a usuarios que tenían acceso a esta.

Otro de los equipos que marca un avance en integración y en el diseño de sus formas es el Tandberg Vision 600. Esta compañía Noruega llevaba desde los años ´30 del siglo pasado comercializando equipos profesionales de audio. En 1993 lanzó al mercado su primer videoteléfono RDSI con una pantalla basada en tubo de imagen, para escritorio o de uso personal. Años más tarde presentaría el Vision 600, también dirigido a un uso personal, con pantalla LCD color de 10”, RDSI y un aspecto tremendamente elegante. A esta empresa siempre le ha caracterizado la buena calidad de sus equipos y su diseño. Ellos fueron los que desarrollaron junto con Cisco el concepto de videoconferencia inmersiva siendo adquiridos por estos en 2009.

A pesar del esfuerzo de los operadores que, en el caso de Telefónica, apenas hacían diferencia tarifaria con la línea tradicional, el uso de RDSI se limitó a empresas. Aun así la RDSI impulsó enormemente el uso de la videoconferencia frente a soluciones basadas en circuitos punto a punto como el PictureTel 4000. RDSI daba libertad al usuario y sobre todo, sentaba las bases de la interoperabilidad entre fabricantes. La clave de esta interoperabilidad era el protocolo H.320 del ITU-T. A través de este protocolo de señalización, los equipos participantes en una conversación se ponían de acuerdo sobre el códec de video (H.261) y audio (G.711, G.722 o G.728) que iban a emplear en su comunicación, ancho de banda (uno o más canales B de la RDSI), resolución de la imagen (QCIF o CIF) o los servicios suplementarios que eran capaces de realizar. Como digo, el uso de RDSI en videoconferencia fue intenso y significó que muchas empresas empezaran a instalar en la sala de reuniones un televisor convencional con un equipo de videoconferencia. Esta intensidad a favor de RDSI se daba en las comunicaciones entre sedes o empresas diferentes y, para comunicaciones entre salas de un mismo edificio, se empezaba a considerar el empleo de IP y la LAN como transporte. En este sentido merece la pena recordar que hasta 1992 no se inventó el protocolo RTP (Real Time Protocol) para proporcionar a UDP un servicio de transporte de datos con necesidad de tiempo real, como el audio y el vídeo.

Los avances conseguidos a través de la integración microelectrónica, la RDSI y el uso de la LAN son los principales ingredientes de la siguiente generación de equipos. Dejando a un lado soluciones personales como el Intel ProShare o el Tandberg Vision 600, PictureTel lanzó en 1996 el SwiftSite dirigido al mercado profesional para hacer videoconferencias entre grupos de personas. Este equipo totalmente integrado y pequeño podía ser colocado sobre una televisión en una sala de reuniones. A pesar de nacer con la intención de llevar la videoconferencia a todas las organizaciones sufrió múltiples problemas técnicos y retrasos que terminaron espantando a los usuarios. Aquello desembocaría en una grave crisis de reputación de PictureTel que coincidió con el fortalecimiento de Polycom y la presentación del ViewStation (1998). Polycom fue fundada en 1990 por Brian Hinman (ex PictureTel) y Jeffrey Rodman (ex PictureTel). Su primer producto fue el SoundStation (1992), un terminal para mantener conversaciones telefónicas en manos libres con el que lograron el reconocimiento del mercado y, hasta hoy, ser un elemento imprescindible en cualquier compañía. En 1998 se decidieron a entrar en el mercado de la videoconferencia presentando el ViewStation que era similar en aspecto al SwiftSite de PictureTel. Todo estaba autocontenido en una misma caja a excepción de un pequeño módulo (el QuadBRI) que se conectaba a cuatro RDSI para poder usar hasta 512Kbps. El éxito de este equipo fue arrollador. Este equipo se convirtió en un electrodoméstico para las organizaciones al poder ser instalado y usado por cualquiera a través de un mando a distancia similar al que usamos en casa.

A mediados de los noventa el uso de una red local, IP e Internet para mantener una comunicación multimedia era atractivo. De hecho, en 1993 se utilizó por primera vez Mbone para transmitir contenidos multimedia en Internet. Por otra parte, como vimos con Intel ProShare, el PC contaba con capacidad de proceso suficiente pero requería de un hardware especializado en trabajar con audio, vídeo y la RDSI. Sin embargo, eran tiempos en los que el PC alcanzó la mayoría de edad de su potencia gráfica gracias a las tarjetas VGA. Esta madurez se complementó con la riqueza del sonido aportada por tarjetas como la Sound Blaster. Este adaptador contaba con un sintetizador FM y con un reproductor de muestras de audio. Este módulo de audio también permitía capturar sonido de una fuente externa como un micrófono. Esta reseña la hago porque en 1995 apareció una nueva versión de Sound Blaster que permitía un funcionamiento full dúplex es decir, podía capturar sonido a la vez que era capaz de reproducir una muestra sonora… En resumen, el PC, las VGA, la Sound Blaster, el protocolo IP… Telefonía y videoconferencia por Internet.

Así es como en 1995 VocalTec, una compañía israelí, desarrollo y comercializó el primer servicio de Telefonía por Internet. Alon Cohen (1962) y Lior Haramaty (1966) desarrollaron un códec que comprimía lo suficiente la voz para aprovechar el ancho de banda de nuestra conexión a Internet de aquella época. Además desarrollaron un software que hacía de PBX o centralita para conectar a dos usuarios. Es decir, nuestro ordenador se convertía en un SoftPhone para hablar a través de VocalTec. Su modelo de negocio era sencillo y accesible para cualquiera ya que en cualquier tienda de informática podíamos comprar un software con el que teníamos minutos de conexión. Era el nacimiento de la Telefonía sobre IP, ToIP, Voz sobre IP o VoIP.

La estela iniciada por VocalTel fue seguida por numerosos fabricantes algunos, como WorldTalk, en lugar del clásico auricular de diadema y micro comercializaban un pseudo aparato telefónico que se conectaba a la Sound Blaster. En este furor destaca Connectix quien en 1996 fue un paso más allá al ofrecer servicios de videoconferencia a través de Internet. Para ello comercializaban unas cámaras conectables al puerto paralelo del ordenador, las QuickCam que, años después, fueron absorbidas por Logitech. Fueron muchos para mencionarlos todos… DigiPhone, CU-SeeMe

VoIP, ToIP y VideoIP obligaban al ITU-T a entrar en escena. Era el momento de normalizar esta tendencia para lograr la interoperabilidad entre fabricantes. Así es como nació H.323 en 1996. Este protocolo venía a resolver el uso de redes IP por parte del tráfico multimedia. Al igual que H.320 era un protocolo de señalización usado por los participantes, en H.323 estos se registraban en un servidor o gatekeeper, intercambiaban datos sobre los códec usados, acceso servicios suplementarios, plan de direcciones, etc. No era un mal protocolo pero era excesivamente complejo y su implementación cara. Se notaba que había sido concebido por gente próxima a los operadores dominantes y sus fabricantes históricos. Si uno lee sus especificaciones se da cuenta que es difícil implementarlo al contemplar todos los escenarios posibles. En resumen, poner un producto en el mercado y que este funcionaria no era cosa fácil. Aun así hubo fabricantes como Intel y Kodak que comercializaron soluciones compatibles con H.323 junto a alguna de las primeras cámaras USB. De aquel fenómeno de videoconferencia y comunicación sobre Internet destaca Microsoft NetMeeting. Evidentemente, equipos profesionales como el ViewStation de Polycom podían trabajar sobre H.323 o prometían que este se soportaría con una simple actualización de software…

Este apogeo de la VoIP para llamar a bajo coste hizo que algunos fabricantes se cuestionaran el futuro de la telefonía clásica dentro de las empresas. Tras superar y tener que demostrar que las redes conmutadas de aquel momento e IP podían garantizar el servicio de voz, no tenía mucho sentido tener dos cableados, uno para voz y otro para datos. También, el servicio de voz clásico, era pobre a la hora de ofrecer servicios como llamadas en grupo, desvíos inteligentes, buzones de voz y su consiguiente integración con aplicaciones como el correo electrónico. También, económicamente, el mercado de las centralitas empresariales era caro y se mantenía en manos de fabricantes como Northern Telecom (Nortel), Siemens, Ericsson, Alcatel y los propios operadores (Telefónica y su servicio Ibercom). En fin, era cuestión de tiempo…

Así es como aparecieron las primeras soluciones de VoIP para empresas. En el año 1996, Selsius, una anónima compañía de Texas, presentó una solución que consistía en una PBX software o SoftSwich que corría en Windows NT. A esta se conectaban unos teléfonos IP (con conexión Ethernet) de apariencia tradicional. Como decía antes, fue una tecnología que se tuvo que ganar su hueco en un mercado bastante cautivo que ponía recelos de todo tipo a la validez de la red LAN para transportar voz. En 1998 Selsius fue adquirida por Cisco.

Por lo avanzado de su tecnología Selsius desarrolló su propio protocolo de señalización en lugar esperar y adoptar H.323. Era el Skinny Call Control Protocol (SCCP). Era un protocolo mucho más ligero y muy eficiente pero, lamentablemente, giraba en la órbita de Cisco lo que limitaba su interoperabilidad con otros fabricantes. SSCP, como H.323, fueron sustituidos en 1999 por SIP (Session Initiation Protocol), un protocolo infinitamente más sencillo y más próximo a Internet y pensado para cualquier comunicación multimedia. SIP es el estándar de hoy.

Colección | Videoconferencia (1)

Videoconferencia (1)

febrero 23, 2019 on 10:34 am | In colección, hist. informática, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Desde los albores de la telefonía el uso de videoteléfonos ha despertado la imaginación de inventores y autores de ciencia ficción. El envío de imágenes para acompañarar una conversación telefónica parecía algo evidente en la revolución tecnología que el mundo vivía. Sin embargo, hasta fechas recientes, la tecnología ha ido por detrás de cualquier predicción.

Dejando a un lado los pronósticos más futuristas y los ensayos de laboratorio, para establecer un inicio real y práctico de la videoconferencia, retrocedemos en el tiempo hasta los años 60 del pasado siglo de la mano de operador AT&T y su brazo tecnológico, los Bell Labs. Ellos, con el objeto de ofrecer más servicios sobre sus redes telefónicas, desarrollaron el Picturephone. Este terminal disponía de una pantalla de 5 pulgadas e incluía una cámara capaz de captar imágenes en blanco y negro y enviar estas a través pares telefónicos, enriqueciendo así una conversación al mostrar el rostro del interlocutor. Recurría a dos hilos de cobre para transmitir video, dos hilos para recibirlo y dos hilos para cursar la voz en ambos sentidos; en total 3 pares. Para lograr hacer uso de este medio de transmisión era necesario no sobrepasar el límite de 1MHz de ancho de ancho de banda del par telefónico, razón ésta por la que cada fotograma estaba constituido por solo 250 líneas entrelazadas en lugar de las 525 del sistema NTSC. Este dispositivo no era digital es decir, la imagen se enviaba de forma analógica y en el caso de que se quisiera mantener una videoconferencia con un lugar distante, se realizaba la digitalización en las instalaciones de AT&T para llevar a cabo la posterior amplificación o regeneración en rutas de larga distancia.

Inicialmente, en 1964, con la primera versión del Picturephone, se habilitaron unos locutorios o salas de videoconferencia en las ciudades de Nueva York, Washington y Chicago donde los usuarios mantenían su comunicación. Más adelante, en 1969, en su segunda versión, el Picturephone se extendió a los despachos de altos ejecutivos. Lo elevado del precio de este servicio y sus limitaciones técnicas y operativas hicieron que este terminal se recuerde como un hito técnico pero con escasa trascendencia comercial al ir por delante de las necesidades de los clientes y del momento.

Como digo, la escasa popularidad de Picturephone tenía que ver con sus limitaciones técnicas y el coste del servicio. Eran años en los que la electrónica integrada daba sus primeros pasos y era prematuro abordar el diseño de circuitos integrados para digitalizar y procesar datos y así bajar el precio del terminal. Tampoco ayudaba el hecho de que la red telefónica estaba pensada para el envío de voz y carecía de capacidad -o ancho de banda- para el envío de imágenes en movimiento. Por esta razón, no fue hasta 1982, cuando los ingenieros volvieron a rescatar la vieja idea de la videoconferencia. Con la presentación del codificador COS211 por parte del CEPT (Conference of European Postal and Telecommunications Administrations) se ponía al mercado tras el camino acertado. Básicamente se trataba de un mecanismo de compresión digital basado en DPCM (Differential Pulse Code Modulation) que reducía el tamaño del caudal de datos a 2Mbps para una transmisión de video y, en el extremo opuesto o destinatario, se hacia el proceso contrario es decir, a partir de este tren de datos se recuperaba el video enviado. Este proceso se realizaba a una velocidad cercana al tiempo real en ambos lados de la comunicación. De esta aproximación, además del envío digital de imágenes, se podía beneficiar el almacenamiento de estas en un soporte como el diskette o disco duro. COS211 fue el predecesor de la recomendación de H.120 de ITU-T.

DPCM conseguía un factor de compresión de 60:1. A excepción de los circuitos propios de un operador (E1 en Europa y T1 en EE.UU.), en aquellos años eran pocas las líneas con capacidad de 2Mbps. Esta técnica de compresión, al igual que las posteriores, se basa en analizar matemáticamente los fotogramas que componen el caudal de vídeo e identificar aquellas regiones de la imagen que son iguales o tienen similitudes con las de otro fotograma, los datos de estas coincidencias se eliminan por lo que los citados mecanismos de compresión suelen sacrificar detalles de la imagen que, en teoría, pasan desapercibidos ante nosotros. Como podéis suponer, cualquier técnica de compresión de vídeo requiere una capacidad de procesado muy elevada y se tiene que realizar a muy alta velocidad. Por esta razón aún era una tecnología ambiciosa. No obstante, ya en 1976, el Dr. Wen-hsiung Chen (taiwanés que desarrollo su carrera profesional en EE.UU) participa en la fundación de la compañía Compression Laboratories Inc. (CLI) cuyo núcleo de negocio es la investigación y comercialización de compresores de vídeo que puedan ser utilizados en el envío de faxes y transmisiones de vídeo. Así, en los años 1982 y 1983, presentan el compresor VTS 1.5 (Video Teleconference System) que permite el envío de imágenes en movimiento sobre líneas de 1,544Mbps (capacidad de un circuito T1) e imágenes fijas a un caudal del 56Kbps. Aquel desarrollo, como su modelo de comercialización, hizo que CLI se convirtiera en el líder absoluto en la comercialización de compresores de vídeo entre las empresas que vendían servicios como la transmisión de imágenes a través de satélite. En 1984, con el VTS 1.5E, presentan mejoras sustanciales en el ratio de compresión mediante la técnica Differential Transform Coding (DXC). Este códec permite generar caudales de video desde 768Kbps (117:1) hasta 1.544Mbps.

El año 1984 sería un año decisivo. Dentro de este mercado tan específico inició su andadura PicTel, una empresa formada por Brian L. Hinman (1961) y Jeffrey G. Bernstein (1961), estudiantes del MIT. Ellos, junto a su profesor David Staelin (1938-2011) y el apoyo financiero de Robert Sterling, concibieron la técnica de compresión MCT (Motion Compensated Transform) y comercializaron el códec C-2000 que entregaba un caudal de video comprimido de 224Kbps. En los primeros años emulaban el modelo de negocio de CLI ofreciendo al mercado compresores de vídeo. Así, en 1988, comercializaran el códec C-3000 que bajaba su caudal a 112Kbps mediante la técnica Hierarchical Vector Quantization (HVQ).

Pasada la primera mitad de los años ochenta aparecen soluciones que aun estando alejadas del gran público nacen con la aspiración de llegar a muchos profesionales. Dos de ellas fueron de Photophone, de Image Data Corp. y el videoteléfono Luma de Mitsubishi. Ambas soluciones trabajan sobre una línea telefónica común y, sobre esta, enviaban imágenes fijas en blanco y negro. En el caso del Photophone nos encontramos con una máquina basada en el Intel 80186 y arquitectura de bus ISA, pantalla integrada en blanco y negro de 8” ½, un sistema operativo específico para captar y digitalizar imágenes y un modem para trasmitirlas. Como apoyo dispone una novedosa unidad de 3” ½ donde podemos almacenar las imágenes a enviar o las recibidas. Este equipo, a pesar de no ser considerado como un equipo de videoconferencia, puede ser empleado como tal al complementarse con un teléfono convencional y captar imágenes mediante una videocámara. Más cercano a un sistema de videoconferencia era el Luma. Aquí estamos frente a un teléfono con una cámara y micropantalla incluidos (basada en tubo de imagen) que permite el intercambio de imágenes fijas con nuestro interlocutor. Este invento también fue un hito pero lo elevado de su precio y su pantalla tan minúscula (3 pulgadas) hacían de él un capricho del que se podía prescindir. Una nueva versión del Luma fue VisiTel. Este fue presentado en 1988 e intentaba llegar a más gente con un diseño más económico prescindiendo del teléfono y ampliando el tamaño de su pantalla hasta las 4 pulgadas y media. También se basaba en el envío de imágenes fijas en blanco y negro.

Tras los videoteléfonos de Mitsubishi y aplicaciones como la del Photophone empezaba a florecer un mercado, el de la videoconferencia profesional, que demandaba soluciones que permitiera a un grupo de profesionales mantener una comunicación remota de calidad y, además, intercambiar documentos gráficos. Esta tendencia fue detectada por PicTel quien cambió su nombre por el de PictureTel y se reorientó para ofrecer al mercado una solución de videoconferencia totalmente completa: el V-2100 (1988) y V-3100 (1989). Ambos se apoyaban en los códec C-2000 y C-3000 respectivamente. Mientras CLI seguía apostando por sus códec/decodec Rembrandt (año 1987) y Rembrandt II (1990), PictureTel suministraba el mastodóntico códec junto a una cámara de vídeo y un panel de control que simplificaba enormemente el establecimiento y desarrollo de una comunicación por vídeo.

En la siguiente década, en 1991, apareció el PictureTel 4000. En el bus de este equipo se insertaban tarjetas especializadas en la captura de vídeo, audio, comunicaciones y tratamiento/compresión del vídeo donde destaca el uso de grandes chips ASIC (Application-specific integrated circuit) de la firma LSI Logic. En pocos meses este equipo se convirtió en el estándar del mercado. El PictureTel 4000 estaba pensado para aprovechar circuitos dedicados a través de su interfaz V.35 sobre el que era posible trabajar con diferentes caudales que iban de los 56Kbps hasta 768Kbps según el estándar Px64 del ITU-T. Así mismo se introducía el algoritmo propietario IDEC (Integrated Dynamic Echo Cancellation) para la correcta cancelación de ecos de audio mientras se mantenía una videoconferencia.

Al año siguiente AT&T retomó su viejo anhelo con la presentación del VideoPhone 2500. Este era un videoteléfono que trabajaba sobre líneas convencionales e incluía una cámara y pantalla LCD a color de 3,3 pulgadas con la que era posible mantener una vídeo con imágenes en movimiento. El códec de este equipo se lo confió a CLI pero, mientras esto sucedía, no ocultaba su acuerdo con PictureTel para desarrollar servicios de videoconferencia profesional. El VideoPhone 2500 fue un éxito relativo. Su precio de 1500 dólares seguía siendo caro para una economía familiar que, perfectamente, podía prescindir de la videoconferencia. No así el profesional que con un PictureTel 4000 podía ahorrarse importantes costes de desplazamiento y la movilización de equipos de trabajo.

Mientras el PictureTel 4000 se extendía entre grandes compañías y el AT&T VideoPhone 2500 intentaba hacerse un hueco en hogares y pequeñas oficinas, el mundo de las comunicaciones empezaba a cambiar. Desde los años ochenta se venía hablando de la futura Red de Servicios Integrados (RDSI). Con ella se digitalizaba el terminal del abonado y sobre su bucle nos llegaban dos canales B de 64Kbps para datos y un canal D de 16Kbps para cursar mensajes con los cuales se señalizaba las características de un servicio RDSI. Comparativamente hablado, la RDSI estaba a años luz de la telefonía tradicional. A través de la RDSI el operador se convertía en el centro de la red y a través del bucle de cobre nos prestaba servicios de vídeo, telefonía, audioconferencias entre grupos de usuarios, identificación del número llamante, acceso a sistemas telemáticos, etc. Aunque el abonado normal apenas se enteró ni lo valoró, la RDSI fue un éxito entre empresas de todo tipo. En la especificación de la RDSI ya se contemplaba la futura Red Digital de Servicios Integrados de Banda Ancha (RDSI-BA), o lo que sería ATM.

Colección| Videoconferencia y VoIP (2)

Sistemas Operativos de Red (2)

diciembre 2, 2018 on 9:09 pm | In colección, hist. informática, hist. telecomunicaciones | 1 Comment

Adolfo García Yagüe | En el texto anterior expliqué como un medio compartido -como el cable coaxial- ponía en contacto a usuarios de un mismo grupo de trabajo o de un departamento afín. Veíamos como ARCnet, Ethernet o Token Ring son tecnologías de Red a través de las cuales se han conectado nuestros ordenadores, compartiendo un medio físico -el cable- y definiendo como la información viajaba por este, pero ahí acaba su competencia. Por lo tanto, estas y otras soluciones, no saben nada de aplicaciones, compartición de recursos o ficheros. Para esta tarea se han empleado dos aproximaciones: Por un lado era posible añadir a nuestro sistema operativo un conjunto de capacidades que nos permitiera estar en red, al alcance de otros usuarios y, otra posibilidad, es especializar a un sistema operativo en estas labores y que, sin llegar a ser un gran ordenador, desempeñe el papel de máquina central o Servidor.

Hay que decir que en 1980 aquel sistema operativo especializado en trabajar con muchos usuarios a la vez existía y estaba a disposición de ordenadores de tamaño mediano, también conocidos como miniordenadores. Era Unix de los Bell Labs. Como podemos ver en la galería donde se recogen las piezas de la cuarta generación, el Unix ya era objeto de estudio en las aulas universitarias en la década ´70 gracias a los apuntes publicados por John Lions (1937-1998) y la propia Bell Labs. No obstante, Unix quedaba un poco lejos de la potencia que podía ofrecer una máquina personal de aquella década. A pesar de esto, Microsoft compró en 1978 una licencia a Bell Labs para desarrollar una distribución de Unix para máquinas personales a la espera de que estas fueran lo suficiente potentes. Así fue como en 1980, aprovechado las capacidades del 8086 de Intel, se anunció un sistema operativo basado en Unix bajo el nombre de Xenix. Aquello estaba adelantado a su tiempo y su impacto no fue muy grande. Otra prueba de que Unix ya podía funcionar en Red fue que, también en 1980, 3Com presentaría UNET para el Digital PDP-11, convirtiéndose así en una de las primeras implementaciones conocidas de TCP/IP para Unix y Ethernet.

Más cercano a lo que los usuarios conocían fue la apuesta de Digital Research. Como he comentado en otro texto, esta compañía dominaba el mercado de los sistemas operativos para el 8080 de Intel y el Z80 de Zilog y su planteamiento, en el ámbito de la conectividad, fue más práctico al añadir capacidades de conexión remota a una máquina central para que, desde otros ordenadores CP/M, fuese posible acceder. A este sistema operativo lo llamarón MP/M (Multi-Programming Monitor Control Program) y representó un éxito al estar basado en una línea de comandos ya conocida y que no requería máquinas con capacidades muy avanzadas. Recordar que era 1979 y la conexión aún se hacía a través de líneas RS-232. De aquellos primeros ordenadores departamentales y multiusuario con MP/M el más destacado fue el Altos Computer System ACS 8000 que empleaba un procesador Z80 de Zilog (no confundir con el legendario Alto de Xerox). Unos años después, en 1981, Altos aposto por Xenix para intentar ofrecer más capacidades y así aprovechar al máximo su futura línea de máquinas ACS 8600, ya basadas en un 8086 de Intel.

MP/M, y el mundo CP/M en general, quedaría en un segundo plano cuando Microsoft lanzó su DOS. Con este sistema de 16 bits y la consiguiente apuesta de IBM por él, Digital Research tenía enfrente dos grandes compañías y en el mercado se empezaba a hablar de nuevas formas de conexión como Ethernet o ARCnet para las que CP/M y MP/M aún no estaban preparados. Aquella tendencia fue detectada por 3Com quien, en 1982, puso en el mercado una tarjeta de red Ethernet para el IBM PC acompañada del software EtherSeries para DOS y cuyas comunicaciones reposaban en el protocolo de comunicación XNS de Xerox. De esta forma, de manera sencilla, se ofrecía al usuario una tarjeta Ethernet de 3Com, el protocolo y aplicaciones necesarios para constituir una pequeña red local o grupo de trabajo.

En aquel momento era difícil desacoplar la tarjeta de Red y las aplicaciones y pretender ser compatible con el software de terceros, o desarrollar un software que trabajase con cualquier tarjeta de red. Esta situación animó a Microsoft a comercializar en 1984 el MS-Net y ofrecerlo a otros fabricantes como licencia de desarrollo. Esto significa que ellos -Microsoft- ponen a disposición de terceros el software con el que se dota de capacidades de Red a DOS pero este, el fabricante del adaptador, se tiene que trabajar las capas inferiores, o drivers, para usar sus tarjetas de Red. Así es como IBM lanzó para su tarjeta PC Network el PC Network Program. Para simplificar las cosas, Microsoft en el lado de las aplicaciones de su MS-Net, y Sytek e IBM en la tarjeta de Red, implementaron una serie de mensajes o API (Application Programming Interface) conocidos como NetBIOS para, a través de ellos, acceder de forma sencilla y normalizada a las rutinas básicas para que un sistema operativo, aplicación u ordenador trabajen en Red. El uso de NetBIOS llegó a convertirse en algo habitual en las redes Microsoft e IBM hasta la populación de TCP/IP y su API basada en Sockets y Winsock.

En aquel entonces se recomendaba instalar PC Network Program y EtherSeries en una máquina potente para desempeñar las funciones de Servidor. A pesar de esto no se resolvía bien todo lo que a un sistema así se le podía pedir, en particular rapidez, capacidad para trabajar simultáneamente con muchos usuarios y alta disponibilidad. Este importante hueco sería ocupado por Novell y su NetWare. Ellos comenzaron en 1983 comercializando un software especializado en tareas de Red Local para máquinas propias empleando un microprocesador 68000 de Motorola. Concibieron su software desde cero, no dependiendo así de ningún sistema operativo anterior como DOS, CP/M o Unix. Es decir, ellos crearon un sistema operativo de Red para ordenador central o Servidor. Como Servidor, este solo estaría dedicado a tal fin, no siendo utilizado por usuarios en sus tareas cotidianas. También cambiaron el enfoque hecho hasta entonces y, en lugar de compartir discos, atomizaron el elemento de compartición, es decir el fichero y estos, además de residir en el disco, se mantenían en memoria RAM desde la cual se compartía en Red. Esto se traducía en un gran incremento en el tiempo de acceso. También, inspirados por lo que hacía Unix, crearon un sistema de archivos más rico en atributos donde era posible bloquear el acceso a un determinado fichero en función de los permisos de acceso que tenía cada usuario y grupo al que pertenecía, o el uso simultaneo que se podía hacer de él. Además concibieron en NetWare un conjunto de mecanismos que aseguraban la alta disponibilidad de la solución. Aunque de configuración compleja, había que mirar a los grandes sistemas para ver algo parecido. Era el NetWare System Fault Toleran (SFT) y había diferentes grados de producto en función del nivel de criticidad que resolvían: Level I, II y III.

Otra de las grandes ventajas de Novell NetWare residía en la posibilidad de usar otra tarjeta de red diferente a las fabricadas por IBM o 3Com. Esta característica permitía a NetWare abstraerse de una determinada topología de Red como Ethernet o Token Ring pudiendo, por ejemplo, utilizar ARCnet y tarjetas del fabricante Standard Microsystems Corporation (SMC). En sentido, en 1987 y con el fin de fomentar el desarrollo de las redes, Novell desarrolló los adaptadores Ethernet NE1000 y NE2000 cuyo diseño de referencia fue puesto a disposición de cualquier fabricante y los liberó del pago de royalties. Así estás tarjetas se convirtieron en un estándar de mercado seguido por numerosas marcas.

En 1986 Microsoft seguía ofreciendo su MS-Net a fabricantes como IBM. Esta es la razón de que se lanzara PC LAN Program donde ya se contemplaba el uso de la tarjeta Token Ring de IBM. Como hemos visto este software, junto a EtherSeries y PC Network Program, reforzaban la venta de tarjetas de Red al facilitar el desarrollo de pequeñas redes locales pero, si queríamos una gran red, teníamos que recurrir a soluciones como NetWare.

Es por eso que, coincidiendo con el desarrollo del sistema operativo OS/2 entre IBM y Microsoft, cobraba fuerza la idea de competir de igual a igual con Novell. Así es como en 1988 Microsoft, junto con 3Com, pusieron en el mercado LAN Manager y este fue ofrecido a fabricantes como IBM quien lo comercializó bajo el nombre de LAN Server. Aquel lanzamiento y su dependencia de OS/2 apenas araño cuota de mercado a NetWare quien seguía manteniéndose como líder. Para agravar la situación, tras el abandono del codesarrollo de OS/2 por Microsoft, IBM se quedó solo promocionando este software de red como complemento de red para su OS/2. LAN Server funcionaba muy bien y su grado de robustez era alto y además, a través de una configuración basada en las ventanas de OS/2, era relativamente fácil montar un Servidor de Red. Como pasaba con Token Ring, el binomio OS/2 y LAN Server se tenía en cuenta solo en los clientes más fieles a IBM y esto, como no, limitaba las ventas y el crecimiento al que aspiraba Microsoft.

En mayo de 1991 Bill Gates (1955) anunció que la asociación con IBM en la apuesta por OS/2 se daba por concluida y que todos los recursos de desarrollo pasaban a enfocarse en Windows. Así, en 1993, aparecerá la versión 3.11 for Workgroups con la que se incluían las capacidades básicas de Red y, por otro lado, se lanzaba Windows NT 3.1 con el que se redefinió el papel de un Servidor de Red. Con ambos productos se ponía al alcance de muchas organizaciones la posibilidad de levantar una Red casi por intuición. Para arropar esta estrategia, Microsoft fue lanzando una serie de productos como Exchange y SQL Server con los que cualquiera podía tener acceso a servicios de correo electrónico o bases de datos en Red.

Windows NT era lo opuesto a Novell NetWare. Es indiscutible que NetWare era muy bueno pero su grado de complejidad era alto y su amigabilidad nula. En cambio, a través de las ventanas de NT, uno se movía con cierta familiaridad y los conceptos eran fáciles de entender. Cualquiera que haya trabajado aquellos años con NT y NetWare sabe de lo que hablo. Era habitual ver como algunos clientes creaban redes con NT sin ninguna idea pero aquello funcionaba relativamente bien. En cambio, cada vez que -el escribe- asistía a alguna instalación o problema con NetWare, daban escalofríos solo con ver la multitud de manuales que acompañaban al producto…

He comentado como a Unix le sobraban capacidades para trabajar en Red. De hecho, algunas empresas como Banyan presentaron en 1984 su sistema operativo de red, el Vines, basado en Unix. En este sentido, como olvidarse del Unix de Unisys, NCR, HP e incluso IBM con su AIX y, como no, el Solaris de Sun Microsystems. Otras empresas, como Siemens, optaron por usar el Xenix de Microsoft hasta que esta se desprendió de él y acabó en las manos de SCO (The Santa Cruz Operation). Durante buena parte de la década de los noventa, SCO fue el líder del Unix para el mundo PC y representaba una gran opción cuando se pensaba usar Sistemas Abiertos. Todo ello cambiaría con el desarrollo de GNU/Linux.

Aunque ya se ha contado cientos de veces como apareció GNU/Linux, merece la pena recordar que este sistema ha nacido y se ha desarrollado alrededor la figura de Linux Torvals (1969), Richard Stallman (1953) y miles de desarrolladores, mayoritariamente anónimos. El primero, a partir de las ideas de Andrew S. Tanenbaum (1944) y su Minix escrito en 1987 con propósitos docentes, creó un núcleo o kernel de apariencia Unix que corría en un 80386 de Intel. Stallman, por su parte, había desarrollado un conjunto de utilidades para Unix pero libres, sin restricciones del copyright, como un editor, un compilador y shell o línea de comandos, pero le faltaba el kernel. Así se unieron ambos y pusieron a disposición de la comunidad un sistema operativo compatible con el POSIX de Unix (Portable Operating System Interface uniX). No olvidemos que ponerlo a disposición de la comunidad significa abrir su código y distribuirlo libremente para que cualquiera lo pueda modificar y adapte a sus necesidades. Esto sucedió en la primera mitad de los noventa, justo cuando Internet empezó a ser popular y era necesario montar fácilmente un servidor web. En este escenario TCP/IP, donde la unidad de información eran decenas de pequeños objetos a los que apuntaba un fichero HTML, las capacidades de NetWare y Windows NT y su licenciamiento quedaban lejos de los presupuestos y la flexibilidad que esperaba, sobre todo, el mundo académico.

GNU/Linux resolvía a la perfección la posibilidad de poner en marcha un servidor en Internet incluso, los más atrevidos, se lanzaban a poner en marcha una Intranet Corporativa pero, en este caso, se echaba en falta el respaldo de una compañía que certificara una determinada versión y, además, ofreciera alguna línea de soporte más allá de abrir un hilo en la comunidad de desarrolladores. Para paliar este hueco nace Red Hat en 1993. Red Hat, además de ser un importante contribuyente del desarrollo de GNU/Linux, ofrece servicios de soporte para que sus distribuciones sean adoptadas dentro de un entorno empresarial. Es, además, una empresa que cotiza en bolsa y recientemente ha sido adquirida por IBM. En cambio, en otras distribuciones como Debian, también aparecida en 1993, es una comunidad de desarrolladores quien se encarga de su evolución y evita, escrupulosamente, utilizar cualquier software cuya licencia pueda ser privativa. Ambas distribuciones: Debian y Red Hat son las más importantes en este momento y, a partir de ellas, nacen otras muchas como Ubuntu, CentOS, Fedora, Raspbian, etc

Hoy recurrir a un servidor GNU/Linux no es una aventura. Millones de CRM (Customer Relationship Management) y ERP (Enterprise Resource Planning), bases de datos, máquinas virtuales y servidores web reposan sobre él. Por su parte, aun teniendo una importante presencia en Internet, el entorno habitual de los servidores de Microsoft es la empresa. Ahí son los reyes indiscutibles al ofrecer una integración perfecta con la ofimática existente en los escritorios de usuario.

Con este texto he intentado acercar al recién llegado lo que ha pasado en este sector en las últimas décadas. Realmente todo ha sido mucho más complejo de lo que cuento pero, en buena medida, resume lo sucedido y lo vivido en primera persona. Por eso, pido disculpas si echáis en falta algún dato o más precisión. Hasta pronto.

Colección | Redes de Área Local (1) | Electrónica de Red (y 3)

Redes de Área Local (1)

noviembre 3, 2018 on 12:02 pm | In colección, hist. informática, hist. telecomunicaciones | 5 Comments

Adolfo García Yagüe | Con el comienzo de la década de los ’80 se produjo una transformación en la forma de trabajar de muchas organizaciones. Cómo hemos visto, los ordenadores personales se convirtieron en una herramienta que aumentaba la productividad de los empleados y hacía más competitivas a sus respectivas compañías. En gran parte, esta nueva tendencia se debida a la capacidad que ofrecían los nuevos equipos personales pero, además, a la posibilidad de compartir remotamente con otros usuarios recursos tan valiosos como una impresora, un disco duro, la mensajería electrónica y alguna aplicación o archivo.

Antes de esta transformación se estilaba un modelo centralizado donde todo el proceso y tratamiento de datos giraba alrededor de una o varias máquinas del centro de cálculo. Al principio, este proceso centralizado se basaba en que el resto de departamentos como el financiero, producción o incluso los programadores necesitaban definir con exactitud lo que deseaban del ordenador central y allí, un pequeño ejército de empleados, se encargaban de procesar los datos para entregar las respuestas a los interesados.

Más adelante se empezaron a utilizar terminales y las líneas de un operador de telecomunicaciones para permitir el acceso remoto al ordenador central, es la época del Teleproceso. Estas terminales eran como “pequeñas ventanas” a través de las cuales era posible interactuar directamente con el ordenador. Por esta razón, en aquellos tiempos, se empieza a hablar de capacidades Multiusuario al referirse a la característica que tiene un ordenador central y sistema operativo de atender a múltiples usuarios al mismo tiempo y dar la sensación de que trabaja solo para ellos.

Aquellas ventanas o terminales dependían de la conexión y cable serie RS-232 o V.24. Este cable estaba a su vez compuesto por varios hilos de cobre: uno para transmitir datos, otro para recibirlos, otro para señalizar la confirmación de la recepción y así un largo etcétera que, a menudo, difería de cada fabricante y máquina. Además, la conexión RS-232 imponía un límite importante en su velocidad que, como máximo, era de 9600 bps. Por eso IBM, en su arquitectura SNA, empezó a utilizar cables coaxiales en la comunicación de sus terminales con el ordenador central. Aun así, para conexiones distantes con el ordenador central, no quedaba más remedio de recurrir a los módems y las redes de operador.

Estas razones llevaron a la Universidad de Hawái, en 1970, a poner en práctica un modelo que comunicara sus terminales, dispersos a kilómetros, usando señales de radiofrecuencia. A aquella red la llamarón ALOHANET y, básicamente, consistía en un mecanismo por el cual todos los terminales eran capaces de enviar información por el mismo canal radio UHF (407,350 MHz) hacia el ordenador central y, en caso de que dos o más terminales ocuparan el canal de envío al mismo tiempo (colisión), se establecía un mecanismo de acceso aleatorio entre ellos para resolver esta colisión. En el caso contrario, cuando era el ordenador central el que enviaba la información, se empleaba un canal distinto (413,475 MHz) y este llegaba a todos los terminales a la vez (broadcast) y solo el destinatario abría.

La experiencia de ALOHANET y la Universidad de Hawái sirvió para que Robert Metcalfe (1946) y David Reeves Boggs (1950), unos jóvenes empleados del Xerox PARC en California, desarrollaran una tecnología de comunicación llamada Ethernet empleando un cable coaxial como medio físico. Estamos en 1976 y este modelo de comunicación fue implementado en el ordenador Alto y permitía la comunicación a una velocidad 3Mbps. Este fue un ordenador experimental, adelantado a todo lo existente, con el que Xerox pretendía redefinir el trabajo en las oficinas. No tenía un propósito comercial y, aunque se cedieron máquinas Alto a unas cuantas universidades, era una prueba de nuevos conceptos como la citada conexión Ethernet y las redes locales o LAN (Local Area Network), el entorno gráfico o el ratón como dispositivo apuntador.

Como hemos dicho, hacia finales de los años ´70, las redes locales y los sistemas de comunicación empezaban a ser una preocupación para algunas compañías. Ethernet era una tecnología más junto a otras como ARCnet (Attached Resource Computer), desarrollada en 1977 por John Murphy (1943) y Gordon Peterson en la compañía Datapoint Corporation. Realmente, ARCnet fue la primera en llegar comercialmente al mercado y podía presumir de tener como cliente al Chase Manhattan Bank. A simple vista Ethernet y ARCnet podían parecer similares. Ambas prescindían de los cables RS-232 y resolvían la conectividad en un edificio facilitando que varias máquinas se conectaran entre sí. La diferencia más llamativa era que el cableado ARCnet era muy sencillo, empleaba coaxiales flexibles del tipo RG-62/U y su topología se basaba en una estrella pasiva donde se conectan los diferentes brazos, o máquinas, mientras Ethernet usaba un cable coaxial grueso y rígido RG-8 en el que había que “pinchar” literalmente cada máquina y obligaba a respetar unas distancias entre equipos.

Como vemos en ambos casos estamos en un medio compartido –el cable coaxial- donde tenemos que gestionar el acceso simultáneo. En ARCnet no se producían colisiones porque un testigo pasaba de una máquina a otra y solo el propietario del citado testigo podía enviar información (Token Passing). En cambio, en Ethernet, se pensó en una técnica derivada de ALOHA pero con alguna mejora. En este caso cada máquina escucha el medio (el cable coaxial) y si está desocupado se envía información. Si por alguna circunstancia se produce una colisión, esta se detecta y se espera un tiempo aleatorio para reenviar el paquete de información: Carrier Sense Multiple Access with Collision Detection (CSMA/CD).

ARCnet era más eficiente a pesar de que su velocidad era solo de 2Mbps. No obstante, era una tecnología propietaria de Datapoint, lo que significaba que está compañía tenían pleno control sobre ella, y Ethernet -sin llegar a considerarse libre- tenía un modelo de patentes más flexible lo que podía animar a cualquier fabricante a desarrollar un producto. Esta aproximación más laxa hizo que Ethernet triunfara en los primeros años frente a otras aproximaciones que, sobre el papel, demostraban ser mejores. De aquel cambio de concepto, difusión y éxito se encargaría Robert Metcalfe. Ya hemos visto como esta tecnología fue coinventada por él tras su paso por Xerox. Un poco más tarde de aquello, en 1979, Metcalfe propuso constituir un consorcio a Digital Equipment Corporation, Intel y a Xerox (DIX) para reescribir las especificaciones técnicas de Ethernet y publicarlas para que cualquiera las implementase y pudiese comprar, si lo deseaba, chips Ethernet de Intel o equipos de Digital y Xerox. Así se lanzó Ethernet II (DIX v2.0) donde se diferenciaba 10Base5 describiendo el uso de un cable coaxial grueso RG-8/U (Thick) y 10Base2 para un coaxial más flexible RG-58/U (Thin), ambas a una velocidad de 10Mbps. Robert Metcalfe, por su parte, montó una empresa especializada en productos Ethernet llamada 3Com (Computer Communication Compatibility).

El éxito de 3Com fue en aumento al comercializar el primer adaptador Ethernet y software de red local para el IBM modelo 5150. El mercado Ethernet no paraba de crecer con las soluciones de 3Com y de otros fabricantes, animándose así, la bajada de precios e innovaciones sobre el estándar de Xerox, Intel y Digital. En vista de ello, Ethernet fue elevado al IEEE (Institute of Electrical and Electronics Engineers) quien se encargó de regular su evolución y mejoras bajo el estándar 802.3.

IBM, aun teniendo un papel importante en el mundo de las redes de área local, parecía no sentirse cómoda. Por un lado, en su negocio principal, la venta de ordenadores centrales, aquello de las redes locales “chocaba” un poco con su arquitectura SNA. Por otro lado, en los genes de IBM no estaba -en aquella época- seguir un estándar que ellos no habían inventado y sobre el cuál no tenían control. En resumen, ante aquel tsunami, empezaron comercializando en 1984 la PC Network, cuya tecnología estaba basada en solución de la empresa Sytek pero alcanzando velocidades de 2Mbps. Esta también recurría a los cables coaxiales pero en este caso emplea convencionales RG-6/U, de los usados en televisión. Para ello se emitía en canales VHF dentro de las regiones de los 70-106MHz y 206-226MHz, y se empleaba CSMA/CD para acceso al medio y detección de colisiones. Como acabo de citar, Sytek desarrolló está tecnología en 1982 y comercializó unos módems llamados LocalNet 20/100 para conectar terminales a coaxiales a velocidades de 128Kbps. Como dato importante, en la PC Network encontramos, por primera vez, una BIOS específica para las tareas de red: el NetBIOS.

Aunque la tecnología de Sytek pretendía ser más sencilla que Ethernet al emplear coaxiales más baratos y comunes, la realidad es que la electrónica de las tarjetas de red es mucho más cara y compleja al incluir etapas de alta frecuencia. Supongo que esta fue una de las razones que impulsó a IBM a desarrollar su propia tecnología de red y lanzar así Token Ring en 1986.

Token Ring fue desarrollada en los laboratorios de investigación de IBM en Zúrich, Suiza. Al frente de esta tecnología estaban Werner Bux y Hans Müller. En Token Ring se pretendía suplir las carencias de Ethernet y de otras tecnologías de red. Para empezar se pensó en la alta disponibilidad, tan común en el mundo mainframe o gran ordenador. Es decir, tenía que ser posible bloquear a una estación si esta daba errores al entrar en un entorno compartido como un cable. También tenía que ser posible llegar al mainframe por diferentes caminos o anillos con la misma dirección de destino. Tampoco agradaba a IBM un modelo de acceso basado en las colisiones pues esto impedía hacer de la red local un espacio determinista donde fuese posible estimar el tiempo en que hablaba cada máquina. Para ello se recurrió al sistema de paso de un testigo (Token) y, de forma parecida a ARCnet, solo el propietario del Token podía hablar. Por último y más importante, se prescindía de los buses de cable coaxial y en cambio se proponía una topología basada en anillo (Ring), donde a uno o más elementos centrales o MAU (Multi-Access Unit) se conectaba cada máquina con cables STP (Shielded Twisted Pair), también conocidos como IBM Categoria 1 y constituidos en su interior por dos parejas de dos hilos cada una y un apantallamiento metálico o blindaje. Este tipo de cableado y las MAU, como elemento central, sentarían las bases de lo que en 1991 sería la norma EIA/TIA 568 para cableado estructurado.

Token Ring gozó de la aceptación del mercado, especialmente en aquellos clientes tradicionales de IBM como banca y las empresas de seguros. La primera versión ofrecía velocidades de 4Mbps y, al poco tiempo, se puso en el mercado una tarjeta de velocidad dual a 4 y 16Mbs. Conscientes del potencial de Token Ring, IBM también estandarizó a través del IEEE su tecnología bajo la norma IEEE 802.5 abriéndola a otros fabricantes pero sobre la que siempre pesó la poca oferta de soluciones y productos, y su elevado precio en comparación con Ethernet. En este sentido, no puedo evitar recordar a la danesa Olicom, donde trabajé y fabricábamos productos Token Ring y ATM, y de la estimulante competencia que manteníamos con la británica Madge.

Aunque en el mundo LAN (Local Area Network) han existido más soluciones, con ARCnet, Token Ring y Ethernet quedan bien resumidos estos primeros años. Quizás habría que añadir FDDI (Fiber Distributed Data Interface), aparecida al comienzo de los ’90, y ATM (Asynchronous Transfer Mode) hacia mediados de la misma década. Con ambas tecnologías se venía a dotar a Ethernet y Token Ring de velocidades de 100Mbps (FDDI), 155Mbps y 622Mbps en conexiones de troncales o en la conexión de estaciones de trabajo. Ambas tuvieron su momento y buenas referencias hasta que se desarrolló y arrasó con el mercado la aparición de Gigabit Ethernet a una velocidad de 1Gbps.

Por último, tampoco me puedo olvidar de los sistemas operativos de red, que son tan importantes como las redes físicas. Ni de la electrónica asociada, como concentradores o hubs, repetidores, bridges o conmutadores. Todo ello queda para próximos textos.

Colección | Sistemas Operativos de Red (2) | Electrónica de Red (y 3)

En los límites de la Innovación

septiembre 6, 2018 on 8:08 pm | In colección, hist. informática | 2 Comments

Adolfo García Yagüe | Hacia mediados de los años ´80 una serie de máquinas domésticas abandonaron los 8 bits apostando por procesadores de 16 bits, aunque ya con registros internos e instrucciones de 32 bits. Hemos visto que, en aquellos años, los 16 y 32 bits solo estaban al alcance de equipos de alta gama. El mercado profesional apostaba por los ordenadores IBM (y sus compatibles) equipados con el microprocesador Intel 8088 y 80286, o seleccionaba el Apple Lisa y Apple Macintosh en cuyo caso se optaba por los 16/32 bits del Motorola 68000. Incluso, en estos años, se empezó a usar la tecnología de procesadores RISC en máquinas de alto rendimiento conocidas como “estaciones de trabajo”.

Como vimos el gran acierto de IBM con su modelo 5150 fue no innovar nada. No innovó al elegir el procesador de Intel ni al optar por el MS-DOS de Microsoft, ni siquiera al usar ciertos periféricos como la unidad de almacenamiento. Se limitó a integrar sabiamente lo que ya existía en el mercado y acertó al entender lo que sus clientes esperaban. En cambio Apple llevó hasta las últimas consecuencias hacer algo totalmente diferente que pocos clientes entendieron. También, con aquella aspiración de hacer algo distinto, llegó a cruzar la arriesgada frontera de querer imponer un nuevo sistema, como por ejemplo los diskettes FileWare del Apple Lisa.

Con el QL (Quantum Leap) de Sinclair, como su nombre indica, se pretendía dar un salto cuántico y ofrecer al mercado algo diferente a lo visto antes, es decir, a los ZX81 y ZX Spectrum. Con este propósito se pensó en una máquina cuyo marketing y posicionamiento comercial se dirigía hacia el profesional y la pequeña empresa. Se intentaba evitar el mercado que tanto éxito le granjeó en el pasado: los juegos y el mercado doméstico. Con este objetivo se pensó en abandonar al veterano Zilog Z80 en favor del 68008 de Motorola. Está elección, aun siendo un gran salto, delataba la aproximación de Sinclair al replicar su viejo modelo: Se pretendía triunfar con una máquina económica, con muchas prestaciones “avanzadas” pero poco competitivas si eran comparadas con otras opciones ya existentes. Por ejemplo, el citado procesador 68008 no podía alcanzar el rendimiento de su hermano mayor el 68000 pues todo el diseño hardware exterior seguía siendo de 8 bits. La funcionalidad de red local, aunque innovadora, no podía competir con una Ethernet o ARCnet ya en uso. Sus pocas aplicaciones profesionales tampoco alcanzaban la oferta de un PC Compatible. Qué decir de su teclado… Aunque era un gran avance si es comparado con el de un ZX Spectrum, ni de lejos llegaba a un teclado de un Apple II. Y el famoso Microdrive, como sistema de almacenamiento, parecía un juguete comparado con los asentados diskettes de 5” ¼. Es cierto que su sistema operativo y BASIC tenían capacidades multitarea pero esto roza lo anecdótico si es enfrentado a un entorno de ventanas como el ofrecido en el Apple Lisa o Macintosh, o el de equipos como Atari ST.

A estas razones hay que añadir el empeño de Clive Sinclair de intentar hacer historia con su vehículo C5 en mercados tan inmaduros -en aquel momento- como la movilidad eléctrica. Aquella dispersión técnica y su personalismo a la hora de tomar cualquier decisión, aunque pueda parecer visionario -y casi heroico-, ejemplifica que es necesario contar con la opinión de expertos en marketing y en asuntos financieros, además de gurús técnicos. La apuesta equivocada en el desarrollo y lanzamiento de una máquina suele llevar a la ruina a una compañía y ese fue el motivo por el que Sinclair acabó comprada por Amstrad, y Apple estuvo cerca de ser una reseña histórica.

Mientras esto sucedía, al otro lado del Atlántico Jack Tramiel dejó Commodore en 1984. Sus diferencias con otro de los dueños eran irreconciliables. Meses después Tramiel compró a Warner Communications la división de equipos del hogar de Atari e impulsó el desarrollo de una máquina de 16/32 bits, el Atari ST, que sería presentado en 1985.  Tramiel supo darse cuenta del potencial de un interfaz gráfico -como el incluido en Apple- para hacer amigables sus capacidades y así llegar a más personas. Por eso, no dudó al presentar su nueva línea «Sixteen/Thirty-two» con las siguientes características: procesador 68000 de Motorola, un mega de RAM, un drive de 3” ½, dos interfaces MIDI (Musical Instrument Digital Interface), alta resolución y un entorno gráfico basado en el GEM de Digital Research. El posicionamiento comercial, aunque contando con capacidades profesionales, fue el del hogar y ajustó su precio para que no resultara inalcanzable como el Macintosh. Además, desde el primer instante, no se huyó del pasado que asociaba la marca Atari con el mundo de los juegos.

Sus capacidades de proceso, interfaz gráfico y disponiblidad de interfaces MIDI, hicieron de los Atari 520 ST y 1040 un clásico de la informática musical. Allí empezó a funcionar el legendario secuenciador Pro24 -posteriormente Cubase– de Steinberg. No obstante, ambos ordenadores carecían de capacidades avanzadas para el tratamiento y síntesis de sonido e imágenes, y ya era evidente que una nueva generación de juegos de ordenador estaba empujando desde plataformas específicas donde se contaba con gran capacidad de proceso y gráficos avanzados. También, fuera de los entornos profesionales, se empezaba a hablar de infografía y multimedia. Estas y otras tendencias llevaron al desarrollo de un equipo, el Commodore Amiga, que inicialmente se pensó como consola y mutó a un ordenador de propósito general. Por eso, esta máquina, mucho antes que un PC, ofrecía mejores capacidades gráficas y sonido. El secreto de tal capacidad fue diseñar sus propios chips para trabajar con audio y video, y así evitar recurrir a la centralización de procesos en torno al microprocesador.

* * *

Durante los ochenta aparecieron numerosos procesadores que cuestionaban la hegemonía de Intel. En proyectos de máquinas de alto desempeño gráfico Intel no era considerado y, por otra parte, ya hemos visto que Motorola y su familia 68000 eran un formidable competidor contra el 8088, 80286 o 80386. Daba la sensación que la famosa Ley de Moore e Intel habían tocado techo. En un microprocesador la capacidad de proceso se conseguía integrando más transistores y subiendo su velocidad de funcionamiento o de reloj. Otra aproximación era optimizar su microcódigo para que en un único ciclo de reloj se ejecute una instrucción –aunque sea sencilla- y simultanear la ejecución de varias de estas instrucciones. En estos planteamientos se resumen las familias existentes en los ’80.

Desde el 4004 Intel se optó por integrar más y más transistores en cada micro. Su depurada técnica de fabricación aseguraba a Intel alumbrar con cada generación semiconductores más complejos e instrucciones más largas y especializadas. Este planteamiento se conoce como CISC (Complex Instruction Set Computer) y es el modelo que también se sigue en el 68000 de Motorola. En cambio, otros fabricantes menos enfocados en la fabricación de semiconductores, seguían una aproximación propuesta durante los ‘70 por IBM e investigadores de las Universidades de Berkeley, Stanford y California y ya llevado a la práctica, en 1965 -con un planteamiento de la época- por Control Data en su superordenador CDC 6500. Este se basaba en simplificar al máximo el set de instrucciones que tiene el núcleo del microprocesador y que cada una de estas fuera sencilla y de igual tamaño. Todo el peso de la optimización del código máquina recae en el compilador, que normalmente generará programas de mayor tamaño que los de un CISC. A ésta microarquitectura se la llamó RISC (Reduced Instruction Set Computer). Esta segunda técnica presenta una serie de ventajas sobre la anterior al facilitar el incremento de rendimiento desde la perspectiva de la ejecución simultánea de varias instrucciones en cada ciclo de reloj (Superescalar) y el aumento de frecuencia, aligerando así la complejidad del microcódigo CISC y su consiguiente consumo energético.

Esta aproximación fue seguida en el diseño de un nuevo microprocesador por parte de la empresa británica Acorn. Como hemos comentado, al comienzo de la década de los ’80, comercializaron el BBC Micro alcanzando una gran aceptación del mercado inglés. Era un ordenador basado en el 6502 de MOS. Ya hemos visto como el mercado de 8 bits flaqueaba y, para los fabricantes que querían seguir compitiendo, era necesario recurrir a nuevos procesadores. Esta necesidad impulsó a Acorn a iniciar un proyecto para desarrollar su propio procesador con la emergente tecnología RISC. Los artífices de esta iniciativa fueron Sophie Wilson (1957) y Steve Furber (1953), dos de los diseñadores del BBC Micro. Así es como en 1986 presentaron el ARM2 (Acorn RISC Machine) de 32 bits usando solo 30.000 transistores (un 68000 empleaba 70.000 y un Intel 80386, 275.000). Esta CPU RISC sería el corazón de su nuevo ordenador Acorn Archimedes A3000. Además de su potencia, aquel procesador fue un éxito entre los desarrolladores habituados al viejo 6502 y el ordenador Archimides cosechó un éxito razonable a pesar de la fuerte competencia de la época. Con el fin de alargar la vida del procesador y ofrecer esta tecnología a otros fabricantes de dispositivos, la gente de Acorn escindió la compañía en dos empresas, una dedicada a la fabricación de hardware es decir, la Arcon original, y otra a la comercialización de su arquitectura RISC: Advanced RISC Machines Ltd.

Aquella decisión demostró ser un éxito y es la razón por la cual hoy numerosos dispositivos estén basados en un procesador ARM, aunque este no esté fabricado por la propia ARM. Esto significa de ARM optó por un modelo en el que ellos licencian el uso de su arquitectura y los licenciatarios se encargan de la fabricación del silicio y, si desean, pueden integrarlo junto a otros componentes específicos, es lo que conocemos como System on Chip (SOC).

En mi opinión, con las máquinas comentadas anteriormente, se cerró una época en la que existió espacio para la innovación del ordenador doméstico. Poco después, en el año 1987, IBM introdujo con sus equipos PS/2 la tarjeta gráfica VGA (Video Graphics Array) que rápidamente estuvo a disposición de otras máquinas. También arrancó la década de los ’90 con la disponibilidad en el mundo de los ordenadores compatibles de una tarjeta de sonido que venía a paliar las limitaciones de un PC: recordemos a la pionera AdLib y, expecialmente, la Sound Blaster, de Creative Labs.

El mundo de los procesadores RISC siguió desarrollándose. De hecho estos procesadores fueron el corazón de una generación de máquinas muy potentes dedicadas a tareas científicas, infografía, servidores de alto rendimiento y consolas de juegos. A los citados ARM se unían los SPARC de Sun Microsystems, los MIPS, el AMD 29000 o los PowerPC de IBM, Motorola y Apple y, en 1989, Intel presentaría el procesador i860, el primero del mundo de 64 bits y basado en arquitectura RISC. Más adelante este procesador fue sustituido por el i960 y, a continuación, el grupo de desarrollo se integró en la línea Pentium Pro donde ya se contaba con núcleo RISC.

Colección | Home Computer y Retroinformática

 

Home Computer y Retroinformática

agosto 26, 2018 on 8:15 pm | In colección, hist. informática | 3 Comments

Adolfo García Yagüe | Normalmente, cuando hacemos referencia a este periodo y a la Retroinformática, nos referimos al momento en el que ordenador llegó a nuestras casas. Es difícil hablar de esta época sin repetir lo que ya se ha dicho y escrito en infinidad de webs y algún libro. De hecho, repartidos por toda la geografía española, tienen lugar numerosas citas “Retro” donde se exponen máquinas de aquellos años y se habla sobre videojuegos clásicos.

En este periodo podemos distinguir dos etapas claras, una, la inicial, marcada por el uso del microprocesador de 8 bits Z80 de Zilog y el 6502 de MOS. La otra, pasada la mitad de los años ´80, que se distingue por el empleo del 68000 de Motorola. Veremos que ambas se solapan y, con permiso de los PCs y equipos más profesionales, coinciden en el mercado algunos años.

Como ya hemos dicho en otro artículo, la premisa principal de esta época era ofrecer un precio lo suficientemente atractivo para hacerse un hueco en la economía doméstica. Con esta máxima se optaba por teclados muy sencillos y se recurría a un televisor como monitor, o al casete como sistema de almacenamiento. Tampoco se andaba sobrado de memoria RAM por lo que hablar de 16KBytes, 48K o 64K era lo habitual. Años más tarde, algunos ordenadores, dieron el salto a los 128K e incluían almacenamiento basado en disco flexible, pero seguían anclados en los 8 bits.

No obstante aquellos 8 bits hicieron posible un gran mercado. España, junto al Reino Unido, llegó a convertirse en una potencia exportadora de videojuegos. A su vez los canales de distribución y venta se desarrollaron enormemente. Por otro lado, eran unos años donde ya existía cierta saturación de revistas y libros que acercaban la informática a cualquiera y, como no olvidarse de las academias que prometían prepararnos para el mañana. Incluso, en aquel entorno, se llegó a fabricar un ordenador británico, el Dragon 32, en Cáceres. No tengo nada contra Extremadura ni la fabricación dentro de nuestras fronteras, pero el hecho no deja de llamar la atención. Esta decisión parecía obedecer más al interés de introducir a una deficitaria compañía en el efervescente mercado nacional y gozar así del respaldo financiero del INI (Instituto Nacional de Industria) y, de paso, vender equipos a los colegios dependientes de la Junta. Igual de sorprendente es el Inves Spectrum +, basado en el Sinclair ZX Spectrum +, que fue castellanizado y fabricado en 1986 por Investrónica (El Corte Inglés) para el mercado nacional.

Aquel apogeo despertó otro fenómeno que alcanzó una popularidad desconocida. Aquí se llegó a comerciar, a plena luz del día, con juegos copiados ilegalmente o pirateados. Con la excusa de su elevado precio algunos no dudaron en montar puestos en el rastro de Madrid ofreciendo cualquier título a un precio ridículo. En aquel momento no lo entendíamos, incluso celebrábamos tal actitud, pero estábamos contribuyendo a cargarnos un mercado que nacía. Posiblemente, ejemplos como este, ilustran aquella falta de visión y por eso pocas empresas lograron sobrevivir. Al comienzo de los ’90 ya habían desaparecido numerosas cadenas de distribución, estudios de programación y revistas. Es cierto que coincidía con un abandono masivo de los 8 bits, pero da la sensación que la industria no era lo suficiente sólida para sostener a todos. Los buenos títulos creados en el pasado demostraban que no era por una falta de talento y capacidad técnica.

Posiblemente faltó educación y una pizca de institucionalización -un plan- en todo este rápido crecimiento. Para desarrollar esta idea pongo el ejemplo del BBC Inglés. Allí, a principios de los años ochenta, la todopoderosa BBC, decidió patrocinar un ordenador como acompañamiento a una serie de televisión que divulgaba la informática entre las familias. Fruto de esta iniciativa, la empresa Acorn creó un ordenador (el BBC Micro) que alcanzó una popularidad que rivalizaba con el -también inglés- ZX Spectrum pero, técnicamente, mucho mejor que este. Esto podría ser una anécdota si no fuera porque hacia finales de los ´80 el BBC Micro evolucionó en un ordenador llamado Archimedes con un microprocesador RISC (Reduced Instruction Set Computer) propio, y de ahí a los microprocesadores ARM (Advanced RISC Machine) de nuestros móviles y millones de dispositivos embebidos… Otro ejemplo de esta visión innovadora y arriesgada fue el lanzamiento del mítico ordenador Jupiter ACE. Hasta la fecha, que yo sepa, esta es la única máquina doméstica que incluyó en su ROM un intérprete del lenguaje FORTH en lugar de BASIC. Esta actividad creativa se concentró mayoritariamente en la región de Cambridge (Universidad de Cambridge…), donde fueron apareciendo empresas que dieron forma a un ecosistema económico. Hoy nos sonará el espíritu con el que se ha creado allí la Raspberry Pi… Acabo recordando como Mi Computer, un coleccionable originario de Reino Unido y publicado aquí a partir de enero de 1984, era distinto de la mayoría de las publicaciones nacionales. No quiero decir que fuéramos más cutres, pero en las páginas de esta enciclopedia se aprecian rasgos para, además de entretener, educar y despertar la pasión por la informática.

Sin duda, uno de los protagonistas de aquella pequeña revolución fue Clive Sinclair (1940). Al finalizar los setenta, este fabricante de calculadoras, relojes digitales y microtelevisores se encontraba en la misma situación que años antes se había vivido en Estados Unidos: tenía que cambiar el rumbo de su negocio y abrirse al incipiente mundo de los microordenadores. Con este propósito creo el ZX80. Con su apariencia de juguete esta máquina evidenciaba la tendencia que tenía Sinclair por miniaturizar sus creaciones. Con un peso de apenas 400 gramos y 22×18 centímetros incluía todos los elementos para poder funcionar. El ZX80 se puso a la venta por 99,95 libras y los más atrevidos lo pudieron adquirir en kit a un precio de 79,95£. Un procesador Z80 a 3,25 MHz direccionaba un exiguo KByte de memoria RAM y 4KB de ROM. A pesar de sus limitadas prestaciones hardware esta máquina fue un éxito rotundo. El camino para Clive Sinclair estaba claro: de inmediato había que poner un nuevo producto en el mercado para no perder el posicionamiento conseguido.

Así es como al año siguiente se presentó el ZX81. También estaba basado en el Z80 pero la placa base se rediseño por completo y se simplificó notablemente gracias a la incorporación de un chip diseñado a medida por Ferranti, la ULA (Uncommitted Logic Array). De esta forma el ZX81 sólo tenía cuatro circuitos integrados: el microprocesador Z80A, la citada ULA, un chip de memoria RAM 4118 de 1Kx8 bits y la memoria ROM del tipo 2364 de 8Kx8 bits. La ROM del sistema se había aumentado a 8 KB de tamaño, y el lenguaje BASIC ahora soportaba aritmética de coma flotante. En el lanzamiento del Sinclair ZX81 se ofreció esta ROM como una actualización para el ZX80. Esta máquina aún se podía adquirir en kit.

El ZX81 llegó a España al poco de su lanzamiento. Ya hemos comentado como cambió el rumbo de los aficionados a la electrónica que empezaban a cacharrear con el Junior Computer. También, desde el teclado táctil del ZX81, comenzarían a dar sus primeros pasos toda una generación de brillantes programadores que, poco tiempo después, dieron forma a la etapa conocida como La edad de oro de software español. La Pulga, de Paco Suárez (1954), es el primer juego desarrollado y posteriormente comercializado en España. Este juego fue programado para un ZX81 y llegó a las manos de Indescomp, uno de los primeros distribuidores españoles. Parece ser que Paco Suárez estaba intentando explicar a su hermano cómo se podía hacer una parábola y, al ver los resultados, decidió incorporar un personaje que fuera el que efectuara dicho movimiento, creando, de esta forma, lo que más tarde iba a ser un famoso juego.

Desde EE.UU., también en 1981, nos llegó el VIC-20 de Commodore. Ya hemos comentado que esta empresa no era nueva en el mercado. Ellos compraron al fabricante de circuitos integrados MOS Technology y lanzaron la serie de ordenadores PET. Su fundador, Jack Tramiel (1928-2012), fue una persona singular, de película, que logró sobrevivir al exterminio nazi. Su madre murió asesinada en Auschwitz y su padre en un campo de trabajo, y él llegó a ser “examinado” por el mismísimo Mengele. Tras su liberación emigró a EE.UU. donde empezó a comercializar calculadoras mecánicas y máquinas de escribir.

El Commodore VIC-20 funcionaba con un microprocesador MOS 6502 con los que manejaba 5KB de memoria RAM. Permitía el uso de colores y sus características técnicas y apariencia eran muy superiores a las de un ZX81. Esta máquina salió al mercado por debajo de los 300 dólares y junto al Atari 400, Texas Instruments TI99, Tandy TRS-80 Color y el posterior Commodore 64 (1982) dominaron el mercado doméstico estadounidense.

En 1982 Sinclair presentaría el ZX Spectrum y con él seguía la senda marcada en los anteriores con ZX80 y ZX81. El bajo precio de este ordenador y la abundancia de juegos lo convirtieron en una máquina tremendamente popular. Seguía basado en un Z80 y se lanzó una versión con 16KB de RAM otra con 48KB. En torno a este equipo y al Commodore 64 se polarizaron los primeros usuarios españoles. Posteriormente, tras la aparición de Amstrad y los sistemas MSX, el mercado ofreció otras opciones. En España, el factor económico era el principal elemento decisorio en entre ambos. El C64 era técnicamente superior al Spectrum y más caro.

Como vemos, en la primera mitad de los ’80 empezaba a existir cierta saturación de modelos. Para las empresas de software resultaba imposible versionar cada programa para atender las demandas de cada nuevo sistema. Con MSX (Machines with Software eXchangeability) se pretendía establecer una norma en el diseño del hardware y software de forma que, independientemente del fabricante, fueran compatibles entre sí. Algo parecido al IBM PC pero en el mercado doméstico.

Un par de años antes de la aparición del MSX, Harry Fox y Alex Weiss, dos importadores de relojes de New York, veían como los avances tecnológicos abarataban los precios. Este hecho les hizo pensar que también era posible fabricar ordenadores económicos. Así, en 1982, fundaron en Hong Kong la compañía Spectravideo y contactaron con Microsoft para desarrollar el software del nuevo ordenador. En este escenario aparece Kazuhiko Nishi (1956), vicepresidente de Microsoft para Asia y más tarde fundador de ASCII Corporation. A Nishi le encantó el proyecto de Fox y Weiss y, tras reunirse con ellos, se implicó realizando modificaciones al diseño original. Nishi había desarrollado el prototipo del futuro estándar MSX sobre la base del Spectravideo SV-318 y SV-328.

Más tarde Nishi promocionó estos diseños en Japón y en marzo de 1983 volvió a Spectravideo como representante de un consorcio empresas japonesas, entre las que destacaba Sony, Panasonic, Canon, Toshiba y Yamaha. Kazuhiko Nishi solicitaba permiso de fabricación a Fox y Weiss. Estos eran conscientes de que en el futuro Nishi podía reclamar parte de los derechos por el diseño, razón por la cual sugirieron a Nishi que diseñase otra máquina, compatible con ambos pero lo suficientemente distinta como para no necesitar una autorización para fabricarla. Tras esas modificaciones nace el estándar MSX. Por este motivo los SV-318 y SV-328 son considerados máquinas pre-MSX, con características muy cercanas al estándar (vídeo, sprites, sonido e interfaces) pero no totalmente compatibles.

En junio de 1983 se presentó en Tokio el estándar MSX. A lo largo de su historia más de 30 compañías fabricaron equipos compatibles, entre ellos Philips. Realmente, donde más presencia tuvo este estándar fue en Japón y Corea del Sur. En Europa, en particular en España y Holanda, tuvo cierta repercusión pero no alcanzó la popularidad del ZX Spectrum y Commodore 64. En EE.UU. apenas penetró, a pesar de que Microsoft desarrolló el sistema operativo y software diverso. El corazón de los MSX seguía siendo un Z80 corriendo el sistema operativo MSX-DOS de Tim Paterson (1956), creador del 86-DOS y antecesor del MS-DOS.

Amstrad fue otra empresa británica que hizo historia en esta época. Además supo moverse en el incipiente mercado de los PC Compatibles y llegó a absorber, y dar su toque personal, a la compañía de Sinclair. Al frente de esta empresa encontramos a Alan Sugar (1947) quien supo hacerse un hueco en el competitivo mundo de los ordenadores domésticos desde el sector de los equipos de sonido. Aquello pasó en 1984 y rompió con todo lo anterior al presentar el Amstrad CPC 464. Esta máquina, a diferencia de las anteriores, incluía un monitor y casete integrado. Su acabado era impecable y sus prestaciones excelentes, aunque seguía dependiendo de la arquitectura de 8 bits de Zilog. Además Amstrad puede presumir de hacer realmente popular el uso de un método de almacenamiento diferente a la cinta de casete. Fueron ellos los que impulsaron en modelos posteriores (CPC 664 y CPC 6128) el uso del disco flexible de tres pulgadas. Esta aproximación también fue seguida con los modelos Spectrum +3.

Colección | En los límites de la innovación

Página siguiente »


(c) 1999-2020 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress