El Ordenador Personal

junio 16, 2018 on 8:06 pm | In galería de imágenes, retroinformática | No Comments

Adolfo García Yagüe | En toda historia hay periodos continuistas y otros más disruptivos. En el caso de la Informática, en el periodo que ahora abordamos, hay numerosos indicadores que nos llevan a pensar que aquellos años marcaron un antes y después.

Primero asistimos al nacimiento de una Industria. Ya hemos visto como, desde el mundo del “Aficionado a la electrónica”, llegaban nuevos emprendedores cargados de ideas frescas. Fue aquella gente la que empezó a redefinir el hardware del equipo, el software, el almacenamiento o los módems. Atrás quedaban las grandes compañías que habían marcado, hasta el momento, la evolución técnica.

Cómo no, presenciamos la entrada del ordenador en nuestras casas. Ahí se produjo un fenómeno que se extendió casi toda una década, la de los ‘80. Me refiero a la duplicidad de mercados: Ordenadores Personales, para el trabajar; y Home Computers o equipos domésticos para jugar. Hace años que esta diferenciación carece de sentido pero hubo un tiempo donde el mercado estaba bastante separado y en la elección, además del presupuesto destinado a comprar una máquina, influía el software disponible y su aplicación.

En el párrafo anterior apuntaba a la existencia dos mercados y en el reflejo que esto tenía en el precio de cada máquina. En efecto, en el mercado dirigido a los hogares, como el objetivo era ajustar el precio para hacerse un hueco, normalmente se recurría -como pantalla- a un televisor convencional y al magnetófono como unidad de almacenamiento. Más allá del tipo de microprocesador o la cantidad de memoria RAM, es ahí donde inicialmente encontramos las diferencias más llamativas entre Ordenador Personal y Home Computer.

En aquellos años tampoco faltaron experimentos. Como los fabricantes no tenían muy clara su idea de un ordenador, se ensayaba con configuraciones y diseños que parecen sacados de una película de ciencia ficción. También, es curioso observar, como otros diseñadores se adelantaban a su tiempo y, en aquel momento, fracasaron o pasaron desapercibidos. En definitiva, son años que recordaremos como disruptivos.

Empecemos hablando de Apple. Vimos que con el Apple 1 se cerraba una etapa dominada por los aficionados a la electrónica. Esta máquina se conectaba a un monitor y, a través de una tarjeta de ampliación, se podía usar un magnetófono para almacenar programas. Por supuesto, ya se consideraba el uso del teclado para introducir estos. No obstante, la ROM (Read Only Memory) de este ordenador tenía un programa más próximo a un programa monitor que a un sistema operativo y, ni mucho menos, ofrecía un lenguaje de alto nivel como BASIC. En definitiva, el Apple 1 era un ensayo de lo vendría después. Aquel sería el turno del Apple II. Este es el primer producto comercializado por Steve Jobs y Steve Wozniak para que cualquiera lo use con facilidad. Era un ordenador totalmente acabado que también podía ser conectado a un monitor y a un casete. Además, al encenderlo, se ejecutaba un intérprete en BASIC para empezar a hacer algo útil con él. Para los más ambiciosos existía la posibilidad de conectar una unidad de discos flexibles de 5”¼ que representaba un gran salto hacía el mundo profesional. Otro rasgo externo era su apreciado y profesional teclado. Aquel era de tipo mecánico, cómodo al tacto y sin escatimar espacio. Un diez de equipo.

En el lado opuesto podemos encontrar maquinas como el PET 2001, de Commodore. A pesar de compartir generación, su diseño trapezoidal nos hace pensar en otra época. Todo él es un bloque de hierro donde se incluye un monitor y un casete, y ahí, al lado de este, encontramos unos botones a modo de teclado que nos recuerdan más a un terminal punto de venta que a una máquina de escribir. El interior tampoco tiene desperdicio, una pesada fuente de alimentación da vida a una placa base que abusa de chips propietarios de la extinta MOS Technology… Aun así, esta máquina y las siguientes versiones, fueron la apuesta profesional de Commodore con la que consiguió bastantes ventas en el mercado.

Otra máquina que tuvo mucha repercusión, en especial en EE.UU., fue el Tandy TRS-80. Este ordenador, en su versión original o Model I, incluía un monitor que le daba un aspecto profesional pero fallaba al albergar su CPU dentro del teclado. Por supuesto, el método de almacenamiento natural era el magnetófono externo. No obstante, en el Model I, vemos como se empieza a considerar, como opción de ampliación, el uso del recién inventado mini disk o diskette de 5” ¼.

Acercándonos al Japón de los años `70 nos topamos con una máquina cuyas formas recuerdan lejanamente al Commodore PET 2001. Se trata del Sharp MZ-80K. Este ordenador contiene monitor, CPU, teclado y casete en un único bloque de metal pero, además, dispone -como opción- de unas cabinas donde podemos conectar tarjetas de expansión y una unidad de diskettes. Hay que decir que el teclado de la primera versión es muy pobre y poco profesional. Aun así este equipo y sus evoluciones lograron exportarse a Europa y gozaron de cierto mercado como máquinas “serias”.

En todo este revuelo Atari no podía perder la oportunidad de estar ahí. No olvidemos que tenía una gran imagen de marca como desarrollador de máquinas de videojuegos y no se le podían escapar los mercados que nacían. A propósito, recordar que Steve Jobs trabajó en Atari y que allí conoció a Howard Canton, quién diseño la placa base del Apple 1. Pues bien, en 1979, Atari lanzo dos ordenadores el Atari 400 y el Atari 800. El primero estaba pensado para el hogar y hablaremos de él en otro texto y el segundo, el 800, se dirigía a un pretendido mercado profesional. Este último era una máquina autocontenida, con un teclado mecánico bastante bueno y con capacidad de expansión de memoria y otros periféricos como una unidad de discos. En ambas máquinas, heredado del mundo de las consolas, se nota la querencia de Atari por el uso de cartuchos para ejecutar juegos y programas como el BASIC.

En 1980, hasta la llegada al año siguiente del IBM PC, la cosa sigue por una línea parecida, es decir, entrar en el nuevo mercado y arriesgar en configuraciones atrevidas. Una empresa que consiguió trabajar en este nicho fue Hewlett Packard. Ya sabéis que allí trabajó Wozniak hasta que desestimaron su “alocada” idea de fabricar y comercializar un ordenador personal para las masas… Quizás, con algo de arrepentimiento, al inicio de los ‘80, esta firma presentó un ordenador que iba más allá de sus calculadoras programables: el HP-85. Se trataba de un equipo autocontenido, con un buen teclado, un intérprete BASIC en ROM pero, atención, incluía una pequeña impresora térmica, un pequeño monitor y una cinta de almacenamiento derivada de la inventada años atrás por 3M. Era un equipo que, en muchos sentidos y en su segmento, resultaba rompedor. Aquella máquina llegó a muchos sitios gracias al empuje comercial de HP y de su prestigio dentro del sector ingenieril y científico.

Como era necesario poder transportar “cómodamente” el ordenador, el Osborne 1 es considerado un hito de la innovación al permitirnos viajar cargando con él. Esta característica hace que a este equipo se le considere el primer portable de la historia, que no portátil. Además, Osborne es un buen ejemplo de esas empresas que, teniendo una gran idea y buenas ventas, fracasaron por una equivocada planificación. Como digo, no les bastó con tener aquella idea de la portabilidad, un buen teclado, unidades de disco incluidas, monitor y apostar por el sistema operativo CP/M. Acabó con ellos las demoras en el lanzamiento del Osborne 2 y su empeño de seguir en el mercado profesional con un Z-80 -y un monitor de 5 pulgadas- frente a los 16 bits de Intel y pantallas un poco más grandes.

Hablando de portabilidad, no hay que olvidarse en este repaso del Epson HX-20. Los ’80, sin duda, son la década de la miniaturización nipona. Los japoneses hacían de ello un distintivo y, todo lo que podía ser fabricado, era miniaturizado. A los ordenadores también les llegó su turno y empresas como Sharp y Epson nos sorprendieron con artefactos del tamaño de una calculadora. Dejando a un lado estas máquinas, me quiero centrar en el HX-20 y comentar una constante que se repitió unos años más. Me refiero al difícil compromiso técnico que existía entre dotar de Portabilidad a una máquina y hacerlo Portátil. Quiero decir que el Osborne, los Keypro o el Compaq son portables. Son pesados y relativamente potentes, pero no son autónomos es decir, no funcionan con baterías. En aquel momento, recurrir a la tecnología de baterías (básicamente níquel-cadmio) obligaba a bajar el consumo eléctrico y utilizar otros componentes como el novedoso cristal líquido (LCD) para la pantalla, procesadores optimizados para consumir poco, e ingenios como los microcassettes para el almacenamiento. Así es como se posicionó el Epson HX-20: Funcionaba con baterías recargables de NiCa, integraba un display LCD muy básico, almacenaba y recuperaba los programas en una diminuta cinta de cassette y disponía de una pequeña impresora. Esta configuración le convierte en un equipo muy ligero que permite al profesional escribir un texto mientras viaja o al operario tener a mano un ordenador para hacer lecturas a pie de calle.

Acabamos este paseo hablando del que pretendía ser el gran relevo del Apple II y término siendo su primer fracaso: El Apple III. Con él Apple quería cerrar un ciclo y abrir otro y, sin pretenderlo, despertó a otros competidores, especialmente a IBM. A diferencia del Apple II cuyo diseñador más prominente fue un técnico, Steve Wozniak, el Apple III fue diseñado por gente próxima a la mentalidad del venerado Steve Jobs, especialmente por profesionales con un enfoque más comercial. Esto se tradujo en hacer un diseño “grandilocuente” que contemplase cosas tan visionarias como el uso de los discos duros 5” ¼ y 5MB, recién inventados por Seagate, y algo tan de Jobs como no poner ningún ventilador para no sufrir molestos zumbidos… Esto, en un armazón poco ventilado donde todo está integrado, terminará dando problemas y así fue… A las semanas de estar en circulación, los primeros usuarios cosechaban problemas técnicos que se intentaron resolver. A pesar de la reacción de Apple, este equipo empezó a cosechar mala fama técnica, precio desmedido y sus ventas se resintieron. También Apple se equivocó al seguir apostando por un microprocesador de 8 bits y no permitir la compatibilidad directa y plena con el software del Apple II. Esta solo era posible recurriendo a un software de emulación y estaba muy limitada.

Termino dándome cuenta que, de las anteriores máquinas, solo el Apple II, Apple III y los Atari son en color… Eran años en que, existiendo la tecnología, apenas se le daba importancia y el uso de “colorines” resultaba un poco “frívolo” 🙂

Internet e Infovía

junio 4, 2018 on 5:51 pm | In galería de imágenes, internet, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | No es redundante recordar que Internet nació en las Universidades y que llegó a nuestras casas gracias a ellas. Fueron los Centros de Investigación de estas los que, necesitados de nuevas formas de comunicarse, empezaron a desarrollar una tecnología que, de otra forma, no nos habría llegado igual. No quiero decir que los fabricantes no fueran capaces de impulsar semejante innovación, simplemente recordar que a ellos les motiva promocionar una determinada tecnología si tienen control sobre esta. Es decir, inicialmente son cerrados e intentan posicionar sus patentes, más adelante, cuando ya no queda más remedio, se abren a estándares libres o de la competencia.

Los investigadores que desarrollaban su labor en las Universidades necesitaban compartir sus trabajos con otros con los que colaboraban. Querían poder mandar un mensaje a alguien o, simplemente, pertenecer a una lista donde cientos de colegas tenían intereses comunes. Todo esto, sin olvidar, que podía resultar imprescindible tener acceso a recursos como un ordenador central que, posiblemente, quedaba muy lejos de su país.

Como hemos visto, ARPANET se inició con un claro propósito militar. Aun así, conscientes de la innovación que nace en las mencionadas Universidades, se contó con ellas para que aportaran ideas. Más tarde, en el año 1984, los militares se separarían de ARPANET quedando esta en manos de investigadores y universitarios. Al año siguiente la NSF (National Science Foundation) cogió el testigo y puso en marcha una troncal que comunicaba cinco nodos equipados con grandes ordenadores. Aquella red se llamó NSFNET y ya, con una clara administración y objetivo, se convertiría en el núcleo sobre el crecer e ir pasando desde la antigua ARPANET.

Mientras esto sucedía, en Europa empezaban a “tejerse” las primeras redes entre Centros Universitarios. Obviamente, aquí la cosa era un poco más complicada porque había que poner de acuerdo a muchas Universidades, países, operadores, etc. No obstante, hacia mediados de los años ‘80, hay algunas redes entre Universidades escandinavas y Centros de Investigación. Estos, además, como el NORSAR de Noruega y el University College de Londres ya mantenían conexiones con la citada ARPANET.

Aun así, a pesar de estos aventajados, Europa es una región de “grandes” decisiones políticas y consenso… Por esta razón, para ponernos todos de acuerdo y que los políticos empezaran a subvencionar una red europea de investigación, se apostó -en lugar de TCP/IP– por protocolos avalados por instituciones como el CCITT o ITU-T, ejemplo de ello es la adopción de X.400 para el correo electrónico. También sucedió que, empresas como IBM, con la excusa de montar una red de (sus) grandes sistemas apostara por su tecnología y su red. En resumen, las Universidades tendían redes pero eran islas con dificultades para hablar con otras Universidades y Centros, y la evolución de estas era demasiado lenta y cara, y marcada por el CCITT y sus recomendaciones.

En 1988 resulta evidente que es necesario homogenizar el panorama e impulsar el desarrollo de una Red Paneuropea. Además es urgente arbitrar la conexión con otras redes. Ahí es donde comienza su actividad RedIRIS. Han sido sus profesionales los encargados de construir la gran red que conecta a las Universidades y Centros de Investigación españoles. Su labor ha sido y es imprescindible porque era necesario, además de conectar, negociar con los operadores, encargarse de fijar los criterios de evolución y divulgar entre todos los interesados.

Si el esfuerzo anterior no era suficiente, fue el mundo Universitario quién no tardaría mucho en darse cuenta que era necesario “abrir” el acceso a otros individuos y actores. Es por esta razón que, en el seno de Internet, aparecen los primeros negocios comerciales encargados de facilitar el acceso. Eran los ISP (Internet Service Provider) y, en España, el pionero en este terreno sería una empresa nacida en la Universidad Politécnica de Madrid, Goya Servicios Telemáticos.

A mi entender, el impulso definitivo de Internet vino de dos ámbitos totalmente dispares y distantes. Por un lado, en lo político, Bill Clinton y Al Gore sentaron las bases legales y económicas de aquella “autopista de la información”. De alguna forma se abría la veda para que cualquier actor pudiese usar Internet y, sobre todo, ya se advertía su potencial para desarrollar una nueva economía basada en la información, en lo digital, el conocimiento y los servicios. Por otra parte, y volvemos al entorno académico y científico del CERN (Conseil européen pour la recherche nucléaire), Tim Berners-Lee, un Ingeniero Informático, mientras desarrollaba herramientas para categorizar y compartir los resultados de las investigaciones de los científicos, inventó el World Wide Web e hizo amigable el uso de Internet.

Es este escenario de rápido crecimiento hay que hablar de nuestros ordenadores y empresas. Casi podemos decir que nos cogió desprevenidos porque Microsoft no nos había preparado para esta revolución :-). No quiero decir que para ellos Internet pasara desapercibido pero -da la sensación- que al inicio no supieron calibrar la magnitud de lo que se avecinaba. Prueba de ello es el tardío, aunque posteriormente exitoso, Microsoft Internet Explorer, fruto de la compra de la empresa Spyglass. En efecto, con Microsoft y con IBM estábamos atascados en los protocolos (sus protocolos) NetBIOS y NetBEUI. Aquello resolvía la comunicación básica en una red de área local pero presentaba numerosas limitaciones. Además no eran protocolos enrutables, como sí lo eran IPX de Novell o DECnet de Digital. Por otro lado, en lo que arquitecturas de redes se refiere, como dependiéramos de IBM se nos “premiaba” con su compleja y cautiva arquitectura SNA, o Token Ring para la Red Local.

Así las cosas, cuando empezó la década de los años 90, estrenábamos la versión 3.0 de Windows. Aquella versión, ni mucho menos, nos permitía desarrollar una Red Local. Era un mero entorno gráfico que corría sobre MS-DOS. Tuvimos que esperar la llegada de Windows 3.11 para tener un sistema operativo (aunque seguía dependiendo de MS-DOS) con capacidades de Red para compartir ficheros e impresoras. Pero, curiosamente, no existía soporte TCP/IP para navegar. Teníamos que recurrir a una aplicación o suite que nos ofreciera el protocolo TCP/IP y aplicaciones como PING, FTP o TELNET. Es por eso que, en aquella época, tuvieron cierta fama para conectarnos a Internet o redes IP programas como Chamaleon o Trumpet.

Todo cambiaría con la llegada del famoso Windows 95 e Internet Explorer. Aunque algunos seguíamos confiando en Netscape Navigator empezábamos a darnos cuenta que el fenómeno Microsoft parecía imparable: Windows NT, BackOffice, W95, las herramientas de Office, el Outlook, Visual Basic, IE, etc.

Para acabar tengo que citar a la fugaz Infovía. Aun siendo importante, su existencia fue efímera y consecuencia de un época. Básicamente, aquella iniciativa de Telefónica nos servía de Red de Acceso donde estaba presente nuestro ISP. De esta forma, si nuestro ISP estaba allí, podíamos llegar a él al precio de una llamada local. Todo un acierto que permitía a un ISP de otra ciudad distinta a la nuestra ser competitivo y abrirse a más clientes. Infovía también intentaba alargar la vida al concepto Ibertex. Es decir, podías navegar dentro de Infovía y acceder a los servicios (ya TCP/IP) que algunas empresas e instituciones allí prestaban: una red dentro de Internet. Obviamente aquel invento era consecuencia de una época y, la posterior liberalización de las comunicaciones, era incompatible con el acceso a los ISPs a través de Telefónica. También carecía de sentido mantener un coto de empresas y entidades bajo una red controlada por Telefónica.

ARPANET, X.25 e Iberpac

mayo 29, 2018 on 8:30 pm | In galería de imágenes, retroinformática, telecomunicaciones | 1 Comment

Adolfo García Yagüe | En los años 60 el ejército americano era consciente de las limitaciones y vulnerabilidades de la red telefónica que conectaba a sus ordenadores y centros de mando. Por ejemplo, en el caso de fallo de un circuito implicado en una comunicación, la red telefónica no era sensible al mensaje y, automáticamente, no buscaba una ruta alternativa. Con esta preocupación, el ARPA o la Agencia de Investigación de Proyectos Avanzados dependiente del Departamento de Defensa, empezó a financiar proyectos entre Universidades e Instituciones con el fin de buscar soluciones al problema anterior. Uno de aquellos proyectos fue ARPANET (Advanced Research Projects Agency Network).

Básicamente, ARPANET era una Red de Transporte de Datos donde los nodos que formaban la Red eran inteligentes. Es decir, eran sensibles y conocedores del tráfico de datos que se cursaba a través de ellos. Esta Red se formaba conectado cada nodo por diferentes rutas que estos eran capaces de monitorizar con el fin de conocer el estado de la citada conexión. Además, cada uno de estos nodos era capaz de trocear un mensaje en pequeños paquetes y enviarlo a un destino común por diferentes rutas. Ya en el nodo receptor se ensamblan los paquetes hasta reconstruir el mensaje original. En caso de que un nodo o ruta cayese no pasaba nada porque los nodos de la Red eran capaces de advertir el fallo y solicitar un reenvío de los paquetes afectados por otro camino. Es lo que conocemos como Conmutación de Paquetes y es la génesis de Internet.

Como he dicho, en esta de Red participaban múltiples nodos ubicados en centros de Defensa, Universidades y empresas que mantuviesen alguna relación con el ARPA y sus proyectos. En ellos encontramos, acompañando al ordenador central y encargados de procesar el tráfico de datos y de gestionar las líneas de comunicación a los IMP (Interface Message Processor) o lo que lo que es lo mismo, los antecesores de los conocidos router.

Lo que pretendo con esta breve introducción no es comentar los detalles de ARPANET, simplemente introducir el concepto de Conmutación de Paquetes y como esta técnica inspiró a Telefónica a poner en servicio, en 1971, la Red Especial de Transmisión de Datos (RETD). Sus ingenieros, tras hacer una prospección de las redes de EE.UU., se dieron cuenta de las ventajas experimentales de ARPANET frente a la aproximación más madura y basada en la conmutación de mensajes usada por la Western Union (antiguo operador de telegrafía en EE.UU.), por eso se decidieron a crear algo similar a la primera. En aquel momento no existía ningún estándar ni protocolo que tomar como referencia, tampoco había un fabricante al que comprar esta tecnología. Por estas razones, como nodo, usaron máquinas Univac 418-III y desarrollaron todo el software y hardware para que sus líneas telefónicas fueran gestionadas por aquellas máquinas.

Normalmente, en estos textos, dejo para el final la adopción de una u otra innovación en España. Pues bien, en el caso que nos ocupa, y habiendo citando el carácter experimental de ARPANET, la antigua Compañía Telefónica Nacional de España (CTNE), fue el primer operador del mundo en adoptar y ofrecer a sus clientes este tipo de red. Si esto no fuera poco hay que recordar, orgullosamente, que el desarrollo fue propio.

En 1978, aquella Red basada en ordenadores Univac, dio otro salto importante al incorporar nodos desarrollados por la propia Telefónica y dos compañas más, Secoinsa y Sitre. Nos referimos al Tesys. Ambas empresas eran españolas e ilustran, a la perfección, la capacidad técnica de nuestro país y el ecosistema industrial que ha crecido gracias a las necesidades de Telefónica y su participación en un buen número de compañías. Lamentablemente, hace muchos años que la participación industrial de Telefónica ha desaparecido y la globalización de otros competidores y nuevos desafíos tecnológicos le hicieron difícil competir aquel frente.

Aquella Red de Conmutación diseñada y fabricada por Telefónica se adelantó a su tiempo y, como consecuencia de ello, se tuvo que adaptar a la posterior recomendación internacional X.25 del CCITT (Comité Consultivo Internacional de Telégrafos y Teléfonos). Este estándar ponía de acuerdo a todos los operadores, y facilitaba la interoperabilidad entre las redes permitiendo extender los servicios a otros países. Estamos en los años ´80 y Telefónica llama a esta red Iberpac.

Además de desarrollar servicios para grandes empresa basados en las conexiones virtuales punto-a-punto entre dos de sus sedes, era posible poner en marcha circuitos para conectar numerosas sedes con un punto central, como una red de oficinas bancarias o terminales de venta de billetes de avión o de tren. También, por Iberpac, viajaban los datos procedentes de los datafonos de aquellos comercios que empezaban a aceptar el pago con tarjeta de crédito magnética. En este caso, el datafono efectuaba una llamada a un número telefónico especial donde un nodo conectaba con la Red X.25, es decir entraba en Iberpac.

Como he comentado estos servicios se limitaban al transporte de una pequeña transacción, generalmente de tipo económico, donde intervenía un datafono, un cajero automático o un terminal de venta. También se prestaba el servicio Teletex con el que Telefónica pretendía ir un paso más allá en su competición con el veterano Telex, que prestaba Correos y Telégrafos. El Teletex permitía a las empresas -con un terminal compatible- enviar textos sobre Iberpac de una forma más rápida y flexible.

Quizás, el servicio que todos recordamos y que en muchos aspectos se acercaba a Internet, es Videotex, conocido en España como Ibertex. Una vez más el acceso se realizaba a través de la Red Telefónica común pero un nodo de acceso se encargaba de “meternos” en Iberpac. Allí podíamos encontrar los servicios de diferentes empresas para, desde la comodidad de nuestro domicilio, acceder a la banca online, reservar unos pasajes o consultar una noticia. En España, el inicio experimental del servicio Ibertex, coincidió con la celebración de los Mundiales de 1982. Semejante acontecimiento de modernidad nos obligaba a ofrecer una información precisa y actualizada a todos los periodistas que cubrían el evento.

Como hemos visto antes la Red X.25 se inspira en ARPANET y, como tal, su cualidad principal es la de garantizar el envío seguro de información. Además de pequeñas transacciones, hemos comentado que esta Red se ha usado para el envío de otros datos “más pesados” como Ibertex y conectar Redes Locales, no obstante, para este último fin, la red carece de capacidad y su uso es caro. Esta fue una de las razones que impulso la adopción de Frame Relay (Red UNO de Telefónica) y, posteriormente, ATM (Asynchronous Transfer Mode). Más adelante, estas redes han acabado desapareciendo basándose, actualmente, en Ethernet, IP y MPLS.

Aficionados a la Electrónica (y 2)

mayo 19, 2018 on 7:29 pm | In galería de imágenes, retroinformática | 1 Comment

Adolfo García Yagüe | El texto anterior titulado “Aficionados a la Electrónica” quedaría incompleto de no recordar que pasó en nuestro país cuando este fenómeno despertó. Aunque con retraso aquí, como en el resto de Europa, se pueden presentar dos iniciativas que acercaban el ordenador a nuestras casas o talleres. Me refiero al Amico 2000 y al Junior Computer. Ambos fueron concebidos fuera de nuestras fronteras: Italia y Holanda, respectivamente. Los dos fueron introducidas en España a través de sendas revistas de electrónica: Revista Española de la Electrónica (REDE) y Elektor. Y los dos comparten un diseño similar, basado en una monoplaca donde, a través de un minúsculo teclado y un pequeño display, es posible introducir programas en ensamblador en hexadecimal. El concepto no es novedoso pues se había hecho años atrás en máquinas como el KIM-1. También, para ser exactos, hay que decir que esta forma de “resumir” un ordenador estaba superada desde hace años pero era muy barata y su cometido, el de la educación en las capacidades de un microprocesador, la hacía ideal en un entorno de aficionados.

Ya que lo he mencionado debería presentar antes al KIM-1: Este ordenador fue lanzado en EE.UU. en 1976 por el fabricante de microprocesadores MOS Technology. Era una forma de acercar al público su nuevo chip, el 6502. Acompañaban al KIM-1 unos buenos manuales explicando su diseño y, sobre todo, como había que programar un 6502. Con esta idea de resumir en una única placa todas las características imprescindibles para un ordenador, incluía un pequeño teclado y un visor hexadecimal, la memora RAM y los puertos de entrada y salida. Además, si se quería usar el almacenamiento externo para guardar o recuperar programas, solo había que recurrir a un magnetófono convencional. Era la mínima expresión para ponerse a manos a la obra. Eso sí, había que currarse un poco la fuente de alimentación y la conexión del casete. Al frente de su diseño estaba Chuck Peddle (1937), padre del proyecto 6502.

El KIM-1 no pretendía competir con el Altair pero era enormemente más barato y sencillo de poner en marcha. Como he dicho, su objetivo principal era dar a conocer el microprocesador 6502. La buena acogida del KIM-1 le garantizó unas cotas de popularidad no supuestas. Se editaron muchos libros y artículos explicando cómo sacar más partido de él, no obstante MOS Technology atravesaba por fuertes problemas financieros hacia 1976, y terminó cayendo en manos de Commodore quien siguió comercializando el KIM-1 y fue utilizado como base para desarrollar el Commodore PET.

Pero volvamos a España. Aquí se presentó en abril de 1980, a través de la revista REDE, un equipo que ya venía siendo comercializado en Italia: El Amico 2000. A través de diez entregas se dio a conocer a un público electrónico las capacidades de esta máquina basada en el 6502 de la citada MOS. Aunque no lo seguí en persona, creo que no trascendió de la curiosidad técnica y dudo de su efectividad comercial. Más allá de aquellos artículos no se le dio continuidad y la llegada –al año siguiente- del ZX81 de Sinclair acabo con las expectativas de este proyecto. Ya en 1982, existiendo un nuevo filón editorial, REDE se subió al carro editando el suplemento Micro/Bit. También, en ese año, la revista electrónica Circuito Impreso empezaría a publicar artículos dirigidos a usuarios del ZX81.

También en 1980 se publicaría en el número 6 de la joven edición española de la revista Elektor un equipo que tuvo más tras trascendencia. Me refiero al Junior Computer, también basado en un 6502 y mucho más “arropado” en España que el Amico 2000. Realmente, como el Junior Computer era un proyecto de la matriz holandesa de Elektor, se tenía control sobre él y se fueron publicaron más artículos técnicos además de dos libros donde se explicaba detalladamente su funcionamiento. También, al ser un equipo en kit, era fácil encontrar los componentes a través del canal habitual de la revista.

Se puede decir que ambas máquinas permitieron desarrollar, aunque fuese brevemente y tarde, el fenómeno “Aficionado”. Eran ejemplos de lo que un ordenador muy básico puede hacer en manos de un electrónico y permitían introducirse en el mundo de los microprocesadores. Esta afición no desapareció pero, salvo la publicación –en 1984- de un libro de Steve Ciarca, original de 1981, donde se nos proponía la construcción de un ordenador monoplaca basado en el Z80 de Zilog, los montajes electrónicos quedaron para ordenadores domésticos como el Commodore VIC 20, ZX 81 o Commodore 64 o ZX Spectrum. Hace unos años, coincidencias de la vida, en capital del grupo editorial que publica la revista Elektor entró Steve Ciarca…

Como digo, a lo largo de la década de los ´80 aparecieron muchos artículos técnicos pero he preferido recogerlos en otro capítulo de la colección porque ya es otra historia.

Aficionados a la Electrónica (1)

mayo 13, 2018 on 6:43 pm | In galería de imágenes, retroinformática | 2 Comments

Adolfo García Yagüe | No sería justo, o al menos resulta poco preciso, afirmar que esta historia empieza con el Altair 8800 y el Apple 1. Tampoco hay que caer en el error de pensar que “todo lo importante” fue inventado por Steve Jobs (1955-2011). Cuando uno visita las fotos de las piezas que voy subiendo se da cuenta que “esta historia” empezó hace tiempo y que es obra de muchas personas.

Lo anterior nos lleva a preguntarnos ¿Qué es lo que hizo famoso a ambos ordenadores? Es cierto que son contemporáneos de un momento, de un espíritu que reinaba en una época, y que son obra de una joven y soñadora generación. De alguna forma, aquella nueva generación, tomó el testigo de las grandes compañías y lo acercó a los hogares. Si queremos ser más poéticos podemos decir que ellos fueron los que robaron el fuego a los dioses y se (nos) lo dieron al resto de mortales… Como vemos en las imágenes de la exposición, las bases tecnológicas ya estaban sobre la mesa y era posible la construcción “fácil” de un ordenador. Entrecomillo fácil porque ni mucho menos se pensaba en el usuario medio. En el arranque, allá por el año 1974, se tenía en mente al aficionado a la electrónica dispuesto a coger el soldador y montarse un cacharro con lucecitas. Buena prueba de ello es que en las revistas orientadas al mundo de los radioaficionados y la electrónica es donde se empiezan a publicar artículos sobre estos temas. Es cierto que aquellos pioneros no tardaron en iniciar una nueva industria cuyo objetivo era fabricar ordenadores y software para todos.

Por fijar un punto de partida diría que Don Lancaster, en septiembre de 1973, a través de un artículo publicado en la revista Radio-Electronics, demostró que era fácil construir un pequeño teclado que presentara textos por la pantalla de un televisor. Aquel equipo fue llamado TV Typewriter y exploraba las funcionalidades de dos nuevos circuitos integrados, el 2513 y 2818, ambos de la empresa Signetics. Sin ser un ordenador, el TV Typewriter avanzaba sobre un tema esencial: la entrada de datos (teclado) y la salida de resultados (la pantalla de TV). Aquello daba para mucho si eras un aficionado y echabas la imaginación a volar. Era un principio.

El siguiente paso se produjo en 1974 de la mano de Jonathan Titus, un recién graduado en electrónica, y también a través de la revista Radio-Electronics. En efecto, en julio de aquel año se anunció la posibilidad de construir un ordenador, el Mark-8, alrededor del microprocesador 8008, de Intel. El Mark 8 ya contemplaba el uso de un terminal como el TV Typewriter para introducir instrucciones e incluso se hablaba de hacer uso de la vetusta cinta perforada para I/O.

Entre Radio-Electronics y Popular Electronics existía una fuerte rivalidad y era obvio que el mercado editorial empezaba a cambiar y era necesario evolucionar hacia nuevos contenidos. Por esta razón Popular Electronics se puso en manos de Edward Roberts (1941-2010) y su experiencia basada en las calculadoras. En el pasado, Roberts publicó artículos y escribió un libro sobre el funcionamiento de las citadas calculadoras. Además tenía una pequeña firma llamada MITS dedicada a la comercialización de estas, bien en kit o ya montadas. Desde luego Eduard Roberts tenía los conocimientos y, sobre todo, era un pequeño empresario que sabía dar continuidad a la venta de kits. El proyecto se llamaría Altair, recodándonos así el nombre de la estrella y aquel capítulo de Star Trek. A parte de esto solo estaba claro que tenía que ser un kit modular, pensado para aficionados a la electrónica y, si se quería captar la atención del mercado, tenía que estar basado en el nuevo microprocesador de Intel, el 8080.

Era enero de 1975 cuando el Altair 8800 fue anunciado en Popular Electronics. Era un equipo limitado pero tenía una gran modularidad lo que facilitaba su evolución. Así paso. Como el objetivo era poner en el mercado algo abierto, a su alrededor empezaron a nacer otras iniciativas en la fabricación y comercialización de hardware y software. Numerosos aficionados dieron el salto y se convirtieron en empresarios. Quizás, el más conocido, es Bill Gates (1955) y Paul Allen (1953) y, por supuesto, su empresa Microsoft. Ellos desarrollaron y comercializaron el primer Basic para Altair. Otros menos conocidos pero también importantes fueron Harry Thomas Garland (1947) y Roger Douglas Melen (1946), fundadores de Cromemco e inventores de la primera tarjeta gráfica para el Altair; Gary Ingram y Bob Marsh, fundadores de Processor Technology e inventores de una tarjeta de ampliación de memoria RAM para el Altair; Lee Felsentein (1945) diseñador de ordenadores y del primer modem para Altair; Don Tarbell, fundador de Tarbell Electronics e inventor de una de las primeras tarjetas para usar un casete común como sistema de almacenamiento en Altair… La lista es extensa pero, merece la pena recordar que, como denominador común, está su juventud y su anonimato, y que empezaron desarrollando para el Altair 8800.

No obstante, aunque el Altair 8800 tiene algo de leyenda, hay que decir que es una máquina delicada y que tiende a fallar porque su construcción es demasiado artesanal. Esto quiere decir que su mayor diferencial, es decir, ser el primero y dirigirse a los aficionados a la electrónica, hace de él que tenga muchas deficiencias en su acabado, calidad del circuito impreso y conectores, mecánica o fuente de alimentación. Se pensó como un kit para montar en el taller, no como un producto y, ni mucho menos, se ambicionó convertirse en un estándar. Por esta razón, a final de 1975, aparecería el IMSAI 8080, fabricado por IMS Associates, Inc. Conceptualmente igual que el Altair y totalmente compatible, pero pensado para durar. El IMSAI 8080 era el primer competidor del Altair y, aunque el exterior nos recuerda a este, la calidad de su diseño interior no tiene nada que ver. De hecho, como veremos en otros textos, esta máquina siguió creciendo hasta mediados de los años `80.

Nos encontramos en 1975 y han pasado unos años desde nuestro comienzo, allá por el año 1973. Estos han sido años en los que la informática se ha movido en un terreno de aficionado a la electrónica. Para seguir contando esta historia, y trascender de los clubs de freaks y sus folletos con aire de fanzine, hace falta que nazca una revista totalmente enfocada en informática y con un aire más profesional. Así es, en septiembre de 1975 aparecería el primer número de la revista Byte. Desde mi punto de vista, por su longevidad y por la calidad de los primeros años, fue la mejor publicación relacionada con la informática personal. Aquellos años estaban dominados por la novedad constante y por una ambición -poco común en nuestros tiempos- de explicar al lector cómo funcionan las cosas. Estaba claro que muchos de sus lectores seguían siendo aficionados a la electrónica y avezados informáticos, y estos no se conformaban con bonitas fotos y un resumen superficial.

Así las cosas ya estamos en el ‘76. Aquellos freaks se sentían auténticos colonos de un nuevo mundo donde parecía que estaba todo por hacer. Se reunían entre ellos y ponían en común sus alocadas ideas y proyectos en clubs como el Homebrew Club. Dos asiduos a este club fueron Steve Wozniak (1950) y Steve Jobs (1955-2011). Allí Wozniak, empleado de Hewlett Packard, hablaba de un ordenador compacto que usase las capacidades del reciente y barato microprocesador 6502, lanzado por MOS Technology. Tampoco pasaba por alto las capacidades del 2513, de Signetics, estudiado años atrás por Don Lancaster en su TV Typewriter. Mientras todos sus correligionarios parecían estar hipnotizados por el Altair y el IMSAI, su amigo Jobs le tomó tan en serio que le propuso montar una compañía para comercializar su invento al que llamarían Apple 1.

El Apple 1 fue un paso necesario entre un Altair y un ordenador acabado como de SOL-20 de Processor Technology. También resultó ser una forma de medir las fuerzas (y la química) del tándem Wozniak-Jobs y ver de lo que podían ser capaces. En muchos sentidos ellos tenían claro que, para hacerlo accesible y masivo, un ordenador como el Altair necesitaba ser humanizado y aprovechar fácilmente otros elementos a nuestro alcance, como un casete o la televisión. Tampoco ayudaba la modularidad y tamaño del Altair, aunque ideal para un aficionado al soldador, era inamisible para una persona acostumbrada a los sencillos electrodomésticos. En definitiva, un ordenador tenía que caber en una placa, tener un teclado, conectarse a la TV y al casete, y por último contar un lenguaje de programación fácil como el Basic.

Ver la historia en España

BIOS y Clean-room Design

abril 30, 2018 on 3:53 pm | In galería de imágenes, retroinformática | No Comments

Adolfo García Yagüe | Durante los meses siguientes al lanzamiento del IBM Personal Computer, esta máquina se convirtió en el líder indiscutible de su segmento. Las compañías más fieles a IBM no esperaban menos y sus competidores quedaron descolocados. A pesar de ser carísimo, la robustez de aquel ordenador, su diseño, flexibilidad y arquitectura se convirtieron en el ejemplo a seguir. El PC de IBM también fue el responsable del abandono definitivo de la arquitectura S-100, vigente desde 1975 y herencia del Altair 8800. En definitiva, IBM conquistó un mercado en el que no estaba presente.

Desde el principio logró, además, despejar cualquier suspicacia empresarial y documentar aquella máquina para que otros tuvieran la oportunidad de innovar y hacer negocio con su PC. En este ejercicio de transparencia IBM llegó a publicar, en los famosos Technical Reference, todos los detalles de funcionamiento del 5150 y sucesivos, incluyendo los esquemas electrónicos y la BIOS desensamblada y comentada. Estos libros, además de facilitar la reparación, suponían una ayuda a quién quería diseñar un nuevo adaptador. Lógicamente, también ponían fácil y tentador copiar e intentar hacer una maquina compatible…

Si IBM dio a conocer al mundo su nueva máquina en septiembre de 1981, en el verano del año siguiente aparecería, con aspecto similar pero un poco más grande, el que se considera primer ordenador compatible de la historia, el Columbia Data Products MPC 1600, y en noviembre de ese mismo año se anuncia el famoso Compaq Portable. En ese mismo mes, en la revista Byte, se publicaba como construir un “inspirador” ordenador de 16 bits cuyos slots eran compatibles con los periféricos del IBM PC. Era el MPX-16 de Steve Ciarca. Esta máquina tenía un claro propósito docente pero, no obstante, es similar en su arquitectura a un PC. Y en 1984, dos pequeñas compañías, Award Software y Phoenix Technologies, empezaban a comercializar una BIOS compatible con el PC de IBM…

Como escribí en el artículo anterior, la BIOS inicializa e interactúa con los diferentes chips de la placa base. Las antiguas BIOS también sirven de punto de entrada o API (Aplication Layer Interface) para que cualquier sistema operativo o programador se pueda relacionar con el hardware de una forma estándar. Es decir, ese pegamento software permite al sistema operativo (MS DOS o CP/M-86) controlar los chips sin importar como estos estén organizados.

Los chicos de Columbia Data Products y de Compaq (Compatibility And Quality) programarían su propia BIOS compatible sin infringir las patentes de IBM. Para ello demostraron que sus ingenieros no tuvieron contacto con la BIOS original, ni que leyeron los Technical Reference. Es decir, tuvieron que demostrar que solo haciendo ingenieria inversa de un IBM PC habían conseguido desentrañar los secretos de este. Es lo que se llamó “Diseño en habitación limpia” o Clean-room Design, o el sitio donde se supone que trabaja un equipo de ingenieros que no se ve “contaminado” por el intríngulis real de la competencia. Solo pueden conocer el resultado ante una pregunta, no como actúa internamente el PC. Este capítulo de la historia se recoge en la primera temporada de la serie de TV “Halt and catch fire”. Allí, sus protagonistas, construyen un ordenador llamado Gigante que es compatible con un IBM PC. Como imagináis, un ejército de abogados de IBM inicia una disputa con la empresa fabricante de Gigante, Cardiff Electric, y estos tienen que demostrar que han trabajado en una Clean-room.

A Compaq no solo le bastaba tener su propia BIOS. A fin de cuentas era una nueva empresa de Texas que tenía que demostrar que su producto era diferente y mejor que el original. Ahí reside su éxito. El Portable de Compaq no era más barato que IBM pero era más rápido y diferente. El sinónimo de calidad y compatibilidad nunca abandonaría a esta empresa hasta que fue comprada por Hewlett Packard en el año 2002. Evidentemente, como digo, en sus comienzos, además tenía que diferenciarse por algo más “vistoso” y qué mejor forma que hacerlo con un ordenador portable, compatible, que podías transportarlo por todo el mundo… Ese es el nacimiento del Compaq Portable.

Como veíamos anteriormente, Compaq programó su propia BIOS pero era evidente que esto no estaba al alcance de todos. También había que lidiar con IBM, sus abogados, y aguantar el desgaste económico y de plazos que esto supone. Por estas y otras razones muchos fabricantes fracasaron legalmente, o no alcanzaron una compatibilidad plena o bien hacían lo mismo que otros. Para evitar esos problemas aparecieron las compañías Phoenix Technologies y Award Software, dos pequeñas empresas que ofrecían al resto una BIOS que había pasado el filtro legal de la Clean-room Design, y que funcionaba tan bien como la de IBM. Solo era cuestión de centrarse en el diseño hardware y alcanzar un acuerdo con Microsoft.

Award y Phoenix animaron el mercado de las máquinas compatibles. La BIOS de cada compañía facilitó la vida haciendo posible la entrada de otros fabricantes y, en cierta forma, presagiaban la corta hegemonía del IBM PC aunque, como veremos, esta pérdida de liderazgo fue lenta. En este sentido hay que recordar que IBM no estaba preparado para un mercado tan agresivo como el del PC compatible. Además de la calidad y la constante innovación, era necesario competir en precio, cosa a la que IBM no estaba habituado.

Los chips de Intel, la BIOS de Award y Phoenix, el acceso al MS DOS de Microsoft, la facilidad para copiar ilegalmente cualquier software y la bajada de precios, permitió que el “ordenador clónico” fuese realmente popular. Poco a poco el mercado vio aparecer a fabricantes asiáticos ofreciendo productos compatibles. Nacían marcas por cualquier lado y había, como no, algo de burbuja.

En España, en aquella guerra y primeros años del PC Compatible, destacan dos marcas conocidas por todos, una británica, Amstrad; y otra española, Investrónica o Inves. A pesar de ofrecer meros clónicos tenían imagen de marca, red de distribución y soporte, y precio. No hay que olvidar que Amstrad llevaba unos años diseñando y comercializando buenos ordenadores de 8 bits. Y, en el caso de Investrónica, se trataba de El Corte Inglés quién estaba detrás, y se notaba su experiencia previa en la distribución de marcas como Osborne, el ST de Atari y Sinclair. Amstrad e Inves hicieron posible que el PC se popularizara en España. Estamos en 1987 y, como he dicho en alguna ocasión, aquellos que querían trascender de los 8 bits se compraban un PC o, por el contrario, optaban por los deslumbrantes gráficos y sonido que ofrecían el Atari ST o el Commodore Amiga.

Amstrad desarrolló su propia BIOS y una novedosa línea de PCs que rompía con lo visto anteriormente. Con el Amstrad PC 1512 demostraron que se podía fabricar un PC semi-compacto, todo en uno. La fuente de alimentación estaba en el monitor y, desde allí, se alimentaba la CPU. La placa base estaba entre dos chapas metálicas con las que se pretendían evitar los problemas inherentes a su acabado exterior plástico. En aquella placa ya estaban todos los puertos necesarios: Paralelo para conectar una impresora; serie o RS-232C donde se pinchaba un módem; y la conexión del ratón que ya era un estándar. Además, Amstrad nos introdujo en el mundo de las ventanas de la mano del novedoso entorno gráfico de Digital Research, el GEM (Graphical Environment Manager). Aún, en España, no habíamos oído hablar de Microsoft Windows ni apenas se conocía el Macintoch o Lisa de Apple. Por si fuera poco, Amstrad acompañó la campaña de lanzamiento “regalando” la malísima impresora DMP 3000. Aquello fue un boom y nos permitió comprar un PC, aunque su CPU fuera de plástico ;-).

Por su parte, Inves hacía de su fuerte la potencia de su red de distribución. Además del citado Corte Inglés contaba con numerosas tiendas que vendían estas máquinas. También tenía un cuidado catálogo y sus máquinas eran buenas. En cualquier caso, al abrir estas, te dabas cuenta que se limitaban a importar un producto que ellos no diseñaban ni fabricaban. Es cierto que conocían bien el mercado y que hacían un notable esfuerzo en documentar todos los componentes pero hacían una labor de integración de lo que otros fabricaban en Asia. La BIOS de alguna de sus máquinas era de Phoenix Technologies.

IBM Personal Computer 5150

abril 18, 2018 on 7:09 pm | In galería de imágenes, retroinformática | No Comments

Adolfo García Yagüe | Como atestigua la publicidad de la época y alguna pieza de la colección, en 1981, año del lanzamiento del IBM Personal Computer modelo 5150, el mercado del Ordenador Personal (o PC) ya existía. Desde hacía algunos años, empresas como Apple se esforzaban en explicar que el empleo de ordenadores hacía menos tedioso el uso de datos o la confección de textos. También, misteriosamente, de alguna forma, el Ordenador Personal prometía expandir nuestra creatividad e introducirnos en una nueva era.

Desde tiempo atrás IBM (International Business Machines) era un referente. Al finalizar la década de los ‘70 era el rival al que robar una pequeña porción del mercado de los grandes sistemas. En IBM inventaban lenguajes de programación, sistemas de almacenamiento, sistemas operativos, máquinas, todo… No se puede decir que no innovaran, todo lo contrario, pero dejaban poco espacio a otros suministradores. No obstante, en aquel entorno hostil, aparecen jóvenes empresas que tienen la visión de acercar un ordenador a cada puesto de trabajo y hogar. La aparición y popularización de estas máquinas dejaba claro que el mundo estaba cambiado, e IBM no podía ser ajeno al momento.

Si quería ofrecer una solución a tiempo, IBM necesitaba comercializar un PC y ajustar su precio. Con este propósito acudió al mercado buscando componentes y suministradores. Al frente del equipo de desarrollo del 5150 puso a Philip Donald Estridge (1937-1985), quién trabajaría lejos de los centros habituales de decisión, en la fábrica de Boca Ratón, Florida. Esto supuso que la toma de decisiones de Don Estridge sería más ágil y estaría menos influenciada por la cultura de Big Blue. Como digo, en aquella máquina se pretendía integrar el mejor hardware de la época y programar una BIOS (Basic Input-Output System) que diese uniformidad y sirviese de nexo con un sistema operativo. Hay que recordar que la idea no era nueva, lo novedoso es que fuera IBM quién lo hacía así.

Donald Estidge se puso manos a la obra. En estos casos lo primero que hay que hacer es estudiar el mercado y a tu competencia. Don no tardó en darse cuenta que la mayoría -por no decir la totalidad- de PCs estaban basados en microprocesadores de 8 bits. Estaba claro que IBM no podía ser uno más, por lo tanto la nueva máquina sería de 16 bits, asegurándole poder manejar más memoria y tener más potencia. Ahora había que seleccionar al fabricante del micro. En aquellos años, los 16 bits existían pero eran novedosos para un usuario. Ya se podía optar por fabricantes como Zilog, Motorola o Intel. En el caso de Motorola, a pesar de ser una gran compañía, el reciente 68000 (año 1980) estaba un poco inmaduro y todo el ecosistema de chips necesarios para fabricar un equipo era inexistente. Por su parte, el Zilog Z8000 era algo más veterano pero incompatible con los Z80. En cambio Intel acumulaba bastante experiencia con la arquitectura 8080 y además, en 1978, había lanzado un chip de 16 bits -el 8086- y tenía resuelto todo el chipset. La decisión estaba clara: Intel con el 8088, el hermano menor del 8086.

En efecto, si comprobamos una de las placas originales del IBM PC nos damos cuenta que están diseñadas para chips Intel: Además del citado 8088, encontramos al 8259 (interrupciones), 8233 (gestión de memoria o DMA), 8255 (PIA), microcontrolador del teclado, 8284 (generador del reloj) y 8087… Resumiendo, los micros principales son Intel y como tal, Intel facilita el diseño de referencia de cada chip, razón que convierte al 5150 y los posteriores 5160, 5162 y 5170 en equipos sencillos de comprender y, sobre todo, abiertos.

La siguiente elección es el sistema operativo que, en aquel momento, parecía clara: el CP/M, de Digital Research, y su nueva e inminente versión para 16 bits. El diseño modular del CP/M le permitía abstraerse de cada chip y solo interactuaba con el hardware a través de la BIOS. Así, con pocas modificaciones, lograba trabajar con muchos fabricantes de ordenadores y hardware. Mientas, al usuario, ofrecía un conjunto de comandos sencillos con los que trabajar con sus ficheros y discos flexibles. Como digo, la decisión del CP/M era evidente porque era la más conocida pero, la negociación entre IBM y Digital Research fue compleja y, sobre todo, se producían retrasos en la disponibilidad de la versión de 16 bits. Esta situación era conocía por Microsoft quién también había sido elegido por IBM para la incluir su popular interprete BASIC. El asunto es que IBM estaba atascado con el CP/M, y Microsoft conocía la existencia de un sistema operativo de 16 bits -inspirado en aquel- llamado 86-DOS de Seattle Computer Products. El pelotazo no se le podía escapar a Microsoft: compró barato a Seattle y vendió caro a IBM. Además Microsoft consiguió que este sistema operativo pudiera ser vendido a cualquier fabricante, igual que hacia Digital Research con su CP/M. Así es como se seleccionó el famoso MS-DOS aunque, en aquel momento, IBM se esforzara en llamarlo IBM PC DOS.

Desde las máquinas sucesoras del Altair 8800 o bus S-100 (año 1975), ya se documentaba su diseño y era normal publicar los esquemas. Es cierto que aquella primera generación de máquinas está dirigida hacia aficionados de la electrónica. Aun así, un poco más tarde del Altair, en 1977, Apple lazaría el Apple II donde seguía incluyendo el esquema electrónico y el detalle de sus conectores de expansión. En este caso se pretendía animar la aceptación del mercado y el crecimiento de ventas facilitando el desarrollo y fabricación de periféricos por parte de otras empresas.

Pues bien, en las conocidas Technical Reference, IBM publicaría además de los esquemas electrónicos, el contenido detallado de su BIOS también con el ánimo de facilitar la adopción y crecimiento de la nueva máquina. Imagino que pensaron en el riesgo de la clonación y que únicamente con su marca y abogados tenía poco que temer… Aquellas decisiones cambiaron la historia de los ordenadores y me atrevo a decir que la nuestra también. Aun así, hoy, creo que en las escuelas de negocios, se tendrían que revisar estás importantes lecciones sobre innovación, imagen de marca, patentes y negociación…

Módems, teleproceso, servicios on-line y BBS

abril 11, 2018 on 7:01 pm | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | A lo largo de su dilatada historia, el desarrollo de la red de telefonía ha tenido que hacer frente a numerosos retos técnicos. Dejando a un lado el perfeccionamiento del propio terminal telefónico, los más tempranos tenían que ver con la red de transporte o pares de cobre. Si se quería llegar a todos los rincones, había que bajar el precio de aquellos (carísimos) cables pensados para el envío de telegramas. Con este reto en mente se fue disminuyendo la cantidad de cobre empleado su fabricación. Esto, obviamente, suponía mejorar las técnicas de trefilado, y así conseguir cables más finos y económicos. La distancia también era un desafío complicado. Para tener una red que llegara lejos era necesario salvar grandes distancias y conseguir que la voz viajara correctamente, sin apreciar molestos ecos, interferencias o diafonías. Esta razón impulsó enormemente el desarrollo de soluciones capaces de amplificar el impulso eléctrico de la voz y la cancelación de ecos. La red de larga distancia, incluyendo los tendidos transoceánicos, se benefició enormemente de estas mejoras.

Otro reto fue la capacidad de transportar por un solo cable varias conversaciones a la vez, es lo que se conoce como multiplexación. Como podemos imaginar, este avance economiza cada conversación ya que no es necesario dedicar un par de cables a cada una de ellas. Al principio, esta multiplexación era muy limitada y estaba basada en circuitos o cables fantasma. Es decir, por una pareja de cables físicos se desarrollaba un tercer circuito virtual que era aprovechado por una tercera conversación. Hay que reconocer lo imaginativo de este ingenio pero, técnicamente, podía ser la causa de misteriosas diafonías y resultaba complejo de amplificar. El uso de cables fantasma dejó paso al empleo de otras técnicas y cables: los llamados coaxiales. Estos cables diferían significativamente del clásico par de conductores de cobre. El cable coaxial ofrece mejor aislamiento electromagnético y mayor ancho de banda. Esto quiere decir que puede trasportar más capacidad y que “funciona” a otras frecuencias diferentes a la banda base. Es decir, además del canal base, pueden viajar otros canales en otras frecuencias. Cada uno de estos canales es, virtualmente, un cable por el que puede viajar una conversación. En este caso la multiplexación se hace por frecuencia. El empleo de los mencionados cables coaxiales se hizo en rutas de larga distancia y cables transoceánicos. Cuando la voz se convirtió en datos, mediante la digitalización o modulación en pulsos codificados (o PCM – Pulse Code Modulation), a la multiplexación en frecuencia se le añadió la multiplexación en tiempo. Hoy, en los cables de fibra óptica, también se mantienen ambas técnicas para aprovechar al máximo un portador.

Lo que quería introducir en el párrafo anterior es el concepto de innovación y evolución constante. Aquella red, que se concibió y creció para permitir el transporte de la voz, le tocaba adaptarse a la comunicación entre ordenadores. Este reto suponía modificar la red o hacer que los ordenadores emitiesen algún sonido que pudiera ser trasportado por los cables telefónicos. Por esta razón, se optó -ya que era más económico- por la “sencilla” solución de inventar algún tipo de modulador que convirtiese el lenguaje de los ordenadores en tonos de audio. Ese es el nacimiento del MÓDEM (modulador y demodulador). Este ingenio, como si se tratase de un intermediario, se conecta a la máquina y a la red de comunicaciones, permitiendo que los primeros intercambien mensajes mediante “pitidos”. A ambos lados de la conexión era necesario poner uno de estos MÓDEM para que convirtiesen los datos y tonos, y viceversa.

Para homogenizar las comunicaciones entre MÓDEMs era necesario garantizar el funcionamiento entre distintos fabricantes y así marcar su evolución, por esta razón la CCITT (Comité Consultivo Internacional Telegráfico y Telefónico), ahora ITU (International Telecommunication Union), ha ido publicando diferentes recomendaciones para enviar datos sobre líneas telefónicas. Estas normas, por ejemplo, facilitan que dos MÓDEM de la norma V.24 puedan hablar entre ellos. Las citadas especificaciones han ido evolucionando para permitir mayor velocidad hasta que ha sido imposible exprimir más al viejo cable de cobre. Por esa razón pasamos a la tecnología ADSL y sus variantes y, en la actualidad, a la fibra óptica. Pero, de momento, volvamos a los MÓDEM.

Como podéis suponer, el mayor reto al que se han enfrentado los fabricantes de MÓDEMS es el de la velocidad y adaptarse a la calidad de las líneas telefónicas. Lograr esto significa una evolución constante en la técnica de modulación y compresión de los datos. De distintas formas, lo que se ha conseguido en este tiempo, es convertir en analógico los datos digitales que produce un ordenador y, una vez en el dominio analógico, actuar sobre los parámetros de esa señal: su frecuencia, fase y amplitud. Por eso hablamos de modulaciones FSK (Frequency Shift Keying) y QAM (Quadrature Amplitude Modulation) entre otras.

Los primeros MÓDEMS a los que tuvimos acceso los usuarios más humildes eran los denominados Acopladores Acústicos. Estos inventos se conectaban físicamente al teléfono y su velocidad era muy baja, no superando los 300 caracteres por segundo o baudios, definidos en la norma V.21. Estos Acopladores Acústicos fueron importantes pero, como su nombre indica, se “acoplaban” físicamente al terminal telefónico siendo muy limitada su velocidad. Pronto tendríamos acceso a una nueva generación de MÓDEMS, más compactos y rápidos.

Antes hablábamos que el MÓDEM se conectaba a los pares de cobre y al ordenador. Es importante recordar que esta comunicación entre MÓDEM y ordenador estaba también normalizada y no era nueva. Se utilizaba (y aun hoy se utiliza en muchas conexiones) una comunicación serie, estandarizada en el año 1969 según la norma RS-232. Esta norma, o tipo de interface, describe como se conectan dos máquinas e intercambian y aceptan cada mensaje.

Otra de las dificultades a las que se tuvieron que enfrentar los fabricantes de MÓDEMS, era la necesidad de mandar y recibir mensajes -desde o hacia- el ordenador sobre la velocidad o estado de la línea. De esta forma un ordenador podía informar al usuario y tomar una determinada decisión. Esta señalización tenía que viajar por el RS-232 en banda, esto es, junto con los datos del usuario. Por ejemplo, en caso de que nos llegue una llamada para conectar con un ordenador central, el equipo destinatario que tiene atender la entrada debe ser capaz de informar al usuario o aplicaciones de que alguien quiere conectar remotamente. De manera contraria, si nosotros deseamos “forzar” o configurar un determinado comportamiento del MÓDEM, tenemos que ser capaces de programarle a través de algún comando. Aunque ya se utilizaban y se conocían estos mensajes eran casi de uso específico a cada tipo y fabricante de MÓDEM. No eran de uso generalizado ni existía compatibilidad de fabricantes.

Sería una pequeña y joven empresa la que inventó un conjunto de instrucciones que se convertirían en el estándar a seguir para el resto de competidores. Aquella empresa se llamaba Hayes y fue fundada por Dennis C. Hayes (1950) y Dale Heatherington (1948). Ellos convirtieron al MÓDEM en algo de uso normal, fácil y sencillo. Al comienzo de la década de los ´80, acercaron esta tecnología al mundo de los incipientes ordenadores personales y los equipos domésticos. También facilitaron el camino de un nuevo mercado que nacía, consistente en el acceso remoto a sistemas de información, como CompuServe, juegos on-line y las populares BBS. Por supuesto, el famoso Teleproceso y la Teleinformática, existentes en los grandes ordenadores, eran algo más cercano gracias a Hayes y otros fabricantes.

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Educación e informática

abril 1, 2018 on 4:40 pm | In descarga textos pdf, galería de imágenes, retroinformática | 1 Comment

Adolfo García Yagüe | Educar en estos tiempos no es tarea fácil. Una mamá o papá que llegase del “espacio exterior” determinaría orientar a su hijo hacia las ciencias, más concretamente, hacia las matemáticas para tenga un trabajo asegurado de “científico de datos” (o algo relacionado con Big Data…) ¿O, acaso, dedicar tiempo y dinero a que su hijo e hija comprenda los principios mecánicos de la robótica y los oscuros arcanos de la programación? Otros, se harán la siguiente pregunta ¿Idiomas y estancias en el extranjero para que se vaya poniendo las pilas? o ¿Una carrera dual? En fin, la educación y el futuro de nuestros hijos es un auténtico desafío y cualquier padre o madre -a lo largo de la historia- con un mínimo de responsabilidad siempre se ha preocupado por el futuro de su prole. De lo contrario dudo que estuviéramos aquí.

En este principio de milenio las cosas son un pelín más complejas, o diferentes: Hay muchas opciones encima de la mesa y hay más competencia y, –queramos o no- los cambios acontecen más rápidamente. Hoy, por ejemplo, tenemos a nuestro alcance el flexible Arduino y lenguajes de programación amigables como Scratch, con el permiso del potente Python, o la popular Raspberry PI. Los cursos de introducción a la robótica han dejado de ser algo exótico para convertirse en una actividad extraescolar más o, incluso, una asignatura en algún centro. A todo esto ¿Alguien ha preguntado a los verdaderos interesados que quieren hacer cuando sean mayores? ¿Sabemos -verdaderamente- orientar hacia una profesión su entusiasmo y pasión? Son preguntas de las que me veo incapaz de dar respuesta.

Como decía antes, siempre ha existido preocupación por el mañana y, viendo alguna pieza de la colección, los ordenadores hace tiempo que han estado ahí, como una opción para facilitarnos la empleabilidad. A través de estos ingenios y sus manuales comprobamos que esta inquietud no es nueva. De alguna forma, desde hace años, hemos visto (o nos han hecho ver) que el estudio de la informática y la electrónica podía mejorar el futuro profesional de un joven. Nuestro paseo comienza en 1955 con el GENIAC o GENIACS, de Edmund C. Berkeley. Aquella máquina venía acompañada de un librito que nos permitía introducirnos en el pensamiento lógico a través de algunos interesantes ejercicios. Estamos en el año ‘55 y los primeros los ordenadores comerciales empiezan a llegar a las grandes empresas. Como hemos comentado en este blog, además de consultor, Berkeley era miembro fundador de la ACM y tenía fama de divulgador técnico a través de sus libros y, sobre todo, de su proyecto Simon.

GENIAC y sus ejercicios evolucionaron en el TYNIACS (1956) y BRAINIAC (1958). Podemos decir que todos ellos eran productos más parecidos a un juguete lógico que a un ordenador. Hacia el final de la década también aparecen pequeños inventos (en EE.UU.) que nos demuestran la sencillez de los cálculos analógicos. No olvidemos que son años de innovación y el ordenador analógico sigue siendo una alternativa para muchos ingenieros. Hablamos de Calculo (1959) y del Analog Computer EF-140 de la General Electric (1961). Un paso más allá, pero siguiendo con el espíritu docente, sería el flamante y voluminoso EC-1 Analog Computer, de Heathkit (1959). Éste, en nuestra colección, lo veréis junto a un osciloscopio de la época porque es necesario recurrir a él si queremos mostrar ciertos resultados.

El principio de la década de los sesenta está marcado por la aparición del Minivac 601 (1961) y la implicación de Shannon en su diseño. Esta máquina está a mitad de camino entre lo que hoy consideraríamos un juguete y un autómata. Minivac nos permite familiarízanos con las puertas lógicas, el Flip Flop (o biestable) y con un reloj.

Hemos introducido el flip flop y no quiero olvidarme de los indispensables Digi-Com 1 (1963) y Digi-Com II y Dr. Nim. Este componente es muy usado en informática y nos permite construir contadores y almacenar información (0 o 1). Como vemos, en aquella época, a través del juego y pocos dólares, era posible introducir a los jóvenes en la lógica de un ordenador. Hablando de flip flops y juguetes, resulta llamativa la referencia española que se comercializó en 1971. Nos referimos al Minicomputer Brain (1971) y consistía en un juguete que -emulando el aspecto de una unidad de almacenamiento en cinta- recrea el funcionamiento de cinco flip flops y su estado lógico. Poco sabemos acerca del Brain salvo como funciona y que se presentó en la primera Feria de la Inventiva Española, en 1970, celebrada en el parque de El Retiro y donde consiguió un galardón. Detrás de este invento se encontraba la misteriosa empresa “Brain” que estaba ubicada en el número 5 de la antigua avenida del Generalísimo en Madrid (actual Paseo de Castellana). Desconocemos si era un invento original de ellos o bien hacían de intermediarios de alguien. Tampoco podemos -aunque nos gustaría- facilitar detalles sobre la (o las) personas de Brain. Os dejo unos pequeños libritos que acompañan al Minicomputer Brain para que veáis que los ordenadores ya estaban sobrevolando nuestras cabezas.

En aquella feria de la Inventiva Española también se exhibía lo que se ha dado a conocer hoy como “El Antecesor del Libro Electrónico”. Era obra de una profesora gallega, Ángela Ruíz Robles (1895-1975), y mostraba unos ingenios llamados “Libros mecánicos audiovisuales” y “Primer mapa científico lingüístico gramatical y atlas gramatical”. Estos dispositivos empleaban unos pequeños rollos de papel donde se explicaban conceptos útiles. Á parte de la concepción del elemento reproductor, el mérito de la Sra. Ruíz reside en saber sintetizar -lo realmente útil- de un conocimiento y ponerlo a disposición del lector, de forma que este (el conocimiento) sea portable y de acceso intuitivo y cómodo, facilitando, de esta manera, su consulta y aprendizaje. Lo que habría inventado esta señora conociendo los dispositivos actuales…

Para finalizar comentar que en 1959 llegó a Renfe un IBM 650 y, un año después, un Univac a la Junta de Energía Nuclear (JEN). En 1962 entraría en servicio un IBM 1410 en la Caixa de Barcelona, y un IBM 1401 en los antiguos almacenes Galerías Preciados. Aquellos ordenadores, aunque pasaban desapercibidos, ya empezaban a ocupar un hueco en nuestras vidas. Por su parte, en 1967, la gente de Telesincro, presentará el que será el primer ordenador enteramente español: el factor P.

 

Puedes descargar los manuales de cada equipo en los siguientes enlaces:
Geniacs. Oliver Gardfield, 1955
Geniacs. Edmund C. Berkeley, 1955
Brainiacs. Edmund C. Berkeley, 1958
Experiments with Brainiac B-30, 1959

Heathkit EC-1 Educational Electronic Analog Computer, 1959
Heathkit EC-1 Fontal, 1959
Heathkit EC-1 Schematic 1, 1959
Heathkit EC-1 Schemetic 2, 1959
Heathkit EC-1 Schemetic 3, 1959

Experiments with Calculo Analog Computer Kit, 1959

Minivac 601 Book I, 1961
Minivac 601 Books II, III, IV, 1961
Minivac 601 Book V and VI, 1961
Minivac 601 Notes and Corrections, 1961
Minivac 601 Maintenance Manual, 1961

EF-140 Analog Computer General Electric, 1961

Digi-Comp 1. Instruction Manual, 1963
Digi-Comp II. Mechanical Binary Computer, 1963

Minicomputer Brain, 1971
Minicomputador Brain y la Informática, 1971

Página siguiente »


(c) 1999-2018 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress