Emisión Termoiónica y Lee De Forest

agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.

La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.

Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.

Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.

Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.

Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.

El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.

Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).

De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.

A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).

A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.

Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.

Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.

A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado.  Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.

Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.

A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.

Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2) | Relés, válvulas y transistores

Primera Generación de Videoconsolas (y 2)

noviembre 1, 2022 on 8:41 am | In colección, hist. informática, hist. videoconsolas | 1 Comment

Adolfo García Yagüe | En el texto anterior recordábamos como en 1972, gracias a Ralph Baer, apareció la Odyssey de Magnavox. Además de comentar su funcionamiento describimos cómo eran los primeros videojuegos y, aunque citamos algunos antecedentes, fue el lanzamiento de esta videoconsola el detonante que hizo que empresas como Atari, Nintendo y Coleco buscaran hacerse un hueco en el nuevo mercado.

Atari
A mediados de los años 60, mientras cursaba su Licenciatura en Electrónica en la Universidad de Utah, el joven Nolan Bushnell (1943) también descubrió Spacewar! y no tardó en comprender el potencial de los videojuegos en el futuro del entretenimiento electrónico. Aquello fue como una revelación y junto a su amigo Ted Dabney (1937-2018) crearon Syzygy Company para embarcarse en el diseño de una máquina recreativa que sería instalada en espacios púbicos, como un bar o un salón de juegos. Evidentemente, el coste de adquisición de esta máquina debía garantizar a su propietario el retorno de inversión en un tiempo razonable y, con aquella premisa, desecharan la idea de emplear un costosísimo ordenador y optaron por desarrollar en electrónica digital TTL una adaptación de Spacewar!. Para industrializar y comercializar esta máquina alcanzaron un acuerdo de licenciamiento con Nutting Associates y así, en 1971, llegaría al mercado Computer Space. De esta consola de monedas apenas se vendieron más de mil quinientas máquinas y su acogida fue tibia, pero, en contra de lo que cabría esperar, Bunshell y Dabney se reafirmaron en su empeño de avanzar en el mundo de los videojuegos y así, al año siguiente, fundaron Atari para absorber a Syzygy y lanzar PONG, su primer título, cuyo desarrollo fue obra de Allan Alcorn (1948).

A pesar del fulgurante crecimiento que experimento Atari durante sus primeros años, la presión de la competencia junto a unos errores contables y el fracaso de su filial japonesa la dejaron cerca de la quiebra. Para sortear aquel bache en 1973 se tomó la decisión, poco ética pero efectiva, de crear una empresa pantalla llamada Kee Games a través de la cual vender clones de sus propios juegos, y así esquivar los acuerdos de exclusividad firmados con sus distribuidores. Por otro lado, en aquel cúmulo de adversidades, en 1974 Magnavox inició una demanda contra Atari demostrando que Bushnell conoció en una presentación de la Odyssey la existencia del juego Tennis, antes de que empezase el desarrollo de Atari PONG.

Sin lugar a dudas, Atari era un reflejo del espíritu audaz y emprendedor de Nolan Bushnell a quién no le importaba transitar sobre terrenos de dudosa legalidad, contratar a empleados que estaban en el límite de la sociedad o aquellos que tenían una visión diferente de la vida, entre los que se encontraba Steve Jobs (1955-2011). Aquel ímpetu fue el que les impulsó en 1974 a poner en marcha el proyecto Darlene con el que aspiraban a conquistar los hogares.

Al frente de Darlene se colocó a Al Alcorn con el objetivo de abaratar el futuro producto a través de la integración de toda la electrónica de PONG en un único circuito integrado LSI (Large Scale Integration) y que este pudiese funcionar con baterías. Tras este hito, era necesario diseñar una atractiva envolvente para que la videoconsola destacara en el hogar y, por último, había que introducir el producto en una red de distribución que tuviese suficiente capilaridad para llegar a cualquier a cualquier rincón del país, como almacenes Sears, y ser capaces de atender la demanda de semejante cliente… Gracias a Donald “Don” Thomas Valentine (1932-2019) y su firma Sequoia Capital, Atari contó con el apoyo financiero necesario para alcanzar las citadas metas y así transformar la compañía. En este punto quiero recordar que Don Valentine es una las figuras más legendarias de Silicon Valley e hizo posible numerosos proyectos que allí han nacido.

En las navidades de 1975 se puso a la venta en todos los almacenes Sears la consola Tele-Games PONG y unas semanas más tarde Atari comercializó su videoconsola PONG C-100, que era exactamente igual, logrando así que todos los usuarios reconocieran esta marca e, inevitablemente, ser identificados con los videojuegos. Nacía así un mito universal que años después transformaría el mercado en la Segunda Generación.

Coleco
Como vimos anteriormente, el uso de componentes discretos fue abandonado en favor de circuitos integrados LSI (IC) de compañias como Texas Instruments, National Semiconductor, Mostek, Mitsubishi o General Instruments. Estas firmas pusieron a disposición de cualquier fabricante de videoconsolas un chip que reunía uno o más juegos en lo que se conoció como PONG-on-a-Chip.

De aquellos IC el más importante fue el AY-3-8500 de General Instruments (1976) y las versiones que le sucedieron. Este circuito integrado sería el corazón de miles de consolas entre la que destaca la Telstar de Coleco, no por ser la mejor sino por ser la primera que empleó el mencionado chip.

Sobre lo que quiero llamar la atención en estas líneas es sobre el efecto llamada que tuvieron estos IC para cualquiera fabricante que deseaba vender una videoconsola. La mayoría de estas firmas carecían de conocimientos y no tenían una estrategia en el mundo de los videojuegos, salvo esperar el lanzamiento de un nuevo modelo de chip y competir en precio. Así paso. Desaparecieron todas excepto aquellas, como Coleco, que fueron capaces de programar algo original años después.

Nintendo
Los orígenes de esta centenaria empresa se sitúan a finales del siglo XIX y, hasta 1974, su negocio principal fue la fabricación de juegos de mesa y cartas. En los años 70 del siglo pasado empezaron a comercializar sencillos juguetes electrónicos con los que intentaban trasformar su negocio histórico. Uno de aquellos productos era una línea de armas de juguete, los Kôsenjû Guns, que disparaban un haz de luz contra una diana de sensores ópticos para así probar la puntería del jugador. La apariencia de su rifle de juguete hizo que Magnavox contara con ellos para la fabricación del rifle que acompañaba a sus juegos Shooting Gallery. Aquello permitió a Nintendo conocer en primicia el potencial de los videojuegos y animó a los japoneses a llegar a un acuerdo de licenciamiento con Magnavox, a la vez que, de la mano de Mitsubishi, comenzaban el desarrollo del circuito integrado M58816P con los juegos -a color- de Tenis, Hockey y Voleibol.  Así es como aparecería en 1977 la videoconsola Color TV-Game 6.

 

Resulta curioso recordar los orígenes de Nintendo a la vez que es admirable contemplar su capacidad de adaptación hasta convertirse en una de las empresas más relevantes de esta industria. Para ellos no fue suficiente hacer una consola con un chip, Nintendo supo entender la trascendencia del mercado que nacía, logrando sobrevivir a Magnavox, Atari y a muchas otras compañías de la primera generación.

… y España no fue diferente
En contra de lo que cabría pensar en España también se fabricaron consolas de la Primera Generación y, aunque el recuerdo de estas iniciativas sean un poco difuso, los productos están ahí atestiguando que algo pasó.

La primera de ellas fue Overkal, una videoconsola de la que es difícil encontrar información y lo poco que conocemos es fruto del empeño de algunos aficionados por desentrañar su pasado. Sabemos que esta máquina fue fabricada en Barcelona por la conocida firma Inter Electrónica S. A. y que llegó al mercado en la primavera de 1974. También conocemos que se vendieron unidades a través de El Corte Ingles a un precio de 9.000 pesetas. Quizás, parte del oscurantismo que rodea a este producto, se deba a que fue una atrevida copia de la Magnavox Odyssey que infringe cualquier patente y modelo de utilidad. Sabemos que Ralph Baer tenía identificada esta consola, pero, desconocemos, si Magnavox emprendió algún tipo acción legal o advertencia al titular de la fabricación o aquellos que la vendían. Poco sabemos si el desarrollo de Overkal fue producto de la iniciativa de Inter Electrónica o, un intermediario poco escrupuloso, les “vendió” la idea ya que, por las mismas fechas, en Argentina se puso a la venta una consola similar. Es fácil llegar a esta idea porque, no parece muy pruedente, que empresas del prestigio de Inter Electrónica (recordemos que en los setenta fue comprada por Grundig) y El Corte Inglés se embarcasen en desarrollar y comercializar una novedosa videoconsola que rozaba la ilegalidad. Por eso es de suponer qué, tras constatar que era un producto sobre el que podía pesar algún litigio e indemnización, la hiciesen desaparecer sin apenas dejar rastro.

Mas cercano a lo que se hacía en otros países fue la fabricación a partir de 1976 de diversas videoconsolas basadas en el IC AY-3-8500 en su versión europea o PAL. De ellas recordamos la Teletenis de Togisa (1976) y la Tele-Juego B/N-4 de Talleres Radioeléctricos Querol, TRQ (1978). Ambas consolas no presentaban ninguna novedad pero acercaron los videojuegos a los hogares españoles. Estas iniciativas ilustran bien algo que más adelante sería evidente y era que, en este ecosistema, solo tenían alguna posibilidad de sobrevivir aquellas empresas que fabricaran un hardware innovador o aquellos estudios que fuesen capaces de producir grandes títulos.

Colección | Primera Generación de Videoconsolas (1) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación

Primera Generación de Videoconsolas (1)

octubre 16, 2022 on 5:53 pm | In colección, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | En este recuerdo de efemérides no podemos olvidar que hace medio siglo llegó al mercado doméstico la primera videoconsola. A pesar de tan significativo aniversario, la historia de los juegos y los ordenadores es tan antigua como la propia tecnología informática, e incluso anterior. Esto quiere decir que hay multitud de hechos que se pueden atribuir el mérito de haber realizado la primera experiencia lúdica. Por ejemplo, gracias a las capacidades lógicas de un autómata, el español Leonardo Torres Quevedo (1852-1936) construyó en 1912 su primera versión de El Ajedrecista. También cabe destacar que, tras la Segunda Guerra Mundial y fruto de la experiencia adquirida en el cálculo de trayectorias balísticas, Thomas T. Goldsmith Jr. y Estle Ray Mann solicitaron en 1947 la patente de un juego donde, haciendo uso de una pantalla de rayos catódicos, se representaba y controlaba el disparo de un misil contra un punto móvil. Por otra parte, en la siguiente década, encontramos numerosos ejemplos de juegos Tic-tac-toe (tres en raya) desarrollados de manera experimental en centros informáticos de todo el mundo. Incluso, este conocido pasatiempo podía ser “programado” en ciertos juguetes didácticos de los ‘50 para que un aficionado entendiera el comportamiento lógico de una computadora. También es obligado recordar Tennis For Two (1958), de William Higginbotham (1910-1994), donde se empleaba un ordenador analógico y un osciloscopio para recrear una partida de tenis.

Estas experiencias merecen ser recordadas, al igual que la protagonizada por Steve Russell y los estudiantes del MIT que programaron en 1961 el influyente Spacewar!. Recordemos que aquel juego fue desarrollado en un DEC PDP-1 y se distribuyó libremente entre numerosas universidades de EE.UU. poniendo el foco en la importancia de la programación de juegos. Por ejemplo, este programa sirvió de inspiración a Bill Pitts y Hugh Tuck para construir 1971, en la Universidad de Stanford, una prueba de concepto de una máquina recreativa llamada Galaxy Game cuyo funcionamiento reposaba en un ordenador DEC PDP-11. No obstante, el texto que nos ocupa se centrará en el inicio del videojuego doméstico y como se dieron los primeros pasos de la conocida Primera Generación de videoconsolas.

Ralph Baer y la Magnavox Odyssey
Permitirme entonces que establezca el punto de partida haciendo referencia a Ralph Baer (1922-2014) quien, en 1951, mientras trabajaba en Loral Electronics y tras recibir el encargo de diseñar un receptor de televisión de prestaciones avanzadas, empezó a desarrollar el concepto. Sus ideas no prosperaron en aquel momento y tuvo que esperar hasta 1966 para retomarlas en Sanders Associates, una empresa contratista del ejército norteamericano.

A pesar de que entre los negocios de Sanders no estaba el desarrollo de soluciones orientadas al mundo doméstico, apostaron por la idea de Baer y pusieron a su disposición los recursos materiales necesarios y se unieron al proyecto Bill Harrison y Bill Rusch. Así, tras varios prototipos y la consiguiente solicitud de patente, en 1969 se contaba con una versión denominada Brown Box que podía ser la base de un producto comercial. El equipo directivo de Sanders vio claro que no tenía sentido ponerse a fabricar consolas y que, lo más acertado, sería aproximarse a los principales fabricantes de televisores entre los que se encontraban RCA, Zenith, Philco, Sylvania, Motorola, General Electric y Magnavox. La idea era darles a conocer el producto y ofrecerles los derechos de fabricación a cambio de royalties. Todas las empresas citadas, junto a alguna más, conocieron el prototipo de Ralph Baer y ninguna supo ver el potencial que tenía “jugar frente al televisor”. Afortunadamente, Bill Enders, un ejecutivo de RCA que conoció la capacidad de la Brown Box en aquellas rondas, fichó más tarde por Magnavox y lo primero que hizo fue persuadir a su nueva firma para que dieran una oportunidad al invento de Baer. Así fue como en 1971 Magnavox firmó un acuerdo con Sanders que le autorizaba a fabricar y comercializar una videoconsola denominada Odyssey según el diseño de Ralph y su equipo.

La Odyssey llegó al mercado en septiembre de 1972 a través de la cadena de tiendas de Magnavox y permaneció a la venta hasta 1975. Durante este tiempo logró una cifra cercana a las 350.000 unidades vendidas.  No se puede decir que fuese un fracaso, pero, Ralph Baer no estaba satisfecho y criticaba que la consola solo se vendiera a través de los franquiciados de Magnavox y que la publicidad estuviese estrechamente vinculada a este fabricante y sus televisores, dando la sensación de que no era compatible con el resto de las marcas. Por otra parte, Baer pensaba que la Odyssey llegaba a las tiendas con un sobrecoste y que Magnavox había hinchado el precio provocando que muchos clientes no la compraran.

Otra de las inquietudes que mantuvo ocupado a Baer fue la copia indiscriminada de su idea ya que, al poco tiempo, empezaron a aparecer por todo el mundo decenas de compañías que comercializaban juegos similares a los que la Odyssey ofrecía. Curiosamente, y es un caso de estudio en algunas Escuelas de Negocios, la decidida defensa que hizo Magnavox de las patentes de Baer le granjeo más beneficios que la venta de sus consolas. Haciendo números redondos y considerando el PVP oficial de 99$, con la Odyssey se facturaron 35 millones de dólares, de donde hay que descontar costes de fabricación, marketing, distribución, margen del vendedor, etc… Mientras que en indemnizaciones ganó alrededor de 100 millones, sin descontar abogados.

Funcionamiento de la Odyssey
Es importante destacar que la propuesta de Baer se basaba en el uso de un televisor convencional, algo que empezaba a ser normal en los años 50 y 60. En cambio, nada tiene que ver con el empleo de un ordenador o ingenio similar que, en aquellos años, eran un tema poco conocido y totalmente inaccesible para un hogar. Por otro lado, desde el punto de vista de diseño, Baer tampoco consideró el uso de circuitos integrados por tratarse de una tecnología novedosa: recordemos que componentes como el Fairchild uL903 o los circuitos empleados en el ordenador IBM/360 datan de principios de los ’60. Con estos condicionantes había que ingeniárselas para que la videoconsola actuase sobre la señal de televisión recreando en ella los objetos y eventos del juego empleando solo componentes electrónicos discretos, es decir, resistencias, condensadores, diodos y transistores.

Como he comentado la Magnavox Odyssey recrea en la señal de vídeo los objetos del juego. Sobre este tema es importante aclarar que es considerado “objeto” en la Primera Generación. Objeto o personaje era, en aquellos años, un simple punto a modo de pelota o un pequeño cuadrado que hacía las veces de raqueta. También podía ser considerado como un objeto una línea vertical que delimita o define el perímetro de juego. Por lo tanto, los diseñadores de un juego de aquellos años debían idear modalidades de juego introduciendo pequeñas variaciones en la aparición de estos objetos y en su movimiento en pantalla. Para ese fin la Odyssey contaba con 6 tarjetas insertables por el usuario con las que se reconfiguraba el circuito electrónico y se seleccionaba una modalidad de juego entre 12 variantes, donde destacaban los títulos Tennis, Hockey y Sky.

La Odyssey dispone de dos mandos, uno para jugador. Cada uno de estos controles cuenta con dos potenciómetros con los que se consigue el movimiento horizontal y vertical de la raqueta. Junto a los potenciómetros recién mencionados existe un tercero denominado English para alterar la trayectoria de la pelota e intentar confundir al rival. Además, opcionalmente, los usuarios podían adquirir un rifle óptico en cuyo cañón había un fotodiodo que permitía identificar donde se encontraba el haz de electrones del tubo de imagen mientras se está representando el objeto al que disparamos. Si la señalización del rifle coincidía con la ubicación de la víctima, habías acertado el tiro. Por otra parte, se incluían unas trasparencias que se superponían sobre la pantalla del televisor para intentar recrear un escenario y así dar realismo al entorno. Por último, la Magnavox Odyssey disponía de una serie de accesorios propios de un juego de mesa como dados, cartas de preguntas o billetes de dinero con los que se enriquecía la experiencia lúdica.

En un vistazo al interior de la Magnavox Odyssey se identifican diez pequeños módulos constituidos por los componentes discretos mencionados: Dos de estos módulos son los encargados de generar los sincronismos horizontal y vertical y son usados para crear una señal de televisión analógica y son la referencia temporal que hace que el resto de módulos sepan cuando han de funcionar; los siguientes dos módulos generan a cada jugador (raquetas) y su posición, modificando el nivel de luminancia de la señal de video; otro módulo genera la pelota también como una señal de luminancia; el siguiente de los módulos es el responsable de generar una línea vertical para delimitar el campo que es, una vez más, generado a partir de la luminancia; el siguiente módulo está encargado del movimiento de izquierda a derecha y viceversa de la pelota (Ball Flip-Flop); el módulo English Flip-Flop también está relacionado con el control de la pelota y es capaz de cambiar su trayectoria haciendo que suba o baje súbitamente; con siguiente módulo, llamado Gate Matrix, se identifica una colisión entre jugador y pelota y también se señaliza un cambio de trayectoria; por último, el módulo Summer es el responsable de integrar las señales anteriores de luminancia junto a los citados sincronismos vertical y horizontal. A la salida de Summer ya contamos con una señal de video compuesto en blanco y negro que, tras pasar por un modulador de radiofrecuencia VHF, puede ser visualizada en un televisor antiguo.

Magnavox Odyssey 100
Trascurridos los primeros años de la Odyssey, Ralph Baer y Magnavox eran conscientes que el diseño electrónico con componentes discretos no era el más apropiado por costes y fiabilidad de la propia videoconsola. Por otra parte, también se dieron cuenta que los usuarios de un entretenimiento electrónico no querían perder el tiempo leyendo complicadas reglas de juego, pegar trasparencias en la tele o entretenerse con mil cachivaches como los que acompañaban a la Odyssey, es decir, querían inmediatez: enchufar y jugar.

Con estas consideraciones apareció la Magnavox Odyssey 100. En esta videoconsola solo se podía jugar al Tenis y al Hockey y, en una única estructura, se integraban los controles para dos jugadores junto a unos cursores deslizantes con los que se llevaba un control de las partidas ganadas. La Odyssey 100, que llegó al mercado hacia octubre de 1975, también sustituía el uso de componentes discretos reuniendo sus capacidades en cuatro circuitos integrados de Texas Instruments e introduciendo, como novedad, un sonido muy básico.

Tras el modelo 100 aparecieron otros, pero se notaba que Magnavox hacía, más o menos, lo mismo que el resto de los competidores. En 1975 Philips se hizo con el control de esta legendaria compañía (recordemos que Magnavox fue fundada en 1915 y fueron los precursores del altavoz electrodinámico) y, entre sus prioridades, estuvo el desarrollo y lanzamiento en 1978 de DiscoVision. Aquel mismo año haría otra presentación importante: la Odyssey 2, también conocida como Philips Videopac G7000… pero eso es otra historia y pertenece a la siguiente generación de videoconsolas.

Hasta aquí este breve recuerdo a la Magnavox Odyssey. En la siguiente entrada presentaré la aproximación que siguieron en aquellos años empresas como Atari, Nintendo y Coleco.

Colección | Primera Generación de Videoconsolas (y 2) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación

El Aritmómetro

junio 1, 2022 on 7:25 pm | In colección, hist. informática, matemáticas | No Comments

Diccionario Enciclopédico Hispano-Americano (1887) | Del francés arithmomètre y del griego άριθμός, número y μέτρον, medida. La simplificación de los cálculos se ha considerado siempre asunto tan importante, que mereció, desde hace mucho tiempo, que los sabios matemáticos más notables dedicaran a este estudio su inteligencia y su actividad. Entre ellos citaremos a Neper, Pascal, Leibniz y Babbage.

Los instrumentos de cálculo inventados hasta ahora se pueden dividir en tres clases: aquellos que exigen el empleo de la inteligencia humana; 2ª las máquinas automáticas que suplen por completo a esta última, y las tablas donde se encuentran hechos los cálculos, o, por lo menos, preparados. Mr. Th. Olivier, en un folleto sobre la máquina de Roth, consignó que desde 1624, en que Gunther construyó la regla de cálculo, hasta 1840, se habían inventado 20 instrumentos de la primera especie y 17 de la segunda. En este artículo solo nos ocuparemos de estos últimos.

Las 17 máquinas autómatas citadas, se pueden clasificar en tres géneros distintos: 1º aparatos sumadores; 2º aparatos para ejecutar las cuatro operaciones fundamentales de la Aritmética, y 3º aparatos destinados a ejecutar cálculos superiores.

Primer género. Entre éstos citaremos la máquina de Pascal, cuya invención consumió parte de la vida de este matemático, y que, a pesar de la inteligencia de su autor, fue un aparato pesado, voluminoso, y, sobre todo, imperfecto; la de Lepine de difícil aplicación, y la de Roth, construida en 1843, y que resolvía por completo el problema.

Segundo género. Leibniz presentó el proyecto de una máquina de esta clase, que no llegó a construir por ser demasiado costosa. Lord Mahon inventó en 1776 dos máquinas de cálculo; una para sumas y restas; la otra para multiplicaciones y divisiones, cuyo mecanismo es desconocido. En 1822 M. Thomas de Colmar presentó a la Société d’encouragement una máquina de calcular, a la que dio el nombre de Aritmómetro, que, perfeccionada después, obtuvo un premio de esta Sociedad en 1851, y cuyo estudio va ser el objeto de este artículo.

Tercer género. Mr. Babbage proyectó en 1821 una máquina que daba los términos de una progresión por diferencia; después Mr. Scheutz otra para la formación de series, y más adelante se propusieron otras varias que juzgamos inútil citar.

Descripción del Aritmómetro. El aritmómetro se compone de una caja de 38 centímetros de longitud por 16 cm. de ancho y 7 cm. de alto, en el modelo pequeño, y de 55 cm. de largo, con el mismo ancho e igual altura en el tipo grande. Abierta la caja se encuentra una manivela N, terminada por un botón de marfil que se puede levantar y bajar; la citada manivela N no puede girar más que de izquierda a derecha, y sirve como motor al resto del mecanismo. A la izquierda de N hay una serie de ranuras paralelas, en donde deslizan botones A de cobre, y al lado de aquellas se escriben los números de cero a nueve.

La primera ranura de la derecha representa las unidades sencillas, la segunda las decenas, la tercera las centenas, y así sucesivamente. Se dice que se escribe un número, cuando se pone el botón A enfrente de la cifra que la representa. A la izquierda de este conjunto de ranuras hay otra más pequeña en donde se mueve el botón B; en su parte superior lleva escrito: Adición y Multiplicación, y en la inferior, Sustracción y División. Encima de este conjunto de partes, hay una larga y estrecha platina MM, susceptible de levantarse y de poderse correr de izquierda a derecha por medio del botón P. En la platina MM hay abiertos una serie de cuadros C, armado cada uno de ellos de un agujero que lleva las cifras de cero a nueve, y que se mueve por medio de un botón C. Debajo de estos, y sobre la misma platina, hay otros agujeros más pequeños, armados también con sus correspondientes cuadros y botones D, y, por último, a la derecha de la figura hay un botón O, destinado a poner el cero de los cuadros enfrente de los agujeros de la platina.

Mecanismo. Debajo de la platina general que cubre el aparato, hay un sistema de engranajes que constituyen su mecanismo, cuya teoría científica vamos a exponer en breves palabras. La máquina que forma el aritmómetro, se compone de cierto número de cilindros colocados paralelamente los unos a los otros, y movidos por el mismo árbol, de tal manera que cada vuelta de la manivela N, los cilindros hacen también una revolución.

Los cilindros están armados de resaltos en una parte de su circunferencia, la mitad generalmente, como veremos después, dispuestos de tal manera, que en unos puntos los cilindros están completamente lisos, en otros presentan una especie de diente, en otros dos, y así hasta nueve, número máximo de resaltos que tiene el sistema. Encima de cada cilindro hay un piñón, cuyo eje es paralelo al de éste, y que puede correr sobre él, de tal modo que es fácil colocarlo delante de la parte cilíndrica que se quiera. Estos piñones están unidos a los botones D, de tal suerte que cuando éstos se colocan enfrente de una de las cifras que llevan las ranuras, la pequeña rueda encuentra en el cilindro motor otros tantos resaltos o dientes y por tanto su eje, al moverse la máquina, da igual número de vueltas.

En el extremo del eje que conduce el piñón, hay otro fijo que hace girar a uno de los cuadros numerados que hay que hay debajo de los agujeros C de la platina, y hace que las cifras vayan apareciendo sucesivamente en el fondo de la abertura.

Supongamos, para fijar la atención, que el número de cilindros, cuadros, ranuras y piñones es seis; y admitamos además que todos los cuadros están a cero y que tenemos escrito en las ranuras de la máquina un número de seis cifras; por ejemplo: 745721. Es evidente que, al dar una vuelta a la manivela, el primer cuadro correrá tan solo una cifra, y el segundo dos, el tercero siete, el quinto cuatro y así los demás, con lo cual aparecerá en la fila superior de agujeros de la platina, el número 745721 que teníamos escrito en las ranuras de la máquina. Si ahora escribimos el número 133178, y damos de nuevo una vuelta a la manivela, se comprenderá fácilmente que en la platina aparecerá la suma de los números anteriores, o sea 878899. De esta manera se podría continuar hasta que la suma de las cifras de un cierto orden sea mayor que nueve, en cuyo caso hay que añadir una unidad a la suma siguiente, o lo que es lo mismo, correr un lugar el cuadro correspondiente. Para ejecutar este movimiento, al llegar uno de los cuadros a la cifra 9, arma un engalgue que va ligado al siguiente, y al terminar la operación de la suma, que se verifica en una semirevolución del eje, pues los resaltos o dientes solo ocupan una semicircunferencia, se aprovecha la motriz de la semirevolución restante, para soltar el engalgue y hacer avanzar un lugar el cuadro siguiente que sigue al que se considera. Tal es en pocas palabras la teoría del Aritmómetro, no entrando por falta de lugar, a describir los engranajes y piezas accesorias que facilitan estos movimientos.

Si la manivela N en lugar de girar de izquierda a derecha lo hiciera de derecha a izquierda, la operación anterior se transformaría en una resta; pero para evitar que la manivela N tenga estos dos movimientos, el aritmómetro lleva un botón B, que al deslizar en su ranura cambia, por medio de un sencillo conmutador, el sentido de la marcha.

Suma. Para sumar los números A, B y C se escribe primero la cantidad A en las ranuras de la máquina, se da una vuelta a la manivela N, y este número aparece en los agujeros C. Después se escribe en las ranuras A el número se escribe en las ranuras A el número B y se encuentra en la platina M la suma A+B sin más que hacer girar la pieza N. De una manera análoga se encontrará la cantidad A+B+C, y así sucesivamente si hubiera más sumandos. Hay que advertir que, para ejecutar esta operación, el botón B debe marcar: Adición y Multiplicación.

Resta. Para restar los números A y B se empieza por poner el botón B enfrente de la indicación: Sustracción y División. Se escribe el minuendo en los agujeros C de la platina, ya por medio de los botones C, ya previamente con las ranuras A; después se escribe en éstas el sustraendo B, se hace girar la manivela N y la resta aparece en las aberturas C de la platina M.

Multiplicación. Si se trata de multiplicar un número A por un dígito 5 por ejemplo, se escribe la cantidad dada en las ranuras A, y se da cinco vueltas la manivela N, y en los agujeros C de la platina M aparecerá el producto 5 A, y en las pequeños aberturas D el multiplicador 5. Si queremos multiplicar la cantidad S por el número polidígito 3457 por ejemplo, se procede de la siguiente manera: se multiplica primero S por 7, después se corre la platina M hasta que el segundo agujero D se encuentre enfrente de la primera ranura A, y se dan cinco vueltas a la manivela; se corre después otro lugar a la platina y se repite la operación con el cuatro y así sucesivamente. Es evidente que el numero final será el producto que se busca, puesto que es la suma, convenientemente colocada, de los productos parciales 7 S, 5 S, 4 S y 3 S.

División. Para hacer una división por medio del aritmómetro, se escribe el dividendo en las aberturas C y el divisor en las ranuras A, se toma la parte del dividendo que, dividida por divisor, da la primera cifra del cociente, y se corre la platina hasta que la ultima cifra de aquella coincida con la primera ranura A. Después se baja el botón B hasta que marque Sustracción y División, y se resta la parte del dividendo tantas veces como se pueda el divisor, cuyo numero aparecerá en la apertura correspondiente D y será la primera cifra del cociente. Hecho esto se corre un lugar hacia la izquierda la platina M, y se resta tantas veces como se pueda el nuevo dividiendo el divisor, y se encontrará en las aberturas D la segunda cifra del cociente. Por este procedimiento podremos encontrar todas las cifras de este número y el resto de la división.

Potencias. La cuestión queda reducida a multiplicar, por medio del aritmómetro, un numero por sí mismo para el cuadrado; este producto por el número primero por la tercera y así sucesivamente.

Raíz cuadrada. Para ejecutar esta operación basta seguir la regla general que indica la aritmética, haciendo por medio del aritmómetro las operaciones parciales.

Colección | Máquinas de Cálculo | Datos, censo y tabuladoras | Inicios de la Industria Informática

 

Realidad Virtual (2). Llegada al mercado

marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.

Algo común en los visores de aquella época es su baja resolución de imagen y la carencia de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de los ordenadores -o videoconsolas- de aquel momento contaban con capacidad suficiente para generar gráficos en tiempo real adaptados a cada perspectiva.

Industria de los Videojuegos
Como he comentado, la industria del videojuego fue la primera en introducir productos que intentaban aumentar la experiencia inmersiva del usuario, aunque, en honor a la verdad, aquellas primeras apuestas carecían de nivel para ser tomadas en serio.

Nintendo fue una de las empresas más activas en el terreno del visionado 3D y, aunque no se considere RV en el sentido estricto del término, en 1987 lanzó en Japón un visor para su consola Famicom. El Famicom 3D System contaba con unas gafas cuyas lentes eran de cristal líquido y empleaban la técnica Active Shutter. Como todos sabéis, al aplicar una tensión a un cristal líquido este cambia de polaridad óptica consiguiendo hacerlo opaco o transparente. Este cambio, que se hacía a alta velocidad, estaba sincronizado con la imagen proyectada en el televisor donde, secuencialmente, aparecían las dos imágenes con las que se formaba la ilusión estereoscópica. A diferencia de la videoconsola Nintendo Famicom, el fracaso comercial de Famicom 3D System fue mayúsculo y solo unos pocos títulos aprovecharon la citada capacidad.

El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor de realidad virtual para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.

A pesar de estos tropiezos, la industria del videojuego no tiró la toalla. Nintendo hizo una nueva aproximación al mercado con la extraña Virtual Boy. Lo primero, y más llamativo, es que era un visor con trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior con la consiguiente incomodidad y fatiga. Parece ser que con este diseño se pretendía evitar accidentes si alguien decidiese desplazarse con el visor puesto…

Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la videoconsola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.

Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.

Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. A pesar de este pseudo incremento de resolución y su capacidad estereoscópica, esta consola con visor RV fue otro sonado fracaso y apenas duró un año en el mercado.

Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.

Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.

Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte, incluso alguna volvió a recurrir a la técnica Active Shutter junto a controladores de vídeo especiales para hacer del PC un equipo 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.

Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]

Colección | Realidad Virtual (1). Regreso al Futuro

Realidad Virtual (1). Regreso al Futuro

febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash (1992) de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…

Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.

Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un desajuste emocional.

Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.

Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.

Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.

También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.

Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.

Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.

Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.

Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.

En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.

Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.

Colección | Realidad Virtual (2). Llegada al mercado

Apple Lisa y el GUI

febrero 3, 2022 on 7:52 pm | In colección, hist. informática | No Comments

Adolfo García Yagüe | Hace unos días recordaba la aparición de la versión 3.0 de Windows. Como decía, con esta versión Microsoft logró que los usuarios de un PC empezáramos a considerar el uso de un GUI (Graphic User Interface). También ayudó el lanzamiento de un conjunto de herramientas ofimáticas específicas para este entorno. Aunque Microsoft llevaba ofreciendo Windows desde el año 1985, siempre fue algo secundario y este GUI no terminaba de convencer. Quizás, una de las razones, tenía que ver con que este entono no era un sistema operativo real y era un añadido gráfico al MS-DOS. Evidentemente, esto limitaba su capacidad multitarea y potencia. Por otra parte, hay que recordar, que en aquellos años la mayoría de los PCs estaban basados en el Intel 8088/8086 y eran pocos los usuarios que contaban con un disco duro.

Las citadas limitaciones de los PCs no tenían nada que ver con los Apple Macintosh. Apple, y más concretamente Steve Jobs (1955-2011), supieron ver la importancia de un entorno gráfico para lograr que los ordenadores llegaran a más gente. Realmente, antes que Jobs, el mérito de la invención y uso de un GUI corresponde Xerox con sus ordenadores Alto (1973) y Star (1981). En cualquier caso, los aportes de Apple fueron decisivos y consiguieron que el GUI fuera conocido tras el lanzamiento del Apple Lisa en 1983.

El desarrollo de esta máquina sería el origen de agrios enfrentamientos entre Jobs y el equipo encargado de su desarrollo. Fruto de estas tensiones Steve fue apartado para no interferir en las decisiones de diseño y expulsado a un edificio donde empezó, según su criterio, el desarrollo del Apple Macintosh. En lo personal Lisa también encierra uno de los demonios que acompañaron a Jobs durante algún tiempo acerca de la paternidad y la áspera relación que mantuvo con su hija Lisa Brennan-Jobs (1978). En aquel momento Steve se refería a LISA como un acrónimo de Local Integrated Software Architecture.

En los primeros meses de su comercialización Lisa venía equipado con dos unidades de diskettes llamadas FileWare. Rápidamente, Apple se percató de su error al querer salirse de los estándares y el Lisa 2 ya se suministró con un floppy de 3” ½ y a los clientes de FileWare se les ofreció -sin coste- el cambio de unidad. Este ordenador también contaba con la posibilidad de añadir un disco duro de 5MB gracias al Apple ProFile, que ya era conocido desde el Apple III. No obstante, lo más impactante, fue la incorporación de un entorno gráfico y un ratón inspirados en lo que los ingenieros de Apple conocieron en Xerox.

Colección | IBM Personal Computer 5150 | BIOS y Clean-room Design

 

Microsoft Windows 3.0

enero 29, 2022 on 9:45 am | In colección, hist. informática | No Comments

Adolfo García Yagüe | Microsoft Windows versión 3… Qué lejos queda… Esta versión fue lanzada en 1990 y con ella se empezó a popularizar el uso de un entorno gráfico entre los que éramos usuarios de un PC. Compartió época con el asentado escritorio de los Apple Macintosh, el OS/2 de IBM, el GEM de Digital Research y, sobre todo, el de ordenadores domésticos como el Atari ST, Commodore Amiga o Acorn Archimedes y otros equipos muy avanzados para su época como eran las estaciones de trabajo NeXT.

Para fomentar el uso de Windows, Microsoft acompañó la versión 3 con el famosísimo juego de cartas el Solitario. Aquel juego causo furor y se hizo un hueco en los escritorios de casi todos los puestos de trabajo provocando una pequeña y simpática crisis de productividad laboral. ¿Quién no se ha echado un Solitario? 😊

Colección | IBM Personal Computer 5150 | BIOS y Clean-room DesignApple Lisa y el GUI

 

Redes LAN inalámbricas: WaveLAN, Altair y ARLAN

octubre 12, 2020 on 9:40 am | In colección, hist. informática, hist. telecomunicaciones, telecomunicaciones | No Comments

Adolfo García Yagüe | El establecimiento de las bandas ISM sobre ciertas porciones del espectro radio fue un terremoto que no dejó indiferente a casi nadie. Este movimiento sísmico zarandeó el mercado y agitó los cimientos de muchas empresas en su intento por posicionarse en esta novedosa oportunidad. Por ejemplo, NCR intuía el potencial que podían ofrecer las redes inalámbricas a su negocio tradicional, que era (y es) el de los puntos de venta o POS de los supermercados. Otros, como Telxon, llegaron a la conclusión de que las comunicaciones RF (radiofrecuencia) apenas tenían que ver con la lectura de códigos de barras por eso, en 1994, escindieron su expertise en radio en una nueva compañía llamada Aironet. Otro ejemplo era el de Motorola que, conscientes de su sabiduría en el mundo de la radiofrecuencia, decidieron alejarse de lo que otros competidores hacían mientras que a ambos lado del Atlántico se empujaba hacia una estandarización. Incluso, en el colmo de esta agitación del mercado, había quién apostaba por una comunicación a distancia mediante rayos infrarrojos.

NCR WaveLAN
Muchos de vosotros conocéis que NCR (National Cash Register) es una de las firmas más antiguas de este sector. Fue fundada en el siglo XIX por John Henry Patterson (1844-1922) y por allí pasó gente tan carismática como Thomas Watson (1874–1956) de IBM. Aunque NCR ha jugado en todas las posiciones del mundo de las IT (tecnologías de la información), siempre ha mantenido una posición de liderazgo en las soluciones relacionadas con formas de pago: desde lectores bancarios de cheques y cajeros automáticos hasta cajas registradoras o terminales puntos de venta (TPV). En los ’80 venía investigando en las capacidades de la comunicación infrarroja porque, como podéis intuir, en las grandes superficies no siempre es fácil, rápido ni barato llevar un cable de datos a un determinado punto del centro comercial para ubicar un TPV. Por esta razón, cuando en 1985 se establecieron las bandas ISM, la tecnología radio llamó su atención y empezaron a indagar en sus posibilidades.

NCR contaba con un Centro de Ingeniería en Nieuwegein, una pequeña ciudad a las afueras de Utrecht, Holanda, donde principalmente se trabajaba en la adaptación de sus soluciones al mercado europeo. Allí estaba empleado Bruce Tuch, un americano afincado en Holanda con gran experiencia en radiofrecuencia tras su paso por Philips. Bruce y su colegas holandeses empezaron a investigar en las posibilidades de ISM y en 1987 construyeron un prototipo que permitía la comunicación inalámbrica a 100Kbits por segundo, y al año siguiente hicieron otro cuyo ancho de banda alcanzaba los 500Kbits/s. Aun siendo un gran salto, aquello no era suficiente para una caja registradora que, en esencia, era un ordenador compatible IBM PC donde ya era común la comunicación Ethernet LAN a 10Mbps. En este sentido, NCR estableció un mínimo de 1Mbps de ancho de banda para considerar el lanzamiento de un producto comercial.

El reto era grande. Como hemos visto en el artículo anterior, para velocidades del orden de miles de bits por segundo de las comunicaciones RS-232 o RS-485, era factible aplicar los mecanismos habituales de Spread Spectrum. En cambio, con cualquiera de estas técnicas de espectro ensanchado, era complejo y costoso ofrecer un ancho de banda de 1Mbps. Pensemos que en la técnica DSSS emisor y receptor comparten un código binario (Código Chip) con el que se realiza una operación -por ejemplo un XOR sobre cada bit del mensaje. Por esta razón, un bit que se desea enviar se convertirá en una cadena de bits antes de ser transmitidos por radio. Este ensanchamiento del mensaje hace que la comunicación cuente más robustez frente a interferencias, refiriéndonos a esta como ganancia de procesado. En FHSS, la otra técnica de Spread Spectrum, emisor y receptor acuerdan varias frecuencias por las que “saltarán” y enviarán pequeños fragmentos del mensaje. Así, en ambos casos, si se desconoce el código chip o las frecuencias de salto, resulta difícil entender el mensaje por alguien que intercepte la comunicación.

Ante este muro infranqueable, en 1988 Bruce Tuch viajó a Washington y planteó a la FCC la cuestión sobre cómo interpretar las reglas de Spread Spectrum y la longitud mínima que tenía que tener el código chip pues, a mayor longitud de este, más complejidad en la electrónica de proceso y menos ancho de banda. Bruce quedo sorprendido cuando FCC le confirmó que con una longitud de 10 bits era suficiente. Aquella respuesta despejó el camino y, al llegar a Holanda, su compañero Hans van Driest ya tenía implementado un chip de 11 bits de longitud llamado Secuencia Barker (+1, –1, +1, +1, –1, +1, +1, +1, –1, –1, –1).

Aplicando las técnicas de espectro ensanchado DSSS descritas y la modulación DQPSK (Differential Quadrature Phase-Shift Keying) en la banda ISM de 902-928MHz, NCR logró un ancho de banda cercano a los 2Mbps. Este nivel físico necesitaba de un nivel MAC (o de acceso al medio) capaz de detectar la portadora de otra estación y así evitar la colisión que se produce cuando varios equipos simultanean su comunicación. Para este fin adaptó el funcionamiento del procesador Ethernet N82586 de Intel para que, en lugar de CSMA/CD (escucha portadora y detecta colisión), funcionara como CSMA/CA (escucha portadora y evita colisión) junto con el envío de unos mensajes de acuse de recibo desde el receptor. De esta forma, además de beneficiarse de un chip comercial y acelerar el desarrollo de una solución inalámbrica, Tuch y su equipo se acercaban a lo que ya se venía haciendo en el estándar Ethernet.

En 1990 NCR lanzó al mercado WaveLAN, un adaptador inalámbrico en 902 a 928MHz compatible con el IBM PC. Como hemos visto en otros textos, trabajar en esta banda ISM abarataba el diseño electrónico pero ofrecía menor capacidad, sin olvidar que estos productos no eran compatibles con el plan de frecuencias europeo. Por estas razones, al año siguiente, presentarían una versión para trabajar en 2,4GHz. Las WaveLAN eran tarjetas que se insertaban en un ordenador normal y eran compatibles NDIS (Network Driver Interface Specification), es decir incluían drivers para ser usadas por sistemas operativos de red como Netware o LAN Manager. Además estos adaptadores, al igual que las tarjetas de Ethernet y Token Ring, disponían de un zócalo donde instalar una ROM con un programa de autoarranque para redes Netware. Así mismo, con WaveLAN, NCR ya fue consciente de las vulnerabilidades de la comunicación inalámbrica e incluyó, como opción de ampliación, la posibilidad de instalar un chip para el cifrado DES de 56 bits a través de la configuración de una clave o Network ID.

En 1991 NCR fue comprada por AT&T pero la historia del equipo de Nieuwegein no acaba aquí y continuó con su participación en el desarrollo del estándar 802.11 en representación de Lucent Technologies.

Motorola y las LAN inalámbrica
Escribir sobre las comunicaciones radio y no mencionar a Motorola es difícil. Esta compañía se fundó en Chicago en 1928 como Galvin Manufacturing Corporation y paso a llamarse -dos años después- Motorola para ser identificada con su producto estrella, un autorradio (Motor + Victrola). Esta especialización en el campo de la radiofrecuencia fue clave para que en los años 40 suministrara al ejército americano el famoso Walkie Talkie SCR-536. De esta época también es el radioteléfono Handie-Talkie FHTRU-1A. Los buscapersonas, la telefonía móvil celular o la red de satélites Iridium llevan el sello de Motorola, por no hablar de sus avances en semiconductores. Con semejante currículo ¿Cómo no iba a desarrollar una solución inalámbrica para las LAN?

Altair (comercializado como Rialta en el mercado español) fue un producto que se alejó del planteamiento seguido por NCR y otros fabricantes que, como hemos comentado, eran prácticos y cercanos a las normas de la FCC. Motorola, en lugar de seguir estas recomendaciones de uso de las bandas ISM, consideró que no merecía la pena trabajar con espectro ensanchado y optaron por las frecuencias de 18 y 19GHz… Para evitar trámites al usuario final y facilitar la adopción de este producto, Motorola tuvo que obtener una autorización para vender Altair en cada país y el usuario tenía que rellenar un formulario de registro, ya que el uso de estas frecuencias no es libre. La realidad era que en 18 o 19GHz la penetración radio es muy baja y un simple tabique representa un obstáculo insalvable. Por eso, en el marketing de la época, Motorola hablaba del uso en oficinas con espacios abiertos y recomendaba que existiese visibilidad directa entre equipos Altair.

El Altair de Motorola se asemeja a un Bridge donde uno de sus puertos es radio y el otro Ethernet. Esto significa que estaba pensado para ser conectado a un segmento Ethernet y trabajaba a nivel trama, sin importar el tráfico cursado: NetBIOS, Novell IPX, SNA o TCP/IP. Esto, a priori, es una ventaja que permite ser agnóstico a lo que viaja por el cable. No obstante, poco a poco, TCP/IP iba ganando protagonismo en redes donde era necesario establecer una jerárquica separando con routers las diferentes LANs. Por esta razón, la tendencia era ir migrando hacia TCP/IP desde otros protocolos de red, bien con técnicas de encapsulado o directamente. Además, otra de las señales que se aprecian con claridad en los ’90 es el auge de Internet e IP. Dejando a un lado frecuencias y protocolos de red, la topología de una solución Altair consistía en una máquina central denominada Control Module cuyo coste era de 3.995 dólares y al que se conectaban por radio diferentes User Module a un precio de 3.495 dólares por unidad. Un precio desorbitado en 1991 -y a día de hoy- para la mayoría de las empresas teniendo en cuenta, además, que el throughput de una comunicación no superaba los 2Mbps y la instalación de estos equipos tenía numerosos condicionantes relacionados con las frecuencias usadas y su propagación.

Con estas líneas dedicadas a Motorola Altair solo pretendía ilustrar como las redes LAN inalámbricas despertaron iniciativas arriesgadas y el coste que supone desarrollar productos de espaldas al mercado, guiándote solo por el nivel de sofisticación técnica al que puedes aspirar. Así, Altair, fue descontinuado hacia el ‘93-‘94 y Motorola se enroló en 1996 en el consocio Wireless LAN Interoperability Forum (WLIF) que promovía la adopción de la tecnología OpenAir (RangeLAN2) de Proxim.

Aironet ARLAN y la movilidad
Para conocer el origen de Aironet (1994) hay que mirar a Telxon (1974) y antes, incluso, a Telesystems SLW (1986) y Marconi Wireless (fundada a principios del XX). Ahí es donde empieza esta historia, cuando empleados de la Marconi canadiense deciden montar Telesystems. Aironet, además de por sus productos y sus aportaciones al estándar IEEE 802.11, será recordada por haber sido absorbida en 1999 por Cisco Systems, convirtiéndose así en el inicio inalámbrico de esta compañía.

En los párrafos anteriores hemos visto diferentes enfoques para abordar las LAN inalámbricas y si NCR planteaba un modelo descentralizado basado en sus tarjetas WaveLAN, Motorola se decantaba por una topología centralizada donde un Altair Control Module ejercía de controlador de la red inalámbrica. Ambos enfoques tienen pros y contras pero es cierto que en una red local los recursos suelen estar en un lugar central y es recomendable que todo el tráfico pase por ahí pero, a la vez, es acertado que este equipo no regule “la libertad” de cada participante en la red para hablar y usar el medio (aunque, nadie le escuche). Esto nos hace pensar en un punto de acceso que hace de intermediario o bridge con los recursos y hacia el que todas las estaciones son libres para dirigir su tráfico. Cuando hablamos de recursos podemos pensar en la asignación de direcciones IP que hace un DHCP, los servidores o la salida a Internet.

El ARLAN 630 y fue uno de estos primeros puntos de acceso que comercializó Aironet para las bandas ISM de 900MHz y 2,4GHz. Operaban en DSSS y ya estaban cerca de la norma 802.11 pero, por ejemplo, carecía de mecanismos de cifrado y el único sistema de seguridad se basaba en el establecimiento de filtros que impedían que ciertas estaciones y protocolos pudiesen cruzar a través de él es decir, un AAA muy básico (Authentication, Authorization and Accounting).

En el lado de los usuarios, Aironet y otros fabricantes se dieron cuenta que carecía de sentido seguir promoviendo adaptadores ISA y PCI para LANs inalámbricas dirigidos a equipos de sobremesa que, normalmente, no se mueven y son conectados por cable, sin obviar que el uso de ordenadores portátiles y el término “movilidad” empezaba a ser una realidad para muchas empresas. Por este motivo, Aironet intensificó sus esfuerzos en integrar toda la electrónica y la antena en una tarjeta PCMCIA insertable en un portátil. El formato PCMCIA y más tarde PC Card, fue concebido a principios de los ‘90 para utilizar tarjetas de memoria con un tamaño similar al de una tarjeta de crédito. Unos años después esta norma se fue ampliando para permitir la conexión de tarjetas de red, módems y otros periféricos que necesitaban un interfaz de alta velocidad. Así, bajo este formato, aparecieron unos cuantos productos que desdoblaban en dos elementos la solución: una tarjeta PCMCIA donde residía todo el proceso y tratamiento de datos conectada a una pequeña unidad externa donde residía la parte de radiofrecuencia junto a su antena.

Mientras aproximaciones como las citadas en esta líneas llegaban al mercado, varios fabricantes trabajaban para intentar consensuar una norma que unificara los diferentes planteamientos y así conseguir la interoperabilidad entre ellos. Como se comentará en el próximo texto, de estas iniciativas destaca IEEE 802.11, pero es necesario recordar que coincidió en el tiempo con otras como HIPERLAN, HomeRF y OpenAir (continuará).

Colección | Código de Barras y Comunicación Inalámbrica | Redes de Área Local (1) | Sistemas Operativos de Red (2) | Electrónica de Red (y 3)

 

Código de Barras y Comunicación Inalámbrica

septiembre 25, 2020 on 6:25 pm | In colección, hist. informática, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | En fechas anteriores escribía sobre cómo el uso de ordenadores personales y el despliegue de redes locales cambió la forma de trabajar de ciertas empresas. Esta revolución en las oficinas coincidió con otro cambio en almacenes y supermercados donde empezaban a florecer los códigos de barras. En las superficies comerciales, además de un sistema de comunicación con un ordenador central, se disponía de un scanner en la caja registradora o TPV (Terminal Punto de Venta o POS, Point Of Sale) capaz de leer aquellos extraños símbolos. Por su parte, además de conectividad, en los almacenes era necesario disponer de un pequeño terminal portátil capaz leer la citada codificación.

Este terminal -o pequeño ordenador- estaba pensado para ser manejado con una mano (hand-held) y en él se ejecutaba un programa que guiaba al operario en la gestión de inventarios y pedidos. Todo un desafío si pensamos en las opciones técnicas disponibles en los ’70. Por este motivo se recurrió a componentes del mundo aeroespacial como el microprocesador RCA 1802 que, por ejemplo, podía bajar su frecuencia mínima de trabajo y así ahorrar energía. Otro ejemplo son los exiguos 4KBytes de memoria CMOS donde estos terminales salvaguardaban durante 48 horas los datos leídos. O el uso temprano de baterías alcalinas, el acoplador acústico integrado y, años después, la comunicación por radio.

Compañías como Motorola, Honeywell, Intermec (1966), Norand (1967), Teklogix (1967), MSI (1967), Zebra (1969), Symbol Technologies (1973), Telxon (1974), Datalogic (1972) o Psion (1980) han sido los protagonistas de este sector que, poco a poco, se ha ido concentrando en manos de tres compañías: Zebra, Honeywell y Datalogic.

Códigos de barras
En el repaso de esta historia es necesario remontarse a la segunda mitad del siglo anterior. Allí, en 1951, David Hammond Shepard (1923-2007) construyó el primer OCR funcional y, a partir de ese momento, el reconocimiento óptico de caracteres empezó a llamar la atención de grandes compañías. Por otro lado en los ‘60 podemos encontrar experiencias como KarTrak, de Sylvania y GTE (General Telephone & Electronics Corporation), donde se identificaba con un código de colores a los vagones de ferrocarril destinados a mercancías; o el de la Kellogg Company para el control automático de productos durante la fabricación y logística. Estas experiencias fueron importantes pero empleaban códigos y técnicas propietarias. Así, en 1971, apareció el Plessey Code de la firma inglesa Plessey Company, que es uno de los primeros códigos de barras similares a lo que hoy conocemos. La innovación de Plessey fue contemporánea de otro gran invento: el microprocesador 4004 de Intel. Aquel salto tecnológico permitió a James S. Bianco, de Control Module Industries (CMI), desarrollar el primer lector integrado por encargo de Levi Strauss. Este terminal pesaba 12Kg y empleaba una cinta de cassette para almacenar las lecturas. Ese mismo año la compañía Norand comercializaría el modelo 101 dirigido al mercado de la distribución.

Desarrollos como el de CMI y Norand evidenciaban que, si se quería llegar a más clientes, era necesario ponerse de acuerdo en establecer una codificación universal o, al menos, que ésta fuera estándar para ciertos mercados y/o productos. Así es como en 1973 George Laurer (1925-2019), de IBM, propuso la codificación UPC (Universal Product Code) para la distribución al por menor. La adaptación europea se llamó EAN (European Article Number) y data de 1976. UPC y EAN son las codificaciones que hoy estamos acostumbrados a ver en el supermercado e identifican el país de origen, empresa y producto. A estas le han seguido otras más específicas como Codabar, Code 39, Nixdorf Code o Interleaved. Por supuesto, las codificaciones bidimensionales como PDF417, Datamatrix, QR y BIDI derivan de aquí. En España, en 1983, la primera empresa que empezó a usar la codificación EAN fue Mercadona, una joven cadena de supermercados que empezaba a dar sus pasos en la Comunidad de Valencia.

Técnicas de lectura
Desde los tiempos del Norand 101 para la lectura de un código de barras se han venido utilizando distintas técnicas. En los primeros años los lectores se acompañaban de un wand –varita o lápiz- en cuyo interior encontramos una pequeña fuente de luz y un fotodiodo. Estos wand, cuando están en contacto con un código de barras y recorren su superficie, captan los niveles de luz reflejados por cada barra y separación entre estas. Estas variaciones son detectadas por el fotodiodo y, a continuación, digitalizadas para ser interpretados por el terminal.

El método anterior fue el más común hasta 1982. En aquel año Jerome Swartz (1940), fundador de Symbol Technologies, comercializó el lector láser LS-7000 y, a diferencia del método del lápiz, no necesitaba contacto físico con el código de barras siendo capaz de leer éste, con visibilidad directa, a una distancia aproximada de 50cm. El principio de funcionamiento consistía en recorrer el código con un haz láser y, a la vez, captar remotamente las diferencias de luz reflejadas. Fueron numerosas las dificultades que se plantearon en la miniaturización del tubo láser de Helio-Neón hasta que, Uniphase, logró reducir su tamaño para ser incluido dentro de un dispositivo de mano junto a la etapa de alimentación de miles de voltios. Además, este mismo dispositivo de lectura, tenía que incorporar un ingenio mecánico con el que modificar el ángulo de un espejo para cambiar la trayectoria del haz y así recorrer toda la superficie del código. A pesar de las dificultades, este tipo de lector resultó ser un éxito y convirtió a Symbol en una de las marcas más notorias del sector. Su tecnología -y una agresiva defensa de su propiedad intelectual- hizo que números fabricantes de terminales portátiles operaran con un lector de Symbol, al igual que los lectores empotrados en las líneas de caja de cualquier supermercado. En el año 1988, esta fortaleza económica, permitió a Symbol vencer a Telxon en la disputa por la adquisición de MSI Data Corp y así contar con su propia línea de terminales. Ya en el comienzo de la década de los noventa, con la aparición lector Symbol LS-2000, se sustituyó el láser de He-Ne por uno semiconductor consiguiendo reducir el precio y su tamaño.

Otra de las técnicas de lectura que ha alcanzado un lugar destacado fue introducida por Norand en el mismo año. Ésta es una aplicación de los conocidos CCD empleados en fotografía digital o vídeo y en los escáner de documentos. Estos lectores disponen de una fuente luminosa procedente de uno o varios diodos y una matriz semiconductora de cientos o miles de condensadores que captan la luz (el CCD). Una vez más, lo que lee el CCD, es el resultado de la reflexión procedente del código de barras. A diferencia del wand o el láser, para la lectura, no es necesario recorrer todo el código -de izquierda a derecha o viceversa- y tampoco que el lector “toque” el código, soportando una separación de pocos centímetros. Frente a los primeros lectores láser de He-Ne el coste del CCD era inferior y gozaba de más robustez, pero tenía limitaciones relacionadas con el tamaño de los códigos que podía leer y a qué distancia.

Como se puede comprobar, en las últimas décadas del siglo pasado se han empleado distintas técnicas de lectura basadas en la reflexión de una fuente de luz. Esto cambiaría en el comienzo del presente siglo gracias a la miniaturización que ha experimentado la fotografía digital y el consiguiente procesado en tiempo real de imágenes. Esto ha permitido trasladar esta tecnología al mundo de los lectores de código de barras y a dispositivos tan diversos como los teléfonos móviles donde, además de ser posible la lectura de codificaciones complejas como las bidimensionales, sirve de complemento de ciertas aplicaciones de realidad aumentada.

RS-232 y Acoplador Acústico
Hasta aquí hemos visto como leer un código para identificar un producto pero de poco sirve si esta información no es tratada y consolida en un sistema de gestión de inventarios y pedidos. Teniendo en cuenta que las necesidades de comunicación de aquellos terminales eran más humildes de las que hoy demandamos a Internet, los primeros años han estado marcados por las bajas velocidades que ofrecía un interfaz serie RS-232 es decir, no es raro hablar de 300 bit por segundo, 1200, o incluso 9200, 19200 y 57000. Así pues podemos comentar tres métodos de comunicación. El primero de ellos es el más básico y consiste en una conexión directa a un ordenador central a través de un cable RS-232. En estos casos, cuando el operario acababa su jornada o cuando tenía que actualizar sus tareas, conectaba su terminal a un cable RS-232 y colocaba el terminal en modo de transferencia. A partir de ese momento descargaba las lecturas y recibía nuevas órdenes de trabajo. En algún caso era posible, incluso, actualizar el programa que estaba utilizando aunque durante muchos años se emplearon memorias EPROM intercambiables para este fin. Estos ciclos de trasferencia a veces coincidían con las fases de reposo del equipo y eran aprovechados para recargar las baterías.

La comunicación anterior era posible siempre y cuando en las mismas instalaciones existiese al otro lado del cable un ordenador central o un sistema concentrador de comunicaciones. En caso contrario, cuando se trataba de almacenes y delegaciones dispersas, lo habitual era recurrir a la línea telefónica y establecer una comunicación por módem. Por esta razón, prácticamente todos los terminales de primera generación, cuentan con un acoplador acústico unidireccional que es empleado para el envío de datos desde el terminal (o almacén) a la central y así actualizar las altas y bajas del stock local. Por ejemplo, en equipos como el terminal MSI/77 (1977) eran habituales las velocidades de transmisión de este acoplador a 110 y 300 baudios.

Comunicación Radio
Hablar de comunicación por radio o inalámbrica es hablar de la regulación que se aplica en cada país. Esto significa que para usar una porción del espectro radio es necesario pedir un permiso y pagar por ello. Es un proceso caro, farragoso y es muy probable que la solicitud sea denegada. Recordemos que las bandas de radio están asignadas a ciertos usos y no es legal invadir estos espacios. De esto se dieron cuenta en EE.UU., en 1980. En aquel año Walter C. Scales a petición de la FCC (Federal Communications Commission) redactó un estudio donde recomendaba abrir a los usuarios ciertas porciones del espectro radio siguiendo unas normas de uso. Además, desde los años 50, existía el antecedente en el uso libre de la región de los 2,4GHz -empleada para calentar- en los hornos microondas. Scales hablaba de la importancia que esto podía tener como elemento dinamizador de la industria y, para ello, sugería emplear la técnica de codificación de Espectro Ensanchado o Spread Spectrum, y así dar mayor robustez a las comunicaciones de los usuarios al reforzarlas ante las interferencias mutuas e involuntarias que se producirían en esos espacios. Esta técnica, en su versión FHSS (Frequency Hopping Spread Spectrum) y DSSS (Direct Sequence Spread Spectrum), fueron desarrolladas para uso militar y ambas aportaban una razonable inmunidad frente a interferencias e incluso eran útiles para ocultar las comunicaciones. Aquellas ideas estaban bien encaminadas y desembocaron en 1985 en el establecimiento por parte de la FCC de tres regiones del espectro radio, conocidas como bandas ISM (Industrial, Scientify and Medical), para ser usadas por cualquiera que siguiera unas indicaciones técnicas básicas. Así se abrieron las frecuencias de 902 a 928MHz, 2400 a 2483.5MHz y de 5725 a 5875 MHz.

Como podéis imaginar, la posibilidad de conectar por radio a los terminales móviles para la lectura de códigos de barras o facilitar la reubicación de ciertos TPV para atender a los clientes ante una determinada promoción o remodelación, eran solo el principio de lo que estaba por llegar. Por esta razón, a finales de los años 80 los principales fabricantes de cajas registradoras y terminales móviles se apresuraban en desarrollar y certificar productos que dieran una nueva perspectiva a la movilidad en espacios interiores. Para la gran mayoría de estas compañías representó un reto desarrollar y competir con una solución radio según las normas de FCC. Por esta razón, en este nuevo ciclo tecnológico, destacaron tres jugadores: Teklogix, fabricante canadiense con experiencia previa en el mundo radio; Symbol, quien desarrollo su propia solución inalámbrica y Telxon, que tomo una participación para más tarde absorber a Telesystems SLW, también canadienses y primeros en presentar una solución radio ISM en 1988.

Por razones de coste y complejidad técnica, y porque esta frecuencia tiene mejor propagación radio, el primer rango en ser usado fue el comprendido entre 902 y 928MHz con codificación DSSS y, aunque era una región de solo 26MHz de ancho de banda, satisfacía las necesidades de una comunicación serie como la comentada antes. El caso español (y europeo) era un poco diferente porque ya estaba planificado el uso de esta región por los servicios TMA 900 (Telefonía Móvil Automática), que luego evolucionarían a GSM. Así, para subirnos al carro de la nueva tecnología ISM y no frenar el despliegue de redes inalámbricas, entre los años 92 y 96 se adaptaron y certificaron equipos para funcionar en los rangos de 406,425MHz a 411,550MHz (Teklogix y Symbol) y entre 433,1 a 433,3MHz (Telxon). Hoy, alguna de estas frecuencias, se emplea en aplicaciones de telemando como la apertura y cierre de portones de garaje.

Aunque no existía compatibilidad entre fabricantes, los sistemas radio de aquella primera generación comparten una arquitectura similar. En ella, como punto central de red, encontramos a un equipo lógico encargado de controlador a una o más cabezas o etapas radio desplegadas dentro de la superficie en la que pretendemos tener cobertura. Para la unión de este controlador de red con las cabezas radiantes que de él dependen se han empleado cables RS-232 y, en el caso de Symbol Technologies, cable coaxial con el que se lograba abaratar la instalación y así aumentar la distancia entre etapas radiantes. Este controlador era el responsable, entre otras cosas, de asegurar el roaming de un operario que está en movimiento y ser atendido en marcha. Una cosa a destacar de estas redes es que carecen de técnicas de cifrado y la información viaja en claro, entre otras cosas porque son sistemas con poca capacidad de proceso para realizar un cifrado en tiempo real y solían ser redes aisladas y poco llamativas para los atacantes. Este cifrado, y disponer de mayor ancho de banda, era imprescindible si se pensaba llevar esta tecnología a las redes LAN con tarjetas como la WaveLAN de NCR.

Colección | Redes LAN inalámbricas: WaveLAN, Altair y ARLAN

Página siguiente »


© 1999-2025 A.G.YAGÜE - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress