Emisión Termoiónica y Lee De Forest
agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.
La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.
Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.
Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.
Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.
Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.
El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.
Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).
De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.
A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).
A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.
Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.
Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.
A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado. Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.
Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.
A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.
Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2) | Relés, válvulas y transistores
Restructuración de la Colección
agosto 1, 2023 on 5:59 pm | In colección | No CommentsAhora, coincidiendo que el número de piezas y documentos de la colección se aproxima a los 2000, ha sido necesaria una importante restructuración para facilitar su clasificación. Por esta razón, la galería ha pasado de las 12 áreas temáticas de las que constaba a 18. Éstas han sido situadas siguiendo un orden cronológico donde las calculadoras ocuparían la primera “sala” y la llegada de los PCs el último espacio.
Visto en perspectiva da vértigo lo que la tecnología electrónica ha evolucionado en los últimos 100 años. Apenas hace un siglo los ingenios se basaban en ruedas dentadas, mecanismos de relojería y electroimanes, mientras que los tubos termoiónicos y la radiodifusión daban sus primeros pasos.
Telegrafía, telefonía, radiodifusión, cine, televisión, informática, Internet… Tendríamos que remontarnos a la invención de la rueda o la imprenta para identificar algún paralelismo de lo que han supuesto estos avances tecnológicos en la humanidad por eso, creo que somos afortunados de haber asistido al nacimiento y desarrollo de alguno de ellos.
Disfrutad y no olvidéis que estamos en deuda con tod@s los que antes que nosotros contribuyeron a construir este paisaje. Muchos de ell@s ya no están aquí y seguro que se sentirían maravillados al hablar con un familiar por un teléfono móvil o navegar por Internet. Pensemos que, sobre sus sueños, ilusiones y esfuerzo se ha construido lo que hoy tenemos.
Primera Generación de Videoconsolas (y 2)
noviembre 1, 2022 on 8:41 am | In colección, hist. informática, hist. videoconsolas | 1 CommentAdolfo García Yagüe | En el texto anterior recordábamos como en 1972, gracias a Ralph Baer, apareció la Odyssey de Magnavox. Además de comentar su funcionamiento describimos cómo eran los primeros videojuegos y, aunque citamos algunos antecedentes, fue el lanzamiento de esta videoconsola el detonante que hizo que empresas como Atari, Nintendo y Coleco buscaran hacerse un hueco en el nuevo mercado.
Atari
A mediados de los años 60, mientras cursaba su Licenciatura en Electrónica en la Universidad de Utah, el joven Nolan Bushnell (1943) también descubrió Spacewar! y no tardó en comprender el potencial de los videojuegos en el futuro del entretenimiento electrónico. Aquello fue como una revelación y junto a su amigo Ted Dabney (1937-2018) crearon Syzygy Company para embarcarse en el diseño de una máquina recreativa que sería instalada en espacios púbicos, como un bar o un salón de juegos. Evidentemente, el coste de adquisición de esta máquina debía garantizar a su propietario el retorno de inversión en un tiempo razonable y, con aquella premisa, desecharan la idea de emplear un costosísimo ordenador y optaron por desarrollar en electrónica digital TTL una adaptación de Spacewar!. Para industrializar y comercializar esta máquina alcanzaron un acuerdo de licenciamiento con Nutting Associates y así, en 1971, llegaría al mercado Computer Space. De esta consola de monedas apenas se vendieron más de mil quinientas máquinas y su acogida fue tibia, pero, en contra de lo que cabría esperar, Bunshell y Dabney se reafirmaron en su empeño de avanzar en el mundo de los videojuegos y así, al año siguiente, fundaron Atari para absorber a Syzygy y lanzar PONG, su primer título, cuyo desarrollo fue obra de Allan Alcorn (1948).
A pesar del fulgurante crecimiento que experimento Atari durante sus primeros años, la presión de la competencia junto a unos errores contables y el fracaso de su filial japonesa la dejaron cerca de la quiebra. Para sortear aquel bache en 1973 se tomó la decisión, poco ética pero efectiva, de crear una empresa pantalla llamada Kee Games a través de la cual vender clones de sus propios juegos, y así esquivar los acuerdos de exclusividad firmados con sus distribuidores. Por otro lado, en aquel cúmulo de adversidades, en 1974 Magnavox inició una demanda contra Atari demostrando que Bushnell conoció en una presentación de la Odyssey la existencia del juego Tennis, antes de que empezase el desarrollo de Atari PONG.
Sin lugar a dudas, Atari era un reflejo del espíritu audaz y emprendedor de Nolan Bushnell a quién no le importaba transitar sobre terrenos de dudosa legalidad, contratar a empleados que estaban en el límite de la sociedad o aquellos que tenían una visión diferente de la vida, entre los que se encontraba Steve Jobs (1955-2011). Aquel ímpetu fue el que les impulsó en 1974 a poner en marcha el proyecto Darlene con el que aspiraban a conquistar los hogares.
Al frente de Darlene se colocó a Al Alcorn con el objetivo de abaratar el futuro producto a través de la integración de toda la electrónica de PONG en un único circuito integrado LSI (Large Scale Integration) y que este pudiese funcionar con baterías. Tras este hito, era necesario diseñar una atractiva envolvente para que la videoconsola destacara en el hogar y, por último, había que introducir el producto en una red de distribución que tuviese suficiente capilaridad para llegar a cualquier a cualquier rincón del país, como almacenes Sears, y ser capaces de atender la demanda de semejante cliente… Gracias a Donald “Don” Thomas Valentine (1932-2019) y su firma Sequoia Capital, Atari contó con el apoyo financiero necesario para alcanzar las citadas metas y así transformar la compañía. En este punto quiero recordar que Don Valentine es una las figuras más legendarias de Silicon Valley e hizo posible numerosos proyectos que allí han nacido.
En las navidades de 1975 se puso a la venta en todos los almacenes Sears la consola Tele-Games PONG y unas semanas más tarde Atari comercializó su videoconsola PONG C-100, que era exactamente igual, logrando así que todos los usuarios reconocieran esta marca e, inevitablemente, ser identificados con los videojuegos. Nacía así un mito universal que años después transformaría el mercado en la Segunda Generación.
Coleco
Como vimos anteriormente, el uso de componentes discretos fue abandonado en favor de circuitos integrados LSI (IC) de compañias como Texas Instruments, National Semiconductor, Mostek, Mitsubishi o General Instruments. Estas firmas pusieron a disposición de cualquier fabricante de videoconsolas un chip que reunía uno o más juegos en lo que se conoció como PONG-on-a-Chip.
De aquellos IC el más importante fue el AY-3-8500 de General Instruments (1976) y las versiones que le sucedieron. Este circuito integrado sería el corazón de miles de consolas entre la que destaca la Telstar de Coleco, no por ser la mejor sino por ser la primera que empleó el mencionado chip.
Sobre lo que quiero llamar la atención en estas líneas es sobre el efecto llamada que tuvieron estos IC para cualquiera fabricante que deseaba vender una videoconsola. La mayoría de estas firmas carecían de conocimientos y no tenían una estrategia en el mundo de los videojuegos, salvo esperar el lanzamiento de un nuevo modelo de chip y competir en precio. Así paso. Desaparecieron todas excepto aquellas, como Coleco, que fueron capaces de programar algo original años después.
Nintendo
Los orígenes de esta centenaria empresa se sitúan a finales del siglo XIX y, hasta 1974, su negocio principal fue la fabricación de juegos de mesa y cartas. En los años 70 del siglo pasado empezaron a comercializar sencillos juguetes electrónicos con los que intentaban trasformar su negocio histórico. Uno de aquellos productos era una línea de armas de juguete, los Kôsenjû Guns, que disparaban un haz de luz contra una diana de sensores ópticos para así probar la puntería del jugador. La apariencia de su rifle de juguete hizo que Magnavox contara con ellos para la fabricación del rifle que acompañaba a sus juegos Shooting Gallery. Aquello permitió a Nintendo conocer en primicia el potencial de los videojuegos y animó a los japoneses a llegar a un acuerdo de licenciamiento con Magnavox, a la vez que, de la mano de Mitsubishi, comenzaban el desarrollo del circuito integrado M58816P con los juegos -a color- de Tenis, Hockey y Voleibol. Así es como aparecería en 1977 la videoconsola Color TV-Game 6.
Resulta curioso recordar los orígenes de Nintendo a la vez que es admirable contemplar su capacidad de adaptación hasta convertirse en una de las empresas más relevantes de esta industria. Para ellos no fue suficiente hacer una consola con un chip, Nintendo supo entender la trascendencia del mercado que nacía, logrando sobrevivir a Magnavox, Atari y a muchas otras compañías de la primera generación.
… y España no fue diferente
En contra de lo que cabría pensar en España también se fabricaron consolas de la Primera Generación y, aunque el recuerdo de estas iniciativas sean un poco difuso, los productos están ahí atestiguando que algo pasó.
La primera de ellas fue Overkal, una videoconsola de la que es difícil encontrar información y lo poco que conocemos es fruto del empeño de algunos aficionados por desentrañar su pasado. Sabemos que esta máquina fue fabricada en Barcelona por la conocida firma Inter Electrónica S. A. y que llegó al mercado en la primavera de 1974. También conocemos que se vendieron unidades a través de El Corte Ingles a un precio de 9.000 pesetas. Quizás, parte del oscurantismo que rodea a este producto, se deba a que fue una atrevida copia de la Magnavox Odyssey que infringe cualquier patente y modelo de utilidad. Sabemos que Ralph Baer tenía identificada esta consola, pero, desconocemos, si Magnavox emprendió algún tipo acción legal o advertencia al titular de la fabricación o aquellos que la vendían. Poco sabemos si el desarrollo de Overkal fue producto de la iniciativa de Inter Electrónica o, un intermediario poco escrupuloso, les “vendió” la idea ya que, por las mismas fechas, en Argentina se puso a la venta una consola similar. Es fácil llegar a esta idea porque, no parece muy pruedente, que empresas del prestigio de Inter Electrónica (recordemos que en los setenta fue comprada por Grundig) y El Corte Inglés se embarcasen en desarrollar y comercializar una novedosa videoconsola que rozaba la ilegalidad. Por eso es de suponer qué, tras constatar que era un producto sobre el que podía pesar algún litigio e indemnización, la hiciesen desaparecer sin apenas dejar rastro.
Mas cercano a lo que se hacía en otros países fue la fabricación a partir de 1976 de diversas videoconsolas basadas en el IC AY-3-8500 en su versión europea o PAL. De ellas recordamos la Teletenis de Togisa (1976) y la Tele-Juego B/N-4 de Talleres Radioeléctricos Querol, TRQ (1978). Ambas consolas no presentaban ninguna novedad pero acercaron los videojuegos a los hogares españoles. Estas iniciativas ilustran bien algo que más adelante sería evidente y era que, en este ecosistema, solo tenían alguna posibilidad de sobrevivir aquellas empresas que fabricaran un hardware innovador o aquellos estudios que fuesen capaces de producir grandes títulos.
Colección | Primera Generación de Videoconsolas (1) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación
Primera Generación de Videoconsolas (1)
octubre 16, 2022 on 5:53 pm | In colección, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | En este recuerdo de efemérides no podemos olvidar que hace medio siglo llegó al mercado doméstico la primera videoconsola. A pesar de tan significativo aniversario, la historia de los juegos y los ordenadores es tan antigua como la propia tecnología informática, e incluso anterior. Esto quiere decir que hay multitud de hechos que se pueden atribuir el mérito de haber realizado la primera experiencia lúdica. Por ejemplo, gracias a las capacidades lógicas de un autómata, el español Leonardo Torres Quevedo (1852-1936) construyó en 1912 su primera versión de El Ajedrecista. También cabe destacar que, tras la Segunda Guerra Mundial y fruto de la experiencia adquirida en el cálculo de trayectorias balísticas, Thomas T. Goldsmith Jr. y Estle Ray Mann solicitaron en 1947 la patente de un juego donde, haciendo uso de una pantalla de rayos catódicos, se representaba y controlaba el disparo de un misil contra un punto móvil. Por otra parte, en la siguiente década, encontramos numerosos ejemplos de juegos Tic-tac-toe (tres en raya) desarrollados de manera experimental en centros informáticos de todo el mundo. Incluso, este conocido pasatiempo podía ser “programado” en ciertos juguetes didácticos de los ‘50 para que un aficionado entendiera el comportamiento lógico de una computadora. También es obligado recordar Tennis For Two (1958), de William Higginbotham (1910-1994), donde se empleaba un ordenador analógico y un osciloscopio para recrear una partida de tenis.
Estas experiencias merecen ser recordadas, al igual que la protagonizada por Steve Russell y los estudiantes del MIT que programaron en 1961 el influyente Spacewar!. Recordemos que aquel juego fue desarrollado en un DEC PDP-1 y se distribuyó libremente entre numerosas universidades de EE.UU. poniendo el foco en la importancia de la programación de juegos. Por ejemplo, este programa sirvió de inspiración a Bill Pitts y Hugh Tuck para construir 1971, en la Universidad de Stanford, una prueba de concepto de una máquina recreativa llamada Galaxy Game cuyo funcionamiento reposaba en un ordenador DEC PDP-11. No obstante, el texto que nos ocupa se centrará en el inicio del videojuego doméstico y como se dieron los primeros pasos de la conocida Primera Generación de videoconsolas.
Ralph Baer y la Magnavox Odyssey
Permitirme entonces que establezca el punto de partida haciendo referencia a Ralph Baer (1922-2014) quien, en 1951, mientras trabajaba en Loral Electronics y tras recibir el encargo de diseñar un receptor de televisión de prestaciones avanzadas, empezó a desarrollar el concepto. Sus ideas no prosperaron en aquel momento y tuvo que esperar hasta 1966 para retomarlas en Sanders Associates, una empresa contratista del ejército norteamericano.
A pesar de que entre los negocios de Sanders no estaba el desarrollo de soluciones orientadas al mundo doméstico, apostaron por la idea de Baer y pusieron a su disposición los recursos materiales necesarios y se unieron al proyecto Bill Harrison y Bill Rusch. Así, tras varios prototipos y la consiguiente solicitud de patente, en 1969 se contaba con una versión denominada Brown Box que podía ser la base de un producto comercial. El equipo directivo de Sanders vio claro que no tenía sentido ponerse a fabricar consolas y que, lo más acertado, sería aproximarse a los principales fabricantes de televisores entre los que se encontraban RCA, Zenith, Philco, Sylvania, Motorola, General Electric y Magnavox. La idea era darles a conocer el producto y ofrecerles los derechos de fabricación a cambio de royalties. Todas las empresas citadas, junto a alguna más, conocieron el prototipo de Ralph Baer y ninguna supo ver el potencial que tenía “jugar frente al televisor”. Afortunadamente, Bill Enders, un ejecutivo de RCA que conoció la capacidad de la Brown Box en aquellas rondas, fichó más tarde por Magnavox y lo primero que hizo fue persuadir a su nueva firma para que dieran una oportunidad al invento de Baer. Así fue como en 1971 Magnavox firmó un acuerdo con Sanders que le autorizaba a fabricar y comercializar una videoconsola denominada Odyssey según el diseño de Ralph y su equipo.
La Odyssey llegó al mercado en septiembre de 1972 a través de la cadena de tiendas de Magnavox y permaneció a la venta hasta 1975. Durante este tiempo logró una cifra cercana a las 350.000 unidades vendidas. No se puede decir que fuese un fracaso, pero, Ralph Baer no estaba satisfecho y criticaba que la consola solo se vendiera a través de los franquiciados de Magnavox y que la publicidad estuviese estrechamente vinculada a este fabricante y sus televisores, dando la sensación de que no era compatible con el resto de las marcas. Por otra parte, Baer pensaba que la Odyssey llegaba a las tiendas con un sobrecoste y que Magnavox había hinchado el precio provocando que muchos clientes no la compraran.
Otra de las inquietudes que mantuvo ocupado a Baer fue la copia indiscriminada de su idea ya que, al poco tiempo, empezaron a aparecer por todo el mundo decenas de compañías que comercializaban juegos similares a los que la Odyssey ofrecía. Curiosamente, y es un caso de estudio en algunas Escuelas de Negocios, la decidida defensa que hizo Magnavox de las patentes de Baer le granjeo más beneficios que la venta de sus consolas. Haciendo números redondos y considerando el PVP oficial de 99$, con la Odyssey se facturaron 35 millones de dólares, de donde hay que descontar costes de fabricación, marketing, distribución, margen del vendedor, etc… Mientras que en indemnizaciones ganó alrededor de 100 millones, sin descontar abogados.
Funcionamiento de la Odyssey
Es importante destacar que la propuesta de Baer se basaba en el uso de un televisor convencional, algo que empezaba a ser normal en los años 50 y 60. En cambio, nada tiene que ver con el empleo de un ordenador o ingenio similar que, en aquellos años, eran un tema poco conocido y totalmente inaccesible para un hogar. Por otro lado, desde el punto de vista de diseño, Baer tampoco consideró el uso de circuitos integrados por tratarse de una tecnología novedosa: recordemos que componentes como el Fairchild uL903 o los circuitos empleados en el ordenador IBM/360 datan de principios de los ’60. Con estos condicionantes había que ingeniárselas para que la videoconsola actuase sobre la señal de televisión recreando en ella los objetos y eventos del juego empleando solo componentes electrónicos discretos, es decir, resistencias, condensadores, diodos y transistores.
Como he comentado la Magnavox Odyssey recrea en la señal de vídeo los objetos del juego. Sobre este tema es importante aclarar que es considerado “objeto” en la Primera Generación. Objeto o personaje era, en aquellos años, un simple punto a modo de pelota o un pequeño cuadrado que hacía las veces de raqueta. También podía ser considerado como un objeto una línea vertical que delimita o define el perímetro de juego. Por lo tanto, los diseñadores de un juego de aquellos años debían idear modalidades de juego introduciendo pequeñas variaciones en la aparición de estos objetos y en su movimiento en pantalla. Para ese fin la Odyssey contaba con 6 tarjetas insertables por el usuario con las que se reconfiguraba el circuito electrónico y se seleccionaba una modalidad de juego entre 12 variantes, donde destacaban los títulos Tennis, Hockey y Sky.
La Odyssey dispone de dos mandos, uno para jugador. Cada uno de estos controles cuenta con dos potenciómetros con los que se consigue el movimiento horizontal y vertical de la raqueta. Junto a los potenciómetros recién mencionados existe un tercero denominado English para alterar la trayectoria de la pelota e intentar confundir al rival. Además, opcionalmente, los usuarios podían adquirir un rifle óptico en cuyo cañón había un fotodiodo que permitía identificar donde se encontraba el haz de electrones del tubo de imagen mientras se está representando el objeto al que disparamos. Si la señalización del rifle coincidía con la ubicación de la víctima, habías acertado el tiro. Por otra parte, se incluían unas trasparencias que se superponían sobre la pantalla del televisor para intentar recrear un escenario y así dar realismo al entorno. Por último, la Magnavox Odyssey disponía de una serie de accesorios propios de un juego de mesa como dados, cartas de preguntas o billetes de dinero con los que se enriquecía la experiencia lúdica.
En un vistazo al interior de la Magnavox Odyssey se identifican diez pequeños módulos constituidos por los componentes discretos mencionados: Dos de estos módulos son los encargados de generar los sincronismos horizontal y vertical y son usados para crear una señal de televisión analógica y son la referencia temporal que hace que el resto de módulos sepan cuando han de funcionar; los siguientes dos módulos generan a cada jugador (raquetas) y su posición, modificando el nivel de luminancia de la señal de video; otro módulo genera la pelota también como una señal de luminancia; el siguiente de los módulos es el responsable de generar una línea vertical para delimitar el campo que es, una vez más, generado a partir de la luminancia; el siguiente módulo está encargado del movimiento de izquierda a derecha y viceversa de la pelota (Ball Flip-Flop); el módulo English Flip-Flop también está relacionado con el control de la pelota y es capaz de cambiar su trayectoria haciendo que suba o baje súbitamente; con siguiente módulo, llamado Gate Matrix, se identifica una colisión entre jugador y pelota y también se señaliza un cambio de trayectoria; por último, el módulo Summer es el responsable de integrar las señales anteriores de luminancia junto a los citados sincronismos vertical y horizontal. A la salida de Summer ya contamos con una señal de video compuesto en blanco y negro que, tras pasar por un modulador de radiofrecuencia VHF, puede ser visualizada en un televisor antiguo.
Magnavox Odyssey 100
Trascurridos los primeros años de la Odyssey, Ralph Baer y Magnavox eran conscientes que el diseño electrónico con componentes discretos no era el más apropiado por costes y fiabilidad de la propia videoconsola. Por otra parte, también se dieron cuenta que los usuarios de un entretenimiento electrónico no querían perder el tiempo leyendo complicadas reglas de juego, pegar trasparencias en la tele o entretenerse con mil cachivaches como los que acompañaban a la Odyssey, es decir, querían inmediatez: enchufar y jugar.
Con estas consideraciones apareció la Magnavox Odyssey 100. En esta videoconsola solo se podía jugar al Tenis y al Hockey y, en una única estructura, se integraban los controles para dos jugadores junto a unos cursores deslizantes con los que se llevaba un control de las partidas ganadas. La Odyssey 100, que llegó al mercado hacia octubre de 1975, también sustituía el uso de componentes discretos reuniendo sus capacidades en cuatro circuitos integrados de Texas Instruments e introduciendo, como novedad, un sonido muy básico.
Tras el modelo 100 aparecieron otros, pero se notaba que Magnavox hacía, más o menos, lo mismo que el resto de los competidores. En 1975 Philips se hizo con el control de esta legendaria compañía (recordemos que Magnavox fue fundada en 1915 y fueron los precursores del altavoz electrodinámico) y, entre sus prioridades, estuvo el desarrollo y lanzamiento en 1978 de DiscoVision. Aquel mismo año haría otra presentación importante: la Odyssey 2, también conocida como Philips Videopac G7000… pero eso es otra historia y pertenece a la siguiente generación de videoconsolas.
Hasta aquí este breve recuerdo a la Magnavox Odyssey. En la siguiente entrada presentaré la aproximación que siguieron en aquellos años empresas como Atari, Nintendo y Coleco.
Colección | Primera Generación de Videoconsolas (y 2) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación
40 años del Compact Disc
septiembre 2, 2022 on 5:04 pm | In colección, hist. sonido y música electrónica | No CommentsAdolfo García Yagüe | El tiempo pasa y la tecnología cambia, y si alguien no lo sabe, dentro de unas semanas se cumplirán 40 años desde que se puso a la venta el primer reproductor de Compact Disc (CD). Fue el 1 de octubre de 1982 cuando Sony comercializó en Japón el CDP 101 y semanas después le siguió el CD 100 de Philips. Con ambos equipos, y con los que llegaron después, nos introdujimos en el Universo Digital.
La codificación con ceros y unos (PCM, Pulse Code Modulation) se concibió décadas atrás, en 1937, por Alec Reeves (1902-1971). Posteriormente, en 1948, los Bell Labs publicarían el imprescindible The Philosophy of PCM donde Bernard M. Oliver (1916-1995), John Robinson Pierce (1910-2002) y Claude Shannon (1916-2001) describen esta codificación y los beneficios de la transmisión digital de la voz en redes telefónicas. La trascendencia de estos trabajos en las Telecomunicaciones es inmensa, pero quedaba un poco alejado de nuestra cotidianidad. Fue con la llegada del CD cuando comprobamos que todo podía ser digitalizado y que, en la dimensión binaria, el sonido era perfecto e inmune a la presencia de polvo en el disco, un arañazo y duradero tras un uso continuado. Por fin desaparecían aquellos molestos clics y otros ruidos, y nos ponía tras la pista de algo más importante como es la posibilidad de procesar un contenido digital, trasmitirlo, almacenarlo o copiarlo indefinidamente. Esto que digo, que hoy parece evidente, en el aquel momento no lo era para muchos de nosotros que estábamos acostumbrados a tratar con soportes analógicos como discos de vinilo, casetes, vídeos VHS o la trasmisión de la televisión.
Sony y Philips
Durante la década de los setenta del siglo pasado la codificación PCM y las aplicaciones comerciales para digitalizar sonido e imagen eran temas punteros. Por ejemplo, en 1977 Sony comercializó el PCM-1, un módulo con el que era posible digitalizar audio y generar a partir de él una señal de vídeo que podía ser grabada en un video Betamax. A continuación, al reproducir esa cinta Beta y entregar la señal de vídeo al módulo PCM-1, se hacía la conversión de digital a analógico para proceder a su escucha.
Por otra parte, es difícil entender el Compact Disc sin recordar el DiscoVision de Philips (posteriormente renombrado como LaserDisc por Pioneer). Aunque difieren en el tamaño de sus respectivos discos y el LaserDisc era analógico, ambas tecnologías comparten soporte óptico y una técnica similar de lectura mediante un haz láser. Evidentemente, aquella experiencia de Philips le permitía avanzar por un terreno conocido.
No obstante, para tener éxito en el desarrollo de nuevo formato de disco, había que tener el respaldo del resto de mercado y cambiar una dinámica establecida desde hace casi 100 años por las compañías discográficas. Por este motivo, la clave del éxito, fue que Philips y Sony unieron sus fuerzas para trabajar en unas especificaciones comunes y no intentar imponer una solución propietaria. Aquello significó que dejaron a un lado sus rivalidades comerciales y sacaron lo mejor de cada casa para lograr persuadir al resto y así conseguir la ansiada adopción universal.
En Internet podéis encontrar cientos de textos contando los pormenores del desarrollo, alguno con un toque de leyenda urbana, como en aquel donde se afirma que el tamaño de los discos compactos está relacionado con la duración de la 9ª Sinfonía de Beethoven. También, y más real, leeréis como el prestigioso Herbert von Karajan (1908-1989) se involucró en la promoción del Compact Disc avalando la calidad de su sonido.
CDP 101 vs. CD 100
Ambos equipos cumplen con las especificaciones pero en su interior hay un matiz importante. En el CD 100 de Philips cada canal de audio (izquierdo y derecho) cuenta con un circuito independiente para la conversión digital-analógico (DAC) de 14 bits con sobremuestreo. En cambio, en el reproductor CPD 101 de Sony, solo se dispone de un DAC de 16 bits con el que se hace alternativamente la conversión de cada canal, existiendo una diferencia -no apreciable- de 11µs. Es decir, el audio derecho y el izquierdo no están sincronizados. Externamente, y a pesar de ser contemporáneos, sus diferencias son más evidentes y nos hace reflexionar sobre la evolución posterior que ha sufrido cada compañía.
El reproductor CD 100 de Philips es un equipo acabado en aluminio de diseño espartano. Sus diminutos pulsadores, el uso que se hace de los leds para indicar el número de pista de audio o el receptáculo del disco denotan que fue creado según el estilo imperante en los ’70. En cambio, el Sony CPD 101 es un equipo que delata que fue desarrollado por una empresa con ímpetu innovador y con ambición de destacar frente a la competencia: su color negro y el llamativo distintivo de color naranja “It’s a Sony”, pulsadores amplios y bien definidos, el display VFD (Vacuum Fluorescent Display), el mando a distancia, la salida de auriculares, el timer o la bandeja porta CDs… Estaba claro que los años 80 serían de Sony mientras que la línea de electrónica de consumo de Philips daba señales de agotamiento.
Tras el CD 100 y CDP 101 llegararían cientos de reproductores de CD entre los que cabe destacar en 1984 el Discman D-5 de Sony. Dos años después Philips puso en el mercado el reproductor CM 100 para discos CD-ROM y con ellos se inició la revolución multimedia.
Hoy, tras cuarenta años, el uso de los CDs está en retroceso y la única justificación que nos impulsa a comprar uno es la querencia que algunos tenemos por mantener la música en un soporte material.
Colección | Primeros pasos del fonógrafo Edison en España | Re-inventando la grabación en vinilo… | Walkman de Sony, un hito de la cultura pop | Grabación Magnética | Grabación magnética de vídeo | El Videodisco
Música Concreta y Tape Music
julio 30, 2022 on 9:55 am | In arte sonoro, colección, hist. sonido y música electrónica | 1 CommentAdolfo García Yagüe | A comienzos del siglo pasado las artes plásticas evidenciaban una importante evolución. Con menor intensidad este fenómeno empezaba a sentirse en la música y en su entorno académico, provocando que muchos artistas buscaran nuevos sonidos a través de la experimentación con instrumentos tradicionales y étnicos, así como en la investigación de nuevas estructuras compositivas. Recordemos que, en aquellos años, gracias al movimiento Futurista, se pondrá en valor la capacidad de los ruidos y la generación de estos a través de llamativos instrumentos. Por otra parte, con la irrupción del triodo termoiónico y el desarrollo de la radio, será posible construir artefactos para generar sonidos y, por último, el fonógrafo, el gramófono y el registro magnético sobre un hilo de acero harán posible el milagro de la grabación.
En las siguientes décadas tendrá lugar el desarrollo de la radiodifusión y la televisión. Es cuando la mayor parte de las emisoras recurren a archivos de sonidos (grabados en discos de goma laca y acetato) para acompañar y realzar sus programas dramáticos. Generalmente, estas bibliotecas acústicas fueron realizadas en departamentos donde se amontonaban objetos para simular efectos de sonido. La aparición de equipamiento cada vez más sofisticado hace necesaria la incorporación a este trabajo de ingenieros, técnicos y académicos con conocimientos musicales. Es así como se establecen, dentro de las principales emisoras, los primeros laboratorios de sonido.
Con la nueva tecnología de los grabadores de cinta magnética se resolvía la funcionalidad básica, es decir la grabación, pero cuando uno de estos magnetófonos caía en manos de un técnico inquieto no tardaba en descubrir que las posibilidades sonoras podían aumentar si alteraba la velocidad de reproducción, cambiaba el sentido de giro de las bobinas mientras sonaba un sonido, o se cortaba y empalmaban fragmentos de cinta magnética transformando así el sonido original. Aunque esta manipulación era un proceso laborioso, permitía a un creador capturar y “fabricar” sonidos que antes solo existían en su imaginación. Inicialmente se empezó operando y modificando los magnetófonos de una forma casi intuitiva, pero, más adelante, se establecieron un conjunto de técnicas con las que hacer, entre otras cosas, loops de sonidos, ecos, superposiciones y espacialización.
Esto, que coincidió con un resurgir artístico tras la Segunda Guerra Mundial, es el inicio de la Música Concreta en Europa y de la Tape Music en EE.UU. Ambas disciplinas diferían en su modo de entender la composición sonora, pero tenían en común el uso intensivo que se hacía del magnetófono.
El equipo que acompaña estas líneas es de aquellos años. Se trata de un Soundmirror BK-455P de Brush Development y fue uno de los primeros que se comercializó en EE.UU. y Reino Unido. De él destacan varias cosas: en primer lugar, su acabado portable; el micrófono de cristal; su ojo mágico que sirve de vúmetro y su entrada para conectarlo a fuentes externas de sonido. Internamente tiene un diseño electrónico impecable y, en nuestro caso, tras casi 70 años, sigue funcionando a la perfección. Este equipo llegó al mercado acompañado de cintas magnéticas de papel de Soundmirror. Recordemos que el empleo del papel fue efímero y en su lugar se impusieron las cintas -más resistentes- de acetato y plástico.
Música Concreta
Hablar de Música Concreta nos obliga a mencionar a Pierre Schaeffer (1910-1995), su artífice. Aunque hay referencias anteriores como la del egipcio Halim El-Dabh (1921-2017), quien a comienzo de los años 40 ya recurría a la grabación de sonidos o paisajes para su posterior creación artística, es con Schaeffer con quién se sistematiza el trabajo con sonidos grabados y estos alcanzan una nueva dimensión.
La formación de Schaeffer era la de Ingeniero especializado en telecomunicaciones y emisiones radiofónicas. Su pasión por el sonido y la música procedía de la influencia de sus padres, ambos músicos. Con sus conocimientos empezó a trabajar en la Radiodiffusion Télevision Française (RTF) en París. En 1942 logró persuadir a esta institución para poner en marcha un laboratorio para la investigación en la ciencia de la acústica musical, el Studio d’Essai. En aquellos inicios es donde reside su forma de entender y proyectar su contribución a la música ya que Schaeffer seguía un método repleto principios y postulados, y contaba con amplios conocimientos técnicos. Esto se deduce tras hojear su diario donde deja constancia de sus primeras experiencias o Études. En el plano más técnico, hay que recordar su contribución al desarrollo, junto al ingeniero de la RTF Jacques Pollin, del Fonógeno y el Morfófono. El primero consistía en un magnetófono que funcionaba con doce velocidades distintas de cinta (escala cromática) y se controla a través de un teclado. Por su parte, en el Morfófono la cinta pasaba por delante de diez cabezales de reproducción donde, cada uno de ellos, estaba asociado a un filtro. De esta forma podíamos seleccionar un carácter diferente para cada sonido.
De lo anterior se deduce que, aunque Schaeffer contara con un gen artístico, no estaba sujeto al corsé del mundo académico, lo que le habría dificultado elaborar ideas tan atrevidas para su época. El primer concepto innovador que hace es la definición de objeto sonoro y su diferenciación de cuerpo sonoro. Para Schaeffer un cuerpo sonoro es aquel que produce cualquier tipo de sonoridad o ruido, sin importar su naturaleza. Mientras que objeto sonoro es esa sonoridad o ruido y es el punto de partida de su obra. El trabajo con los objetos sonoros comienza aislando estos mediante la grabación magnética. A continuación, es necesario procesarlos e intervenir en su amplitud, tono y envolvente de tal forma que no quede un rastro apreciable que permita al oyente relacionar fuente y objeto. Una vez más, esta manipulación se hace mediante cintas magnetofónicas.
Otro planteamiento donde difiere es en el proceso de elaboración de una obra. Tradicionalmente, se parte de una partitura y se llega a un resultado mediante el uso de unos sonidos. Pues bien, como se pone de manifiesto en el párrafo anterior, el inicio de la obra es la elaboración de objetos sonoros, es decir, la producción en el laboratorio para, posteriormente, hacer una composición. Hay que decir que, en este marco de trabajo, la partitura y su notación tradicional carecen de sentido y se trabaja con una representación gráfica de la secuencia de sonidos.
Por último, también es novedoso, el concepto de representación pública de una obra: Al tratarse de un trabajo que se desarrolla en el laboratorio y en el estudio, no se considera la interpretación habitual frente a los espectadores, sino la reproducción desde cinta magnetofónica a través de altavoces, sin importar que la audiencia se encuentre en una sala de conciertos o esté cómodamente sentada en casa.
En definitiva, hablamos de algo concreto cuando es real, por eso Schaeffer se refería a su música como concreta para recordarnos que una sonoridad o ruido es real y así lo percibe nuestro oído y un micrófono y, posteriormente, un objeto sonoro sigue manteniendo su realidad en una cinta magnética, no en la partitura.
Por el Studio d’Essai, renombrado posteriormente como Club d’Essai, pasaron importantes nombres entre los que destaca Pierre Boulez (1925-2016), Iannis Xenakis (1922-2011), Karlheinz Stockhausen (1928-2007) o Edgard Varèse (1883-1965). Pierre Henry (1927-2017) fue el colaborador más importante que tuvo Pierre Schaeffer y con el que firmó Symphonie pour un homme seul en 1950, una de las obras más relevantes de la Música Concreta y donde, sin duda, mejor se llevaron a la práctica los fundamentos de Schaeffer. Muchos estudiosos coinciden en afirmar que, gracias a esta obra, la Música Concreta logró impacto histórico ya que, en su momento, sus formas poco ortodoxas no eran bien valoradas por la mayoría de los críticos y parte de la comunidad artística, y solo encontraba un nicho de aplicabilidad en la creación de música y sonidos para la ambientación radiofónica.
Music for Magnetic Tape Project
En EE.UU. las primeras experiencias en grabación y manipulación del sonido con cintas magnéticas tienen lugar hacia 1948 y son obra de la pareja formada por Louis (1920-1989) y Bebe Barron (1925-2008). Estas se desarrollaron en su apartamento-laboratorio del Greenwich Village. Imaginar la efervescencia cultural de este bohemio y cosmopolita barrio de New York tras acabar la guerra… y una pareja haciendo sonidos de ciencia ficción. Aquello atrajo a artistas como John Cage (1912-1992), Morton Feldman (1926-1987), David Tudor (1926-1996), Christian Wolff (1934) y Earle Brown (1926-2022) quienes, junto con los propios Barron, montarían entre los años 1951 y 1953 el Music for Magnetic Tape Project.
Music for Magnetic Tape Project fue un espacio de desinhibida creatividad donde sus miembros no estaban sujetos a perímetros preestablecidos, como si sucedía con la Música Concreta. En sus composiciones existen, evidentemente, sonidos generados por magnetófonos, pero también se aprecia el uso de otros instrumentos, emisiones de radio o el empleo del azar como elemento compositivo. De aquel momento, las obras más relevantes serían Imaginary Landscape No. 5 (1951-52) y Williams Mix (1952) de Cage; For Magnetic Tape (1952-53) de Wolff y Heavenly Menagerie (1951-52) de los Barron. Tras el corto periodo de vida del MMTP, cada uno de sus miembros siguió caminos distintos, pero todos alcanzarían renombre en el panorama de la música experimental. El caso de los Barron es especialmente significativo porque, en 1956, firmaron la fantástica banda sonora de la película de ciencia ficción Forbidden Planet.
Tape Music
La Tape Music hay que entenderla como una etiqueta genérica bajo la que se situaron la mayor parte de las obras electroacústicas producidas en la década de los 50 en EE.UU. Este término fue empleado por primera vez por el musicólogo Olivier Daniel (1911-1990) en 1952 para referirse a un tipo de música experimental basada en la manipulación de sonidos mediante el uso de cintas magnéticas. Años después, en 1957 y tras la incorporación del Sintetizador RCA y el progresivo uso de otras técnicas como la Computer Music, dejaría de tener sentido seguir hablando de Tape Music.
El epicentro se situó entre las Universidades de Columbia y Princeton, Nueva York y Nueva Jersey, respectivamente. Allí se puso en funcionamiento en 1958 el Columbia-Princeton Electronic Music Center impulsado por Vladimir Ussachevsky (1911-1990) y Otto Luening (1900-1996), con el apoyo económico de la Fundación Rockefeller. El germen de tan importante institución hay que localizarlo años atrás, en el Experimental Music Studio de Ussachevsky donde, en 1951, empezaría a realizar sus primeras experiencias con cinta magnética para presentarlas, al año siguiente, en la Universidad de Columbia.
El Columbia-Princeton Electronic Music Center ha sido el referente de importantes artistas, entre los que cabe citar a Milton Babbitt (1916-2011), el antes citado Halim El-Dabh, Luciano Berio (1925-2003), Edgard Varèse o Wendy Carlos (1939). Esta institución no pretendía -ni pretende- un estricto rigor como el aplicado en la Música Concreta, ni tampoco una indefinición de sus límites como el llevado a la práctica en el Music for Magnetic Tape Project. Por estas razones la música que se hizo en sus primeros años con cinta magnética no buscaba abandonar las formas tradicionales de composición o inventar nuevas tonalidades, era un recurso -tecnológico- más a disposición de los artistas.
Colección | Primeros pasos del fonógrafo Edison en España | La Música Eléctrica del Cura Castillejo | El Futurismo | El Arte de los Ruidos. Manifiesto Futurista | Russolo y las máquinas del ruido | Re-inventando la grabación en vinilo… | Grabación Magnética
El Aritmómetro
junio 1, 2022 on 7:25 pm | In colección, hist. informática, matemáticas | No CommentsDiccionario Enciclopédico Hispano-Americano (1887) | Del francés arithmomètre y del griego άριθμός, número y μέτρον, medida. La simplificación de los cálculos se ha considerado siempre asunto tan importante, que mereció, desde hace mucho tiempo, que los sabios matemáticos más notables dedicaran a este estudio su inteligencia y su actividad. Entre ellos citaremos a Neper, Pascal, Leibniz y Babbage.
Los instrumentos de cálculo inventados hasta ahora se pueden dividir en tres clases: 1ª aquellos que exigen el empleo de la inteligencia humana; 2ª las máquinas automáticas que suplen por completo a esta última, y 3ª las tablas donde se encuentran hechos los cálculos, o, por lo menos, preparados. Mr. Th. Olivier, en un folleto sobre la máquina de Roth, consignó que desde 1624, en que Gunther construyó la regla de cálculo, hasta 1840, se habían inventado 20 instrumentos de la primera especie y 17 de la segunda. En este artículo solo nos ocuparemos de estos últimos.
Las 17 máquinas autómatas citadas, se pueden clasificar en tres géneros distintos: 1º aparatos sumadores; 2º aparatos para ejecutar las cuatro operaciones fundamentales de la Aritmética, y 3º aparatos destinados a ejecutar cálculos superiores.
Primer género. Entre éstos citaremos la máquina de Pascal, cuya invención consumió parte de la vida de este matemático, y que, a pesar de la inteligencia de su autor, fue un aparato pesado, voluminoso, y, sobre todo, imperfecto; la de Lepine de difícil aplicación, y la de Roth, construida en 1843, y que resolvía por completo el problema.
Segundo género. Leibniz presentó el proyecto de una máquina de esta clase, que no llegó a construir por ser demasiado costosa. Lord Mahon inventó en 1776 dos máquinas de cálculo; una para sumas y restas; la otra para multiplicaciones y divisiones, cuyo mecanismo es desconocido. En 1822 M. Thomas de Colmar presentó a la Société d’encouragement una máquina de calcular, a la que dio el nombre de Aritmómetro, que, perfeccionada después, obtuvo un premio de esta Sociedad en 1851, y cuyo estudio va ser el objeto de este artículo.
Tercer género. Mr. Babbage proyectó en 1821 una máquina que daba los términos de una progresión por diferencia; después Mr. Scheutz otra para la formación de series, y más adelante se propusieron otras varias que juzgamos inútil citar.
Descripción del Aritmómetro. El aritmómetro se compone de una caja de 38 centímetros de longitud por 16 cm. de ancho y 7 cm. de alto, en el modelo pequeño, y de 55 cm. de largo, con el mismo ancho e igual altura en el tipo grande. Abierta la caja se encuentra una manivela N, terminada por un botón de marfil que se puede levantar y bajar; la citada manivela N no puede girar más que de izquierda a derecha, y sirve como motor al resto del mecanismo. A la izquierda de N hay una serie de ranuras paralelas, en donde deslizan botones A de cobre, y al lado de aquellas se escriben los números de cero a nueve.
La primera ranura de la derecha representa las unidades sencillas, la segunda las decenas, la tercera las centenas, y así sucesivamente. Se dice que se escribe un número, cuando se pone el botón A enfrente de la cifra que la representa. A la izquierda de este conjunto de ranuras hay otra más pequeña en donde se mueve el botón B; en su parte superior lleva escrito: Adición y Multiplicación, y en la inferior, Sustracción y División. Encima de este conjunto de partes, hay una larga y estrecha platina MM, susceptible de levantarse y de poderse correr de izquierda a derecha por medio del botón P. En la platina MM hay abiertos una serie de cuadros C, armado cada uno de ellos de un agujero que lleva las cifras de cero a nueve, y que se mueve por medio de un botón C. Debajo de estos, y sobre la misma platina, hay otros agujeros más pequeños, armados también con sus correspondientes cuadros y botones D, y, por último, a la derecha de la figura hay un botón O, destinado a poner el cero de los cuadros enfrente de los agujeros de la platina.
Mecanismo. Debajo de la platina general que cubre el aparato, hay un sistema de engranajes que constituyen su mecanismo, cuya teoría científica vamos a exponer en breves palabras. La máquina que forma el aritmómetro, se compone de cierto número de cilindros colocados paralelamente los unos a los otros, y movidos por el mismo árbol, de tal manera que cada vuelta de la manivela N, los cilindros hacen también una revolución.
Los cilindros están armados de resaltos en una parte de su circunferencia, la mitad generalmente, como veremos después, dispuestos de tal manera, que en unos puntos los cilindros están completamente lisos, en otros presentan una especie de diente, en otros dos, y así hasta nueve, número máximo de resaltos que tiene el sistema. Encima de cada cilindro hay un piñón, cuyo eje es paralelo al de éste, y que puede correr sobre él, de tal modo que es fácil colocarlo delante de la parte cilíndrica que se quiera. Estos piñones están unidos a los botones D, de tal suerte que cuando éstos se colocan enfrente de una de las cifras que llevan las ranuras, la pequeña rueda encuentra en el cilindro motor otros tantos resaltos o dientes y por tanto su eje, al moverse la máquina, da igual número de vueltas.
En el extremo del eje que conduce el piñón, hay otro fijo que hace girar a uno de los cuadros numerados que hay que hay debajo de los agujeros C de la platina, y hace que las cifras vayan apareciendo sucesivamente en el fondo de la abertura.
Supongamos, para fijar la atención, que el número de cilindros, cuadros, ranuras y piñones es seis; y admitamos además que todos los cuadros están a cero y que tenemos escrito en las ranuras de la máquina un número de seis cifras; por ejemplo: 745721. Es evidente que, al dar una vuelta a la manivela, el primer cuadro correrá tan solo una cifra, y el segundo dos, el tercero siete, el quinto cuatro y así los demás, con lo cual aparecerá en la fila superior de agujeros de la platina, el número 745721 que teníamos escrito en las ranuras de la máquina. Si ahora escribimos el número 133178, y damos de nuevo una vuelta a la manivela, se comprenderá fácilmente que en la platina aparecerá la suma de los números anteriores, o sea 878899. De esta manera se podría continuar hasta que la suma de las cifras de un cierto orden sea mayor que nueve, en cuyo caso hay que añadir una unidad a la suma siguiente, o lo que es lo mismo, correr un lugar el cuadro correspondiente. Para ejecutar este movimiento, al llegar uno de los cuadros a la cifra 9, arma un engalgue que va ligado al siguiente, y al terminar la operación de la suma, que se verifica en una semirevolución del eje, pues los resaltos o dientes solo ocupan una semicircunferencia, se aprovecha la motriz de la semirevolución restante, para soltar el engalgue y hacer avanzar un lugar el cuadro siguiente que sigue al que se considera. Tal es en pocas palabras la teoría del Aritmómetro, no entrando por falta de lugar, a describir los engranajes y piezas accesorias que facilitan estos movimientos.
Si la manivela N en lugar de girar de izquierda a derecha lo hiciera de derecha a izquierda, la operación anterior se transformaría en una resta; pero para evitar que la manivela N tenga estos dos movimientos, el aritmómetro lleva un botón B, que al deslizar en su ranura cambia, por medio de un sencillo conmutador, el sentido de la marcha.
Suma. Para sumar los números A, B y C se escribe primero la cantidad A en las ranuras de la máquina, se da una vuelta a la manivela N, y este número aparece en los agujeros C. Después se escribe en las ranuras A el número se escribe en las ranuras A el número B y se encuentra en la platina M la suma A+B sin más que hacer girar la pieza N. De una manera análoga se encontrará la cantidad A+B+C, y así sucesivamente si hubiera más sumandos. Hay que advertir que, para ejecutar esta operación, el botón B debe marcar: Adición y Multiplicación.
Resta. Para restar los números A y B se empieza por poner el botón B enfrente de la indicación: Sustracción y División. Se escribe el minuendo en los agujeros C de la platina, ya por medio de los botones C, ya previamente con las ranuras A; después se escribe en éstas el sustraendo B, se hace girar la manivela N y la resta aparece en las aberturas C de la platina M.
Multiplicación. Si se trata de multiplicar un número A por un dígito 5 por ejemplo, se escribe la cantidad dada en las ranuras A, y se da cinco vueltas la manivela N, y en los agujeros C de la platina M aparecerá el producto 5 A, y en las pequeños aberturas D el multiplicador 5. Si queremos multiplicar la cantidad S por el número polidígito 3457 por ejemplo, se procede de la siguiente manera: se multiplica primero S por 7, después se corre la platina M hasta que el segundo agujero D se encuentre enfrente de la primera ranura A, y se dan cinco vueltas a la manivela; se corre después otro lugar a la platina y se repite la operación con el cuatro y así sucesivamente. Es evidente que el numero final será el producto que se busca, puesto que es la suma, convenientemente colocada, de los productos parciales 7 S, 5 S, 4 S y 3 S.
División. Para hacer una división por medio del aritmómetro, se escribe el dividendo en las aberturas C y el divisor en las ranuras A, se toma la parte del dividendo que, dividida por divisor, da la primera cifra del cociente, y se corre la platina hasta que la ultima cifra de aquella coincida con la primera ranura A. Después se baja el botón B hasta que marque Sustracción y División, y se resta la parte del dividendo tantas veces como se pueda el divisor, cuyo numero aparecerá en la apertura correspondiente D y será la primera cifra del cociente. Hecho esto se corre un lugar hacia la izquierda la platina M, y se resta tantas veces como se pueda el nuevo dividiendo el divisor, y se encontrará en las aberturas D la segunda cifra del cociente. Por este procedimiento podremos encontrar todas las cifras de este número y el resto de la división.
Potencias. La cuestión queda reducida a multiplicar, por medio del aritmómetro, un numero por sí mismo para el cuadrado; este producto por el número primero por la tercera y así sucesivamente.
Raíz cuadrada. Para ejecutar esta operación basta seguir la regla general que indica la aritmética, haciendo por medio del aritmómetro las operaciones parciales.
Colección | Máquinas de Cálculo | Datos, censo y tabuladoras | Inicios de la Industria Informática
Realidad Virtual (2). Llegada al mercado
marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.
Algo común en los visores de aquella época es su baja resolución de imagen y la carencia de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de los ordenadores -o videoconsolas- de aquel momento contaban con capacidad suficiente para generar gráficos en tiempo real adaptados a cada perspectiva.
Industria de los Videojuegos
Como he comentado, la industria del videojuego fue la primera en introducir productos que intentaban aumentar la experiencia inmersiva del usuario, aunque, en honor a la verdad, aquellas primeras apuestas carecían de nivel para ser tomadas en serio.
Nintendo fue una de las empresas más activas en el terreno del visionado 3D y, aunque no se considere RV en el sentido estricto del término, en 1987 lanzó en Japón un visor para su consola Famicom. El Famicom 3D System contaba con unas gafas cuyas lentes eran de cristal líquido y empleaban la técnica Active Shutter. Como todos sabéis, al aplicar una tensión a un cristal líquido este cambia de polaridad óptica consiguiendo hacerlo opaco o transparente. Este cambio, que se hacía a alta velocidad, estaba sincronizado con la imagen proyectada en el televisor donde, secuencialmente, aparecían las dos imágenes con las que se formaba la ilusión estereoscópica. A diferencia de la videoconsola Nintendo Famicom, el fracaso comercial de Famicom 3D System fue mayúsculo y solo unos pocos títulos aprovecharon la citada capacidad.
El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor de realidad virtual para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.
A pesar de estos tropiezos, la industria del videojuego no tiró la toalla. Nintendo hizo una nueva aproximación al mercado con la extraña Virtual Boy. Lo primero, y más llamativo, es que era un visor con trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior con la consiguiente incomodidad y fatiga. Parece ser que con este diseño se pretendía evitar accidentes si alguien decidiese desplazarse con el visor puesto…
Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la videoconsola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.
Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.
Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. A pesar de este pseudo incremento de resolución y su capacidad estereoscópica, esta consola con visor RV fue otro sonado fracaso y apenas duró un año en el mercado.
Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.
Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.
Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte, incluso alguna volvió a recurrir a la técnica Active Shutter junto a controladores de vídeo especiales para hacer del PC un equipo 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.
Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]
Realidad Virtual (1). Regreso al Futuro
febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash (1992) de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…
Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.
Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un desajuste emocional.
Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.
Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.
Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.
También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.
Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.
Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.
Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.
Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.
En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove– con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.
Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.
Apple Lisa y el GUI
febrero 3, 2022 on 7:52 pm | In colección, hist. informática | No CommentsAdolfo García Yagüe | Hace unos días recordaba la aparición de la versión 3.0 de Windows. Como decía, con esta versión Microsoft logró que los usuarios de un PC empezáramos a considerar el uso de un GUI (Graphic User Interface). También ayudó el lanzamiento de un conjunto de herramientas ofimáticas específicas para este entorno. Aunque Microsoft llevaba ofreciendo Windows desde el año 1985, siempre fue algo secundario y este GUI no terminaba de convencer. Quizás, una de las razones, tenía que ver con que este entono no era un sistema operativo real y era un añadido gráfico al MS-DOS. Evidentemente, esto limitaba su capacidad multitarea y potencia. Por otra parte, hay que recordar, que en aquellos años la mayoría de los PCs estaban basados en el Intel 8088/8086 y eran pocos los usuarios que contaban con un disco duro.
Las citadas limitaciones de los PCs no tenían nada que ver con los Apple Macintosh. Apple, y más concretamente Steve Jobs (1955-2011), supieron ver la importancia de un entorno gráfico para lograr que los ordenadores llegaran a más gente. Realmente, antes que Jobs, el mérito de la invención y uso de un GUI corresponde Xerox con sus ordenadores Alto (1973) y Star (1981). En cualquier caso, los aportes de Apple fueron decisivos y consiguieron que el GUI fuera conocido tras el lanzamiento del Apple Lisa en 1983.
El desarrollo de esta máquina sería el origen de agrios enfrentamientos entre Jobs y el equipo encargado de su desarrollo. Fruto de estas tensiones Steve fue apartado para no interferir en las decisiones de diseño y expulsado a un edificio donde empezó, según su criterio, el desarrollo del Apple Macintosh. En lo personal Lisa también encierra uno de los demonios que acompañaron a Jobs durante algún tiempo acerca de la paternidad y la áspera relación que mantuvo con su hija Lisa Brennan-Jobs (1978). En aquel momento Steve se refería a LISA como un acrónimo de Local Integrated Software Architecture.
En los primeros meses de su comercialización Lisa venía equipado con dos unidades de diskettes llamadas FileWare. Rápidamente, Apple se percató de su error al querer salirse de los estándares y el Lisa 2 ya se suministró con un floppy de 3” ½ y a los clientes de FileWare se les ofreció -sin coste- el cambio de unidad. Este ordenador también contaba con la posibilidad de añadir un disco duro de 5MB gracias al Apple ProFile, que ya era conocido desde el Apple III. No obstante, lo más impactante, fue la incorporación de un entorno gráfico y un ratón inspirados en lo que los ingenieros de Apple conocieron en Xerox.
Colección | IBM Personal Computer 5150 | BIOS y Clean-room Design
(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress