La radio en España. Pioneros (1)
noviembre 2, 2024 on 1:15 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. telecomunicaciones | Comentarios desactivados en La radio en España. Pioneros (1)Adolfo García Yagüe | La invención de la radio es uno de los logros más importantes del progreso de la humanidad. Aquellas primeras trasmisiones que cruzaron el Canal de la Mancha o, en el caso español entre Tarifa y Ceuta, trasformaron radicalmente el siglo que comenzaba y fueron el origen de una revolución aun mayor dominada por la electrónica y las telecomunicaciones. En la actualidad, más allá de algún aficionado y estudioso en la materia, pocos conocen como comenzó esta historia. Por este motivo, en esta serie de textos, intentaré resumir lo qué pasó en nuestro país hace más de 100 años. Os pido disculpas por los posibles errores cometidos, apreciaciones equivocadas y omisiones que echéis en falta.
Julio Cervera Baviera
Como no podía ser de otra forma, este recorrido comienza recordando la figura del comandante Cervera, protagonista indiscutible de los primeros instantes de la radiocomunicación en España. Julio Cervera Baviera (1854-1927), natural de Castellón, ingresó en el Ejercito en 1874 y años más tarde pasó a la Academia de Ingenieros del Ejército en Guadalajara. Entre los años 1884 y 1887 realizó diferentes viajes expedicionarios por el interior de Marruecos donde comprobó la importancia de mantener contacto con las plazas españolas. Fruto de aquella necesidad, dirigió su atención hacia las noticias que relataban que un desconocido Guillermo Marconi (1874-1937) había logrado establecer una comunicación telegráfica entre dos puntos distantes a través del éter. Por esta razón, en 1899 el ejercito encomendaría a Cervera la misión de viajar a París y Londres para conocer más detalles sobre la técnica empleada por Marconi y su aplicabilidad militar. No olvidemos que, en aquel momento, para satisfacer las comunicaciones telegráficas con la península se desplegaban costosos cables submarinos, como el efímero y primer cable entre Algeciras y Ceuta (1858), Jávea e Ibiza (1861) y Cádiz con Tenerife (1883).
Tal fue la impresión de Cervera que, a su regreso a España, imagina la aplicación de telecontrol gracias a la novedosa comunicación inalámbrica. También desarrolla algunas mejoras sobre lo visto en Londres, como un sistema manipulador que permite incrementar la velocidad de los despachos telegráficos. Este entusiasmo contará con el respaldo del Ministerio de la Guerra, que le designa para llevar a cabo las pertinentes pruebas prácticas y localizar los emplazamientos más adecuados para poner en marcha las primeras estaciones de radiotelegrafía. Fruto de aquel encargo y debido a la importancia de las ciudades de Ceuta y Melilla, la conexión de radio más simbólica fue la establecida entre Tarifa y Ceuta en 1901. Recordar que en aquellos años España todavía mantiene su presencia en el Golfo de Guinea y la tensión con Marruecos iría en aumento (Guerra del Rif, Administración del Protectorado Español, etc.) por lo que será estratégico contar con un sólido canal de comunicación con la península.
Isidro Calvo Juana
Como es fácil intuir, Cervera acaparó la atención de las crónicas de la época y llegaría a convertirse en la cara visible de los primeros avances radiotelegráficos, pero, es justo recordar que sus trabajos fueron posibles gracias a la abnegada contribución de decenas de miembros del Cuerpo de Telégrafos y del Ejército, como los tenientes de Ingenieros Antonio Peláez Campomanes y Tomás Fernández Quintana. Otro ejemplo de este objetivo compartido dentro del Ejercito es la publicación, en junio de 1900, del libro titulado Aplicaciones de las Oscilaciones Hertzianas, Telegrafía y Telefonía sin hilos conductores, por Isidro Calvo Juana (1861-1928), capitán de Ingenieros y profesor de la Academia de Ingenieros de Guadalajara.
Habitualmente esta publicación es considerada la primera en ser editada sobre estos temas en España e, imaginamos, que no pasó desapercibida para Cervera y el resto. En este volumen, por ejemplo, se describe en detalle el sistema de Marconi y se explican algunas contribuciones esenciales como la teoría de Maxwell, o las experiencias de Herz, Lodge, Branly, Popov y Tesla. Además, se enumeran los ensayos que han sido documentados hasta la fecha siendo, por este orden, el de Popov (Rusia, 1895), Marconi (Experiencias en Italia, Reino Unido y Francia entre los años 1896 y 1899) y Cervera junto a personal del Batallón de Telégrafos en presencia de SS.MM. el Rey Alfonso XIII y su madre, la Reina Regente (en Madrid, 1899), indicando además que Cervera emplea “el sistema Marconi, algo modificado”.
Leonardo Torres Quevedo
En este repaso histórico tampoco podemos dejar de mencionar al insigne cántabro D. Leonardo Torres Quevedo (1852-1936) quién, en 1903, presentó el Telekino ante la Academia de las Ciencias de París. El Telekino fue el primer sistema experimental que permitía el guiado remoto de una embarcación. Ya hemos dicho que esta aplicación de la radiofrecuencia fue imaginada antes por el comandante Cervera e, incluso, el capitán Calvo la consideró en un artículo fechado en 1901, pero fue Torres Quevedo quién ostenta la primicia como así se refleja en su patente del 1 de diciembre de 1903.
El Telekino fue consecuencia de los trabajos que venía desarrollando Torres Quevedo con sus dirigibles. D. Leonardo vio en la radiofrecuencia un auxilio para que, ante un accidente en los vuelos de prueba de aquellas aeronaves, no peligrara la vida de ningún piloto. Con esta idea básica avanzó en la construcción del Telekino contando con la colaboración de M. Rochefort, experto en radiotelegrafía y del Laboratorio de Mecánica de la Sorbona de París. El Telekino era capaz de interpretar un conjunto de señales morse con las que se gobernaba remotamente el cambio de velocidad (marcha adelante, atrás, velocidad, parada), dirección (rumbo recto o viraje pequeño, mediano y máximo a la izquierda o derecha) y saludo de bandera. Incluso también se contemplaba la parada de emergencia ante la perdida de la conexión radio.
El Telekino fue objeto de numerosas demostraciones entre las que destaca Bilbao en 1905, Madrid en 1906 (lago de la Casa de Campo) y, de nuevo, Bilbao en septiembre de 1906 ante S.M. el Rey Alfonso XIII. Como era menester, en estas presentaciones se contaba con la presencia de miembros del Ministerio de Marina y, a través de estos, se avaló repetidamente el potencial del Telekino para el control remoto de embarcaciones y torpedos, pero, por esas razones que solo los españoles comprendemos, no se materializaron en nada, salvo indiferencia y olvido. También en 1906, tras sufrir este desengaño patrio, Torres Quevedo conoció los ensayos que hizo el francés M. Davaux con un aparato similar al Telekino e inició un vano intercambio de correspondencia con la Societé Internacionale de Electriciens para reivindicar su invención.
Matías Balsera Rodríguez
También es común atribuir la invención del citado control remoto a Matías Balsera Rodríguez (1883-1952) quien, entre el periodo 1905 y 1908, realizó numerosas demostraciones, incluida la obligada ante su S.M. el Rey Alfonso XIII el 3 de abril de 1907 en Cartagena. Su aportación más relevante, frente a la idea de Torres Quevedo, tenía que ver con la protección del canal de comunicación radio, poniendo de manifiesto lo vulnerable que este puede ser frente a la escucha no autorizada, suplantación o interferencia del adversario.
Natural de Huelva, Balsera inició su actividad profesional en el Cuerpo de Telégrafos en 1904. A partir de aquellos años empieza a ganar cierta notoriedad tras impartir pequeñas conferencias donde divulga los principios de la tecnología radio presentando algunas experiencias e invenciones que, como aficionado, ha desarrollado en este campo. En este sentido, su vida estuvo marcada por la invención constante, tanto de nuevas aplicaciones de las radiocomunicaciones como de mejoras sobre las tecnologías existentes. Lamentablemente, Balsera vivió en unos tiempos convulsos en un país refractario a toda novedad que nace fuera del perímetro oficial. También, a diferencia de otros países, en España no existía un tejido empresarial capaz de valorar adecuadamente sus ideas y defenderlas, y algo tan esencial como promocionar y comercializar aquellas innovaciones por lo que todo su esfuerzo apenas tuvo repercusión más allá de numerosas demostraciones y notas de prensa que convirtieron, por cierto, a D. Matías en una autoridad respetada y popularmente reconocida.
Es importante destacar que, al revisar ciertos textos de la época que mencionan a Balsera, e incluso algunos artículos actuales, se encuentran afirmaciones incorrectas o, al menos, exageradas. Por ejemplo, en esas notas de prensa se indica que el sistema de telecontrol cuenta con un sintonizador de su creación, dando por sentado que el circuito de sintonía ha sido inventado por el propio Balsera. Lamentablemente, esto no es exacto y se ha ido perpetuando a lo largo de los años. Recordemos que la patente del sintonizador corresponde a Marconi y tiene fecha de 1900. Es más, aquella patente número 7777 fue objeto de disputa porque se inspira en un circuito anterior patentado por Oliver Joseph Lodge (1851-1940) en 1898. Por otro lado, por lo prematuro de la fechas -al no existir tubos termoiónicos- parece complicado que, con los medios disponibles, Balsera hubiese inventado un tipo de heterodinación o codificación especial del canal radio. Quizás su solución se basaba simplemente en enmascarar la comunicación alterando la duración de los pulsos morse que corresponden al punto y la raya y, evidentemente, trabajando en una frecuencia específica gracias a un sintonizador.
En mi opinión, malentendidos similares a éste fueron consecuencia de notas de prensa y artículos escritos con buena intención, pero carentes de criterio técnico, como aquellos que relatan el logro conseguido por Balsera al establecer una Comunicación radio con un tren en marcha (1906) o la invención de un Telégrafo portátil sin pilas (1910). Por esta razón, os ruego que me permitáis ser cauteloso para evitar tropezar y repetir afirmaciones exageradas por lo que comentaré, únicamente, unas pocas referencias que ilustran a la perfección la capacidad y el espíritu de Matías Balsera. Todas ellas corresponden a la segunda década del siglo pasado, después de su regreso a España, tras permanecer en Inglaterra entre de siete y diez años, según las fuentes que se consulten.
La primera aportación que he querido recoger se publicó en El Telégrafo Español en el número de junio de 1921. El Telégrafo Español era una prestigiosa revista publicada por y para profesionales afines al Cuerpo de Telégrafos. En ella se detalla la presentación que hace Balsera de un equipo de su invención que mejora significativamente las prestaciones del sistema Hughes al estar basado íntegramente en elementos eléctricos, no mecánicos, como eran aquellos telégrafos. Los Hughes tradicionales, a diferencia del telégrafo clásico, contaban con un teclado alfanumérico -similar al de un piano- y eran capaces de imprimir caracteres en lugar de puntos y rayas, pero, precisaban de una sincronización previa entre ambos extremos. A pesar del potencial de este sistema Hughes mejorado, ya que en aquellos momentos el sistema Hughes tradicional era ampliamente usado en la red española, este no mereció el interés del Cuerpo de Telégrafos, siendo recordado este hecho como un desprecio hacia Balsera. En mi opinión, y sin pretender ser categórico, es importante tener en cuenta que, aun siendo un buen invento aquel equipo Hughes mejorado de Balsera, en aquellos años el sistema Hughes estaba técnicamente superado por los sistemas Baudot y el uso de terminales mecanográficos como, por ejemplo, el de Siemens, que terminaría imponiéndose frente a los manipuladores tradicionales y teclados tipo piano. Por otro lado, hay que destacar que ambas tecnologías ya eran objeto de estudio en la Escuela General de Telegrafía. Por este motivo, quizás, Telégrafos no estaba interesado en la adopción de un equipo -más moderno, eso sí- que lo único que hacía era extender la vida de un sistema en retroceso: El Hughes.
Radiodifusión según Balsera: El Palacio de Comunicaciones es el
centro de la Red y reúne los contenidos producidos en diversos lugares
Otro de hecho que quiero citar, a propósito de una entrevista publicada en el diario El Sol en noviembre en 1922, es la visión de D. Matías de cómo debería ser concebido el servicio de radiodifusión. En esta interviú se resume a grandes rasgos su propuesta de Broadcasting que -según él- debe ser un servicio prestado desde el Cuerpo de Telégrafos para el bien social. Es decir, un servicio prestado por una institución nacional donde no cabe la iniciativa privada o extranjera cuyo objetivo es, normalmente, comercial. En estas líneas también se percibe el agudo resentimiento de Balsera hacia la institución a la que pertenece, el Cuerpo de Telégrafos, diciendo que “Me fui al extranjero porque la oposición que a todo lo mío declararon ciertos jefes de la Dirección General de Telégrafos, creando una atmósfera desfavorable alrededor de los directores generales, en perjuicio de mis proyectos, me hicieron la vida imposible y tuve que emigrar porque yo no sé ganar mi sueldo sentado ante una mesa copineando despachos”.
Por otra parte, en 1925, aquel prolífico Balsera publicaría el libro titulado Radiotelefonía. En los primeros capítulos de este volumen se exponen los principios básicos de la electricidad y de la teoría electromagnética y concluye con un amplio estudio del tubo termoiónico donde detalla los circuitos más comunes. A pesar de los años transcurridos, este es un libro que merece ser tenido en cuenta por su contenido inicial, que es plenamente válido, y está escrito desde el rigor técnico sin abusar de adornos literarios. Tristemente, en sus páginas finales, Balsera no puede reprimir ese resquemor que aún mantiene con las instituciones y la poca iniciativa técnica nacional.
Por último, en 1930 presentó un dispositivo pensado para ser instalado en los convoyes de ferrocarril y detectar la presencia de un tren circulando en sentido contrario en la misma vía. El citado equipo, al advertir la colisión inminente de ambas unidades, paraba la marcha de cada tren para evitar una catástrofe. Se llegaron a realizar ensayos prácticos -y satisfactorios- en el tramo de línea férrea que une Durana y Vitoria, pero, lamentablemente, aquel invento tampoco cristalizó en un producto comercial.
Antonio Castilla López
Acabamos este repaso recordado a la persona que protagonizó en España la transición desde la radiotelegrafía a la trasmisión de la voz o, como se decía entonces, radiotelefonía. Además, fue el auténtico pionero de la radiodifusión en nuestro país y, para colmo de logros, es el individuo que importó los primeros audiones para, más tarde, fabricarlos en Madrid.
Antonio Castilla López (1886-1965) nació en Cádiz. Por algunos datos que he leído y he contrastado en diversas fuentes, provenía de una familia bien relacionada en su ciudad de origen, Jerez de la Frontera. Este detalle, aunque pueda parecer trivial, explica alguno de los contactos y apoyos que tendrá más adelante como, por ejemplo, el de Francisco Moreno Zuleta, Conde de los Andes (jerezano); Miguel Primo de Rivera, futuro jefe del gobierno (jerezano) e importantes empresarios, como Rufino de Orbe y Morales.
Castilla ingresa en el Cuerpo de Telégrafos en 1904, unos meses antes que Balsera. Más allá de alguna noticia de la época que los relaciona durante el trascurso de una demostración del telecontrol de Balsera, hay pocas señales que indiquen que esta relación se mantuviese en el tiempo. Menos aún, como se suele afirmar, que Castilla fuese el ayudante o discípulo de Matías Balsera. De hecho, ambos seguirán caminos diferentes pues Castilla, en 1906, es destinado a Barcelona y permanece allí hasta 1913. Durante aquellos años su prestigio va en aumento y se convierte en un referente técnico llegando a ejercer como profesor de electricidad aplicada en un centro privado llamado Escuela de Ingenieros de Sarriá.
A pesar de ser un simple telegrafista, como él mismo se definía, el Cuerpo de Telégrafos le concedió una beca para que pudiese viajar a París, Roma, Berlín, Londres y, finalmente, a Estados Unidos en 1916. En aquellos viajes conoció como el triodo de Lee De Forest (1873-1961) supondrá un antes y un después en las comunicaciones por radio. Por aquel motivo, en su viaje a EE.UU., contactó con Lee De Forest e inició con él una relación comercial que le autorizaba a diseñar y comercializar en España equipos de radio con audiones De Forest y, posteriormente, fabricar estos triodos. Se cree que la contrapartida económica con la que Castilla sedujo a Lee De Forest partía del Conde de los Andes. Con semejante aval, Castilla no tardó en convertirse en un referente en nuestro país gracias a la tecnología de los tubos termoiónicos y, con el apoyo de Rufino de Orbe y Morales, fundó la Compañía Ibérica de Telecomunicación en 1916.
Rápidamente, también gracias a sus contactos, el Ejercito contó con él para probar las capacidades de los novedosos audiones en sus estaciones de Carabanchel y El Pardo. Para ello, Castilla adaptó los equipos de radiotelegrafía Telefunken allí existentes para convertirlos en emisoras de radiotelefonía. Otro de los encargos institucionales le llegó de la Dirección General de Telégrafos quién le encomendó la instalación de la nueva emisora (adquirida en 1917 y basada en tubos termoiónicos) en el futuro Palacio de Comunicaciones, cuya inauguración estaba prevista en 1919.
La Gran Guerra provocó que las empresas que fabricaban equipamiento de radio o que controlaban estaciones de radiotelegrafía fuesen intervenidas por sus respectivos gobiernos. Este parón provocó el abandono de mercados dependientes tecnológicamente, como era el español. Por esta razón, hasta los primeros años de la segunda década, la Compañía Ibérica de Telecomunicaciones gozó de un corto, pero favorable, periodo comercial como atestiguan las importantes referencias cosechadas en la Armada o en el Cuerpo de Telégrafos. También, en aquellos años, tendrá lugar la primera radioemisión pública de España, realizada por Antonio Castilla, en la Universidad de Valencia con motivo de la conferencia que allí impartió bajo el título “La física del tubo electrónico” el 22 de abril de 1920.
Como hemos comentado en otros textos, en 1920 tienen lugar en EE.UU. las primeras emisiones radiofónicas dando comienzo un nuevo ciclo donde aflorarán nuevas oportunidades comerciales para la fabricación de receptores y emisoras de radio. Por otro lado, el desabastecimiento del mercado español aludido anteriormente, dejará paso a numerosas empresas nacionales y extranjeras que buscan hacerse (o recuperar) su hueco. Esta coyuntura empujó a Ibérica de Comunicaciones a explorar mercados inexistentes en nuestro país, como el de la fabricación de receptores de onda media para el público común y la radiodifusión “alegal” a través de la emisora Radio Ibérica para, así, fomentar la compra de sus equipos. Estamos en 1924. [Continuará]
Colección | Telégrafo y Telecomunicación | Marconi y el Día Internacional de la Radio | Telegrafía y Telefonía | Construcción de un Telégrafo | La radio en España. Radiotelegrafía (2) | Emisión Termoiónica y Lee De Forest
El receptor superheterodino
agosto 29, 2024 on 4:29 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en El receptor superheterodinoAdolfo García Yagüe | En la Primera Guerra Mundial se comprobó como el uso de las telecomunicaciones representaba una ventaja en el escenario bélico, por esta razón, para contrarrestar o aprovecharse de las comunicaciones por radio que hacía el enemigo, asistimos a los albores de la guerra electrónica. Aunque existen antecedentes en la confrontación que tuvo lugar entre Rusia y Japón (1905-1906), y también en la guerra ítalo-turca (1911-1912), es en la Gran Guerra donde se inicia esta doctrina militar teniendo presente, además, que el término “electrónica” acababa de nacer y hace referencia al control que se hace de los electrones dentro del tubo termoiónico o triodo (1907).
Escuchar las trasmisiones del adversario y adelantarse a sus movimientos teniendo en cuenta sus comunicaciones, ocultar estas, descifrar mensajes, la radiogoniometría o la identificación de la posición del rival a partir de sus emisiones, perturbar sus frecuencias de comunicación o, guiar hacia objetivos -en noches cerradas- a los torpes dirigibles alemanes que pretendían emplearse como bombarderos, fueron algunas de las primeras misiones de los ingenieros de trasmisiones. Uno de aquellos ingenieros fue Edwin Howard Armstrong (1890-1954) quien, en 1917, tras la entrada en la Gran Guerra de EE.UU. sirvió con el grado de Mayor en el legendario Signal Corps y, cuya misión conocida, fue la de rastrear las comunicaciones del enemigo.
El joven Armstrong llegó a Europa avalado por su experiencia en el mundo de la radio tras inventar el circuito regenerativo y, mientras estaba destinado en París, su principal ocupación fue mejorar la sensibilidad y selectividad de los equipos para lograr la escucha de las comunicaciones alemanas emitidas en alta frecuencia. Recordemos que los primeros triodos tenían dificultades para amplificar señales superiores a 3 megahercios (100 metros). Evidentemente, esta limitación también era sufrida por la parte contraria y condujo en 1919 a la invención del tetrodo por el alemán Walter Schottky (1886-1976).
La línea de trabajo de Armstrong se basaba en el fenómeno de heterodinación o la mezcla de dos señales de frecuencia diferente de la que resulta una tercera de frecuencia inferior. Este comportamiento era conocido y el primer intento en aplicarla a las comunicaciones inalámbricas fue hecho en 1901 por Reginald Aubrey Fessenden (1866-1932). Años más tarde, Lucien Lévy (1892-1965), quién en 1917 era el responsable del laboratorio de radio telegrafía militar situado a los pies de la Torre Eiffel, trabajó con la heterodinación con el fin de ocultar una señal de audio fuera del rango audible y, posteriormente, modular una portadora de alta frecuencia. Por su parte, Armstrong avanzó en la idea de bajar la frecuencia de una emisión del enemigo a una región intermedia que fuese fácilmente amplificable con los triodos disponibles. Por último, hay que recordar que, en el bando contrario, estas ideas también estaban en la cabeza del citado Schottky y de Alexander Meissner (1883-1958).
En noviembre de 1918, tras la firma del Armisticio de Compiègne, se daban los primeros pasos para poner fin a la primera contienda mundial y nuestros protagonistas se apresuraron en patentar las aplicaciones desarrolladas en torno a la heterodinación. Armstrong fue el primero en obtener la patente en EE.UU. el 30 de diciembre de 1918 y, cuyos derechos explotación, serían vendidos a la Westinghouse en 1920. Meses antes, también en 1918 y en Alemania, a Schottky se le había concedido una patente. Por su parte, Lévy ya había presentado una solicitud de patente en 1917 en Francia y argumentaba que Armstrong le había robado el concepto mientras estuvo destinado en París… En este sentido, parte de sus reivindicaciones fueron reconocidas en EE.UU. y, a pesar de estas diferencias, Lévy ya había alcanzado un acuerdo con la AT&T lo que allanaba el camino para que la Radio Corporation of America (RCA) pudiera comercializar un futuro receptor superheterodino con las patentes de Westinghouse y los derechos que controlaba la AT&T. Recordemos que en sus comienzos la RCA es una sociedad en la que participaban General Electric (GE), AT&T y Westinghouse con sus respectivas patentes en tecnología radio además de aportar sus capacidades industriales, como las de GE, para la fabricación del equipo que nos ocupa.
RCA Radiola Superheterodyne AR-812
Aunque en 1920 el concepto de la heterodinación estuviese claro, la realización práctica de un receptor con fines comerciales quedaba distante. Como hemos comentado en textos anteriores, en aquellas fechas todavía no se había desarrollado el servicio de radiodifusión que hoy conocemos y, fabricar un equipo doméstico que funcionase con más de dos o tres triodos era impensable. Estos motivos permitieron a Armstrong y a su ayudante, Harry William Houck (1896-1989), contar con unos años para ir perfeccionando el circuito de heterodinación, ajustar la cantidad de triodos empleados, optimizar el consumo eléctrico y que, aquel futuro receptor, fuese fácilmente sintonizable.
Como explicábamos, la ventaja más evidente de la heterodinación es que permite amplificar frecuencias fuera del rango de operación del triodo cuando la señal que se pretende escuchar es trasladada a una frecuencia inferior, es decir mejora la Sensibilidad del receptor. Es importante destacar que esta frecuencia de destino siempre será la misma y la llamaremos Frecuencia Intermedia (FI). En el empleo de esta FI reside otra de las ventajas de la heterodinación al permitirnos utilizar unos transformadores de acople optimizados solo para esa frecuencia intermedia en lugar de para una banda completa como, por ejemplo, la de onda media. Esta optimización de los transformadores para “dejar pasar” una única frecuencia (FI) lleva consigo que las siguientes etapas de amplificación solo amplificarán la emisora que está siendo trasportada en esta FI, es decir, hemos incrementado la Selectividad.
El primer receptor comercial superheterodino que diseñaron Armstrong y Houck fue el RCA Radiola Superheterodyne AR-812 (1924) y, repasando su circuito, identificamos sin dificultad un oscilador local, elemento clave de un circuito heterodino (ver zona de triodo T2). Este oscilador genera una frecuencia que puede ser modificada a través del condensador variable C3, etiquetado como Station Selector II. En el caso del AR-812, se genera esta frecuencia de heterodinación a partir del segundo armónico de la frecuencia fundamental (ver Wikipedia). En este triodo T2 también se produce la mezcla entre la frecuencia de la emisora a escuchar y la frecuencia de heterodinación y, cuyo resultado, es una resta de frecuencias igual a la Frecuencia Intermedia (FI). Por lo tanto, T2 está funcionando en modo réflex o dúplex al desempeñar dos funciones.
Ahora dirijamos nuestra atención al comienzo del circuito. Allí, tras captar la emisora deseada a través del circuito de sintonización y su condensador variable C1 denominado Station Selector I, entregamos la señal de radiofrecuencia (RF) a T1 donde es amplificada junto con la señal FI procedente de T2. Como podemos apreciar, este triodo también trabaja en réflex para lo cual se apoya en el trafo A2 que únicamente permite el paso de la FI, y el condensador C2 sólo RF. A continuación, desde T1 parten dos señales, pero el trafo A1 solo permitirá el paso de RF mientras que la señal de FI solo podrá recorrer su primario para llegar hasta el trafo A3 que está ajustado para permitir únicamente el paso de la FI al triodo T3 donde es amplificada.
Al igual que en la etapa previa, A4 solo permite el paso de la FI a T4 que actúa como detector para extraer la señal de audio. A continuación, A5 solo permite el paso de la señal de audiofrecuencia para ser amplificada en T5 y, de igual forma, en A6 y T6. Tras estas etapas ya estamos en condiciones de reproducir la señal en unos auriculares o altavoz, respectivamente.
A tratarse de un diseño que se apoya en las capacidades réflex, el AR-812 cuenta con 6 triodos en lugar de 8. Estos triodos son del modelo UV-199, que fue diseñado y fabricado por General Electric, pero etiquetado y comercializado como RCA Radiotron. Estos triodos eran de lo mejor que en aquel momento se podía utilizar en un equipo de consumo. Su corriente de filamento era de solo 0.06 amperios y 3 voltios, y su tensión de placa se situaba en 45 voltios para detección y 90 voltios como amplificador. Por este motivo, con sus 86 centímetros de largo y cerca de 20 kilogramos de peso, el AR-812 se posicionó como un equipo “portable” ideal para ser alimentado con baterías.
Ahondando en las interioridades del AR-812 diremos que tiene una antena de cuadro integrada lo que facilita la citada portabilidad, unos condensadores variables, etiquetados como Station I y II, reóstatos para el control de volumen y amplificación y… poco más… RCA se preocupó en ocultar los detalles de este equipo frente a la competencia. Para ello construyó el equipo alrededor de una caja de metal, o catacumba, donde se conectan los mencionados triodos y, en su interior se ocultan los transformadores de acople sumergidos en una capa de resina.
Volviendo a los condensadores variables que están a la vista, el ajuste de este equipo se inicia con el giro de Station Selector I. Recordemos que con este control sintonizamos la emisora que queremos escuchar, por lo tanto, tenemos que situarlo en el punto donde creemos o sabemos que se está emitiendo (por ejemplo, en el 25 del dial). A continuación, nos dirigimos a Station Selector II y lo fijamos a una posición próxima a 25 (15, por ejemplo) y, suavemente, giramos en sentido del reloj y, al aproximarse a 25, empezará a recibirse la emisora deseada. En resumen: lo que hemos hecho es fijar la frecuencia de la emisora a escuchar (Selector I) y, a continuación, hemos ido modificando la Frecuencia Intermedia (Selector II) hasta que esta ha sido compatible con los trasformadores A2, A3 y A4.
La calidad de la recepción ofrecida por el RCA Radiola AR-812 era inmejorable y, a pesar de contar con un oscilador interno, no generaban las mismas interferencias que los regenerativos ya que el usuario solo actuaba sobre la frecuencia heterodina (Selector II), no en su amplitud, permaneciendo está muy baja. Como dato curioso y para hacernos una idea de esta calidad, su precio en 1925 era de 269 dólares y, ese mismo año, un coche Ford T costaba 260 dólares.
Los otros superheterodinos
La adopción a esta tecnología por parte del resto de fabricantes fue gradual y, quizás, esta lentitud tuvo que ver con el estricto control que hizo la RCA sobre sus patentes. Digo esto porque sorprende, por ejemplo, ver como Radio Stanislas, un pequeño fabricante francés, presentó un equipo superheterodino en 1927, pero, a la vez encontramos que en 1930 Philips seguía produciendo equipos, como el costoso (y pesado: 21,5Kg) Modelo 2511, basados en amplificación tradicional, eso sí, con tetrodos.
De lo que no cabe ninguna duda es que pocos inventos han tenido una longevidad similar a la heterodinación permaneciendo, aun hoy, en la base de la mayoría de receptores de radio ajena al cambio que supuso pasar de tubos de termoiónicos a transistores y, posteriormente, a circuitos integrados y, sin importar tampoco, si la modulación está basada en amplitud (AM) o en FM (frecuencia).
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2)
Receptor réflex De Forest D-10
agosto 3, 2024 on 5:39 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Receptor réflex De Forest D-10Adolfo García Yagüe | Al comienzo de la segunda década de Siglo XX, mientras decenas de fabricantes se apresuraban en adquirir de la Westinghouse una licencia que les autorizase a fabricar y comercializar un receptor regenerativo, Lee De Forest (1873-1961) tenía las puertas cerradas a esta innovación. La razón, a modo de escarmiento, era consecuencia de su intento de reivindicación años atrás de la patente de Edwin Howard Armstrong (1890-1954). Por otro lado, también a raíz de su disputa con John Ambrose Fleming (1849-1945) y su representada la Marconi Wireless, y tras saltarse el acuerdo que le obligaba a informar de la contabilidad relativa a la venta de triodos, una sentencia le impedía fabricar audiones hasta noviembre de 1922, momento en el que expiraba la patente del diodo termoiónico de Fleming.
Para intentar romper el bloqueo en el que se encontraba, la De Forest Radio Telephone & Telegraph comercializó algunos receptores que podían ser fácilmente reconvertidos en regenerativos mediante pequeños cambios hechos por el usuario. Aquella argucia no tardó en chocar con la justicia y no prosperó. Otra maniobra fue adquirir en 1922 la compañía Radio Craft y hacer uso de su licencia para fabricar equipos regenerativos. Una vez más los abogados de la Westinghouse salieron al paso recordando que estas licencias no eran trasferibles. Afortunadamente, tras la compra de Radio Craft se mantuvo en su puesto a su fundador Frank M. Squire quien, para eludir las repetidas obstrucciones, propuso diseñar un receptor de radio totalmente diferente a lo conocido y basado en triodos Audion.
La propuesta de Squire era desarrollar un receptor de gran capacidad de amplificación y, a la vez, emplear pocos triodos en su diseño. Para ello recurrió a los servicios de William H. Priess quien, durante su estancia en la US Navy, trabajó en un circuito de un único triodo con el que se amplificaban simultáneamente dos señales de frecuencia diferente (radiofrecuencia y audio). Esta técnica de amplificación se conoció como réflex o dúplex y se basaba en la amplificación lineal que ofrece el triodo en ambas regiones: alta y baja frecuencia. Realmente, esta idea ya había sido presentada por los alemanes Wilhelm Schloemilch (1870-1939) y Otto von Bronk (1872-1951) en una patente de 1914 y, posteriormente, fue mejorada en 1917 por el francés Marius Latour.
De Forest D-10
Este equipo fue presentado en Nueva York en marzo de 1923 y empleaba cuatro triodos audion DV-2 (filamento 5V y 0,25A) o DV-6 (6V y 0,75A). En cambio, si se pretendía ahorrar baterías y ganar en portabilidad, se recomendaba el uso de triodos DV-1 (1,5V y 0,2A). El D-10 era una evolución del modelo D-7 de tres triodos DV-1 presentado en octubre de 1922. Por su parte, el D-7A también venía equipado con tres triodos DV-6A (6V y 0,3A) y es de febrero del ‘23.
En los receptores D-7, D-7A y D-10 destaca su antena de cuadro orientable para ganar más selectividad. Esta mejora contrasta con su pobre etapa de sintonía, fiando su capacidad a las diferentes etapas de amplificación radio y a la configuración manual de bandas que se hace mediante la sustitución de sus transformadores radio.
Como se ha comentado, el D-10 cuenta con cuatro triodos que, al tratarse de funcionamiento réflex, se corresponde con 6 etapas de amplificación actuando de la siguiente manera: Tras orientar la antena de cuadro y, simultáneamente, sintonizar la estación deseada mediante los condensadores variables de tuning (ajuste grueso) y vernier (fino), la señal de radiofrecuencia elegida llegará al primer triodo (T1) donde se amplifica y gana en sensibilidad. A continuación, esta señal pasa del primario al secundario del transformador de acople A1 (cuyo núcleo es de aire) y de ahí a la segunda etapa de amplificación réflex T2. Tras esta etapa la señal puede tomar el camino a través de B1 y B2. En nuestro caso, al tratarse de una señal de alta frecuencia, solo se cursará a través de primario de B1 (núcleo aire) y B2, con núcleo de hierro, representa una barrera. A continuación, el triodo T3 (réflex) vuelve a amplificar la señal radio y, a través de C1 (núcleo aire), llegamos hasta el elemento detector que, sorprendentemente, está basado en un cristal de galena. De ahí al primario y secundario de A2 (hierro), mientras que A1 (aire) es una barrera para esta señal de baja frecuencia. En T2 (réflex) la señal de audiofrecuencia también se amplifica y recorre el primario de B1 (trafo de núcleo de aire) pero no logra pasar a su secundario llegando hasta el primario de B2 y su secundario (trafo hierro). De ahí se vuelve a amplificar en T3 (réflex). La salida de esta etapa recorre el primario de C1 y, como se trata de una señal de baja frecuencia, no llega a su secundario. En este punto estaríamos en disposición de hacer una escucha con auriculares, pero, para lograr más volumen y, si el usuario tiene desconectados sus auriculares, se cierra un circuito y se deriva la señal al primario del trafo de acope C2 desde donde la señal de audio es amplificada en el triodo T4 antes de atacar a un altavoz o altoparlante.
La manipulación de este receptor de onda media no era fácil y, a las dificultades de ajuste que supone trabajar con dos controles para la sintonía y otros dos de amplificación, hay que añadir el intercambio necesario de transformadores para fijar la banda de trabajo. Para este propósito el usuario tenía a su disposición un set de cinco trafos y una tabla donde se indicaba la posición que tres de ellos debían ocupar en el circuito en función de la banda deseada. Por último, a estas dificultades había que añadir el uso de un detector de galena y su bigote de gato que, en mi opinión, tenía que ver con alguna de las muchas disputas que tenía abiertas De Forest impidiéndole utilizar un triodo como detector. A su favor, y a diferencia de los receptores regenerativos, el D-10 era un equipo que no generaba interferencias.
En agosto de 1924, tras algo más de un año en el mercado, el D-10 fue modificado por Priess para mejorar el circuito de sintonía de la primera etapa amplificadora y así ganar en selectividad. Aquel nuevo equipo se llamó D-12. Tras acabar su trabajo Priess abandonó la compañía y se aseguró un contrato de pago de royalties por cada unidad vendida. Para ocupar su puesto Lee De Forest contrató a Roy Alexander Weagant (1881-1942) quien prosiguió con los rediseños añadiendo un quinto triodo para funciones de detección y, así, prescindir de la galena (abril 1925). No conforme con estos cambios, y con los almacenes repletos, volvió a rediseñar el D-12 para prescindir totalmente del funcionamiento réflex y así perjudicar a su ahora competidor, Priess… Imaginaros las pérdidas millonarias y la desconfianza que esto generaba entre los vendedores del D-12 y sus clientes, significando, en cierto modo, el declive de De Forest como empresario del mundo de la radio.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | El receptor superheterodino | La radio en España. Pioneros (1)
Radio de recepción regenerativa
julio 12, 2024 on 5:12 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio de recepción regenerativaAdolfo García Yagüe | Como vimos en el texto anterior, una radio de galena es un tipo de receptor con el que miles de aficionados se iniciaron en el mundo de las ondas. Gracias a su sencillez es posible asimilar algunos conceptos que, de otra forma, suelen ser abstractos y poco intuitivos. Este equipo también es un buen punto de partida para abordar el estudio de otros receptores más complejos basados en triodos, popularmente conocidos como lámparas o tubos de vacío.
En los primeros receptores de radio la misión de estas lámparas ha sido la detección y la amplificación de la señal de audio para así aumentar su volumen. Si os fijáis, sus áreas funcionales coinciden con las descritas en un receptor de galena.
Triodo termoiónico
Antes de avanzar, es importante situar al triodo en el contexto tecnológico de hace un siglo y entender que, en aquellos años, los tubos de vacío eran considerados sofisticados componentes electrónicos.
Además de existir patentes que restringían la fabricación de un triodo, el proceso de industrialización solo era abordable por algunas compañías. Esto significa que era necesario conocer la técnica de vaciado del interior de la ampolla y dominar la metalurgia necesaria para elaborar el filamento, rejilla y placa con calidad, garantizando, por supuesto, que la respuesta durante la vida útil del tubo se encontraba dentro unos valores de operación fiables y que estos eran comunes a toda la producción. Aquellas dificultades, junto con el incremento del consumo eléctrico que suponía usar varios triodos en un receptor y la consiguiente reducción de la vida útil de las baterías, impactaban notablemente en el precio y en los impuestos que licenciaban su uso.
Esta situación empujó a los fabricantes de receptores a ser ingeniosos y desarrollar numerosos circuitos electrónicos donde se reducía al máximo el número de triodos a costa, lógicamente, de sacrificar alguna prestación o la calidad del propio receptor. También, esta disparidad de diseños electrónicos era una forma de esquivar las patentes que protegían un determinado circuito electrónico, por lo que es normal encontrar receptores con una única lampara y otros más sofisticados donde se llegan a reunir 6 triodos.
Circuito regenerativo
Tras los primeros días de funcionamiento, un circuito como el anterior, seguramente satisfizo a miles de radioescuchas habituados a sus limitados receptores de galena. No obstante, algunos de estos aficionados pronto advertirían que, si bien la detección era más compacta, el volumen aumentaba y la escucha resultaba más clara, la sensibilidad no había mejorado significativamente y seguía siendo difícil recibir emisoras distantes.
En 1912 Edwin Howard Armstrong (1890-1954) estudiaba ingeniería eléctrica en la Universidad de Columbia y, mientras experimentaba con la capacidad de amplificación de sonido del Audion, ideo un circuito capaz de incrementar también la señal de radiofrecuencia ganando en sensibilidad. Para ello se valió de una tercera bobina, llamada de reacción, que inducía a la segunda bobina del transformador de antena parte señal ya amplificada por el triodo. Es decir, hacíamos una realimentación o regeneración positiva con la que se «vigorizaba» la señal de radiofrecuencia. Gracias al incremento de sensibilidad ofrecido por aquel ingenioso circuito y, durante el transcurso de sus primeras demostraciones, Armstrong llegó a escuchar en Nueva York mensajes cursados entre San Francisco y Honolulú, junto a otros procedentes de Irlanda.
Como recordé en el texto dedicado al triodo, la invención de este circuito también desencadenó una larga y amarga disputa entre Armstrong y Lee De Forest (1873-1961) poniendo de manifiesto que, a veces, una reinterpretación torticera puede decantar una sentencia. Me refiero a que desde hace décadas no se discute que la autoría de la invención del circuito regenerativo corresponde a Armstrong, más aun tras quedar documentado que el propio De Forest no supo explicar ante el juez (ni había rastro de una descripción previa) el principio de funcionamiento de dicho circuito, pero, en su momento y tras años de batalla legal de sus abogados, y el testimonio a favor de John Stone Stone (1869-1943) y los tácitos intereses de la ATT&T, en 1934 un juez anuló las sentencias anteriores y atribuyó la autoría del citado circuito a De Forest por el simple hecho de considerarlo un mero amplificador.
En la colección podemos conocer el aspecto de dos receptores de radio que hacen uso de la regeneración descrita: el Westinghouse RA-DA (1921) y el Westinghouse Aeriola Sr. Receiver (1922). Ambos son de los primeros equipos en ser comercializados entre el público y, concretamente, estaban dirigidos para uso amateur y experimental, no como un receptor broadcast para escuchar emisiones radiofónicas, entre otras cosas porque las primeras emisiones comerciales empezaron unos meses antes con la KDKA -propiedad de Westinghouse- en Pittsburgh. Mediante estos dos equipos la Westinghouse pretendía afianzar su posición en mundo de la radio e ir cubriendo huecos de la futura cadena de valor: Fabricante y proveedor de equipos de emisión, propietario de frecuencias y emisoras y, por último, ser un fabricante y proveedor de equipos receptores de usuario.
El RA-DA está formado por dos módulos: RA para la sintonía y DA amplificación. El núcleo del módulo RA es la mencionada bobina de reacción junto a los controles para una sintonía gruesa o “Turner”, otra más precisa y selectiva a través de “Vernier” y, por último, un ajuste del grado de reacción a través de “Tickler”. Por su parte, el módulo de amplificación DA cuenta con tres triodos, un UV-200 para detección y dos UV-201 para la amplificación audio, junto a sus correspondientes controles con los que se regula la corriente del filamento en cada una de estas lámparas.
Este receptor fue diseñado entre los años 1919 y 1920 por Frank Conrad (1874-1941) quién, desde el año 1916 y a título particular y experimental, organizaba trasmisiones radiofónicas bajo la licencia e indicativo 8XK. Este interés y experiencia de Conrad sirvió de inspiración para que la Westinghouse pusiese en marcha la KDKA.
Por otra parte, el Westinghouse Aeriola Sr. Receiver representa un buen ejemplo de aquellos equipos económicos que resumieron su diseño a la mínima expresión, es decir, solo emplea el triodo WD-11. Además, su presentación, en una pequeña caja de madera junto a las instrucciones de operación, evidencia que estaba dirigido a entusiastas y aficionados que querían abrirse un hueco en esta nueva tecnología. Por último, este equipo también atestigua los comienzos de la todopoderosa RCA (Radio Corporation of America) como revendedor de los equipos que otras firmas fabricaban (P. Ej. Westinghouse). Esto fue así porque, durante la Primera Guerra Mundial, EE.UU. experimentó lo que significaba carecer de independencia tecnológica en el terreno de la radio y depender de británicos (Marconi Wireless) y franceses (triodo TM) frente a un enemigo bien preparado, como los alemanes con Telefunken y Siemens y así, en 1919, decidió concentrar en una compañía llamada RCA todo el conocimiento sobre tecnología radio, sus patentes y el servicio internacional que venía prestando la Marconi Wireless. Como era evidente, en aquella empresa participarían, entre otros accionistas, la General Electric, Westinghouse y ATT&T.
Por último, solo recordar que el uso de equipos como el RA-DA o el Aeriola Senior requerían algo de pericia por parte del oyente y, en cierto modo, suponemos que era deseable conocer su principio de funcionamiento para evitar incómodos silbidos y molestas interferencias. A pesar de aquellas dificultades, equipos similares a estos fueron bastante populares hasta los años 30 cuando se decretó su prohibición. La razón de semejante medida era consecuencia de las interferencias que provocaban sobre otros receptores próximos. Pensemos que aquel proceso de retroalimentación con el que la señal de radiofrecuencia se amplificaba era una forma de radioemisión sin control y esto, en una época donde empezaban a proliferar los receptores domésticos, no se podía tolerar.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1)
Radio Galena
febrero 13, 2024 on 7:48 am | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio GalenaAdolfo García Yagüe | Hace 100 años, alrededor de la radio, miles de personas sucumbieron ante el primer delirio tecnológico de la historia. Recordemos que nuestro querido Siglo XX se inició con las experiencias de Marconi y, durante sus primeras décadas, la industria electrónica, las telecomunicaciones y la radiodifusión vivieron su particular adolescencia. Tras la invención de la radio todo parecía posible, desde enviar energía eléctrica a distancia -sin cables- a fabricar tu propio receptor para escuchar el parte de noticias y la previsión meteorológica de remotas latitudes o, intercambiar algún mensaje con simpáticos marcianos… Sin lugar a dudas, la humanidad había entrado en una nueva era.
Tras la Primera Guerra Mundial empiezan a aparecer publicaciones especializadas y noticias en prensa recogiendo los avances técnicos que se están produciendo en el campo de la difusión del sonido a través de las ondas. A este ambiente de novedad y expectación contribuyó su aparente sencillez, siendo posible, con un poco de pericia, construir un económico receptor de onda media que no precisaba corriente eléctrica para funcionar, basado en la detección a cristal que hacen algunos minerales como la galena, el carborundum o la pirita. Lo importante era entender los conceptos y dejarse guiar por algún galenista más aventajado. En este sentido, cabe destacar, la publicación por parte la Oficina de Estándares de EE.UU., de un par boletines con los detalles constructivos de una radio de este tipo. Aquellas guías, que coincidían con las primeras emisiones comerciales, fueron una forma de divulgar este nuevo medio entre aquellos oyentes que carecían de los recursos para adquirir -o fabricarse- un costoso receptor de tubos de vacío. Tampoco hay que olvidar que otro de los alicientes de esta nueva tecnología, a diferencia de otras previas como el telégrafo y el teléfono, tenía que ver con el hecho de que la radio no precisaba de una infraestructura de cables y centrales telefónicas para disfrutar de ella. Por eso, cualquier aficionado podía introducirse en esta tecnología con solo disponer de un receptor y dedicar horas a rastrear emisiones, alguna de ellas en otro idioma, de carácter oficial o, simplemente, procedente de otro aficionado.
Antena
En un receptor de galena se identifican cuatro etapas funcionales. La primera, denomina antena, puede ser un simple cable capaz de captar ondas electromagnéticas y convertir estas en señales eléctricas. La longitud de este cable será compatible con la longitud de onda de la banda que pretendemos recibir e, idealmente, debe estar ubicada en el exterior, en un espacio abierto y elevado, lejos de estructuras metálicas y otras fuentes de ruido eléctrico como redes de distribución de energía. Este cable, si se encuentra en el exterior, alejado de edificios y otras estructuras más elevadas, es conveniente que esté conectado a tierra a través de un protector de rayos.
Para recordar su origen es necesario remontarse a 1887 y conocer las experiencias que realizó Heinrich Rudolf Hertz (1857-1895) sobre la propagación electromagnética. Con ellas se ratificaba la teoría descrita por James Clerk Maxwell (1831-1879) en 1865 y, aunque en ese momento no se puede hablar de una comunicación propiamente dicha, aquellos trabajos fueron el inicio de numerosas líneas de investigaciones entre las que destacan las de Aleksandr Stepánovich Popov (1859-1906) en la Universidad de San Petersburgo en 1897. Popov avanzó en la posibilidad de comunicarse a distancia si ambos elementos, emisor y receptor, estaban conectados a un largo cable o antena.
Sintonía
Volvamos a nuestro circuito. A continuación, para excluir de la antena las señales eléctricas no deseadas, necesitamos un circuito de sintonía capaz de entrar en resonancia con la estación emisora elegida permitiendo el paso de la frecuencia seleccionada. Este circuito, en su forma más básica, constará de una bobina y un condensador que, idealmente, tienen que permitir alguna forma de variación de sus valores de inductancia y capacitancia, respectivamente, para tener cierto control en la elección de la frecuencia o emisora que pretendemos oír.
Precisamente, la diferencia más significativa entre los distintos receptores de galena se encuentra en esta etapa. En ella, partiendo de la premisa comentada antes, se han empleado diversas aproximaciones con el fin de logar un ajuste más preciso y selectivo con el que discriminar la recepción de una emisora que interfiere con la que realmente deseamos escuchar. Un ejemplo de ello son los sintonizadores donde, mediante un cursor deslizante sobre una bobina cilíndrica, seleccionamos el número de espiras que forman parte de ésta cambiando así su inductancia. En otros diseños, este cambio de inductancia se realiza a través de un conmutador rotativo o maneta de contactos con el que se selecciona una determinada posición o toma -ya preestablecida- en las espiras de una bobina cilíndrica o de fondo de cesto. En cambio, en otros receptores, se modifica manualmente la inductancia mediante la variación del acople entre dos bobinas, o la capacidad de un condensador variable.
Para acabar, es importante recordar aquellos receptores donde la bobina de sintonía era sustituida por un trasformador con el que se separaba la etapa de antena de la de sintonía y, cuyo acople, era configurable manualmente. Este trasformador permitía la adaptación de impedancias entre ambas etapas con lo que se lograba mejor selectividad y, además, también permitía modificar el valor de inductancia de cada bobina mediante una maneta de contactos como la descrita anteriormente. En su forma más antigua, estos trasformadores eran construidos artesanalmente mediante dos bobinas cilíndricas móviles, una dentro de la otra. Más adelante se emplearon dos bobinas de nido de abeja intercambiables donde, modificando la distancia entre ambas, se variaba el acople.
En el plano histórico hay que recordar que la invención del sintonizador se atribuye a Oliver Joseph Lodge (1851-1940), físico británico y pionero en la telegrafía sin hilos. Lodge obtuvo en 1898 la patente de éste, iniciándose así el enfrentamiento con la Marconi Wireless que, un año antes, había sido fundada para comercializar servicios de telegrafía inalámbrica y, utilizaba, un sintonizador similar al concebido por Logde. Aquella disputa, que se extendió durante años, no fue resuelta hasta 1912 cuando la Marconi compró a Logde los derechos de su patente sintónica y lo nombró asesor científico.
Detector
Hasta ahora nos hemos movido en el dominio de la alta frecuencia, es decir, estamos tratando con ondas que tienen propiedades para viajar por el espacio, pero, aunque en ellas se ha modulado su amplitud con una señal de audio, no son audibles. Por lo tanto, necesitamos extraer de esta señal portadora la señal audio o de baja frecuencia, y aquí es donde entra en juego la galena.
Las singulares propiedades de este mineral y su aplicación como detector de perturbaciones eléctricas fueron descritas en 1901 por Jagadis Chunder Bose (1858-1937). Años mas tarde, en 1906, Greenleaf Whittier Pickard (1887-1956) profundizó en la investigación de las propiedades de ciertos minerales y la detección de radiofrecuencia al permitir a la corriente circular en un único sentido, es decir, se produce un fenómeno de rectificación donde solo el semiciclo positivo de una señal alterna de radiofrecuencia puede pasar. Esta propiedad de rectificación no es uniforme en toda la superficie del mineral y, para encontrar el punto óptimo, es preciso buscar el contacto con un fino alambre llamado bigote de gato. A veces, esta búsqueda puede ser laboriosa y es poco estable por lo que es normal perder la paciencia. Afortunadamente, podemos prescindir del mineral de galena y emplear un diodo de germanio para lograr una detección y/o rectificación más eficiente y estable.
Escucha
Tras atravesar el mineral -o el diodo- con la señal sintonizada, se identifican una serie de pulsos de amplitud variable que definen a la envolvente de la señal de audio. Con estos pulsos estamos en condiciones de activar el electroimán que se encuentra dentro de un auricular de alta impedancia, provocando así, la vibración de una membrana de metal que reproduce el sonido de igual forma que en los auriculares empleados en telefonía.
Al no existir ningún tipo de amplificación el nivel de audición es bajo, y dependerá de la potencia de la señal recibida y proximidad de la estación. Sólo a través de elementos amplificadores, ya basados en triodos termiónicos, será posible la escucha a través de un altavoz.
Con esta breve explicación y precisamente hoy, que es el Día Mundial de la Radio, he querido recordar aquellos humildes equipos que permitieron a varias generaciones introducirse de forma sencilla y didáctica en la radiodifusión, y fueron los primeros en estar “conectados” a un mundo donde se avecinaban grandes cambios. Por todo ello, emociona descubrir aparatos donde algunos aficionados, cargados de ilusión, reaprovecharon elementos a su alcance para la construcción de su propio radiorreceptor.
En estos tiempos en los que esta tecnología está prácticamente olvidada, es importante no infravalorar la ciencia que hay detrás del funcionamiento de una radio de este tipo y deleitarse pensando que sus principios siguen estando en la base de las actuales comunicaciones inalámbricas.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2)
Emisión Termoiónica y Lee De Forest
agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.
La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.
Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.
Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.
Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.
Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.
El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.
Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).
De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.
A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).
A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.
Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.
Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.
A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado. Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.
Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.
A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.
Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2) | Relés, válvulas y transistores
Realidad Virtual (2). Llegada al mercado
marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.
Algo común en los visores de aquella época es su baja resolución de imagen y la carencia de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de los ordenadores -o videoconsolas- de aquel momento contaban con capacidad suficiente para generar gráficos en tiempo real adaptados a cada perspectiva.
Industria de los Videojuegos
Como he comentado, la industria del videojuego fue la primera en introducir productos que intentaban aumentar la experiencia inmersiva del usuario, aunque, en honor a la verdad, aquellas primeras apuestas carecían de nivel para ser tomadas en serio.
Nintendo fue una de las empresas más activas en el terreno del visionado 3D y, aunque no se considere RV en el sentido estricto del término, en 1987 lanzó en Japón un visor para su consola Famicom. El Famicom 3D System contaba con unas gafas cuyas lentes eran de cristal líquido y empleaban la técnica Active Shutter. Como todos sabéis, al aplicar una tensión a un cristal líquido este cambia de polaridad óptica consiguiendo hacerlo opaco o transparente. Este cambio, que se hacía a alta velocidad, estaba sincronizado con la imagen proyectada en el televisor donde, secuencialmente, aparecían las dos imágenes con las que se formaba la ilusión estereoscópica. A diferencia de la videoconsola Nintendo Famicom, el fracaso comercial de Famicom 3D System fue mayúsculo y solo unos pocos títulos aprovecharon la citada capacidad.
El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor de realidad virtual para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.
A pesar de estos tropiezos, la industria del videojuego no tiró la toalla. Nintendo hizo una nueva aproximación al mercado con la extraña Virtual Boy. Lo primero, y más llamativo, es que era un visor con trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior con la consiguiente incomodidad y fatiga. Parece ser que con este diseño se pretendía evitar accidentes si alguien decidiese desplazarse con el visor puesto…
Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la videoconsola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.
Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.
Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. A pesar de este pseudo incremento de resolución y su capacidad estereoscópica, esta consola con visor RV fue otro sonado fracaso y apenas duró un año en el mercado.
Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.
Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.
Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte, incluso alguna volvió a recurrir a la técnica Active Shutter junto a controladores de vídeo especiales para hacer del PC un equipo 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.
Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]
Realidad Virtual (1). Regreso al Futuro
febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash (1992) de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…
Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.
Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un desajuste emocional.
Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.
Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.
Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.
También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.
Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.
Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.
Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.
Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.
En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove– con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.
Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.
El Videodisco
agosto 25, 2021 on 7:04 pm | In colección, hist. fotografía, radio, tv y vídeo | No CommentsAdolfo García Yagüe | Acceso aleatorio frente a otro de tipo secuencial. De esta forma podríamos resumir la diferencia más significativa entre usar un soporte basado en disco frente a otro de cinta magnética. Como conocéis, esta característica nos permite el acceso directo a un corte musical de un LP o localizar directamente un fichero en nuestro disco duro.
Este avance fue decisivo en la reproducción de vinilos de música o en el uso de discos para almacenar y recuperar información, pero ¿Qué pasó con el vídeo? Como veremos, el empleo de videodiscos parecía algo inminente en los años cincuenta, pero no fue hasta 1967 cuando se presentó el primer producto. Este era el HS-100 de Ampex y estaba dirigido al mundo profesional para grabar y reproducir hasta 30 segundos de vídeo sobre un disco magnético y era empleado para la producir la famosa “moviola”, es decir, la repetición a cámara lenta de un instante, generalmente de tipo deportivo. También, en aquel año, David Paul Gregg (1923-2001) obtuvo la patente de un disco óptico transparente que, como veremos más adelante, guarda parentesco con el LaserDisc.
Antes del HS-100 y de la patente de Paul Gregg el impulso innovador llevó a algunas compañías e inventores a plantear ideas donde se trasladaban conceptos ya conocidos al mundo del vídeo. Así fue como un anónimo Antonio Rubbiani presentó en 1957, en el Salone Internazionale della Tecnica de Italia, un disco transparente donde estaba registrado un caudal de vídeo con un corto mensaje de texto. Aquello, haciendo un atrevido ejercicio de imaginación, debería de ser similar al registro óptico de audio que se hacía en el cine donde las vibraciones sonoras son convertidas a imagen y registradas en el celuloide junto al resto de fotogramas para, posteriormente y durante la reproducción, proyectar un haz de luz a su través y excitar a una célula fotoeléctrica. Supongo que Rubianni hizo una aproximación parecida, pero no hay detalles de su invento y aunque el principio pueda parecer atinado, las diferencias de ancho de banda y densidad de información entre audio e imagen hacen imposible este planteamiento por eso, como veremos más adelante, la clave estaba en la aproximación de Gregg.
Videodisco de Capacidad Electrónica
Aquella reutilización de principios también llevó a RCA (Radio Corporation of America) a concebir en los años ‘60 un sistema de videodisco de solo lectura inspirado en los tradicionales microsurcos del vinilo. Este invento, conocido como CED (Capacitance Electronic Disc), se basaba en un disco del mismo tamaño que el de un LP de música, pero cuya densidad era de 10000 surcos por pulgada formando una única pista espiral. En estos microsurcos estaba registrada la señal de video como una sucesión de variaciones de capacidad que eran leídas por un estilete o aguja de tan solo 2,5µm. Aquel estilete, fabricado en diamante, tenía en su parte posterior un electrodo que hacía las veces de una de las placas de un condensador electrónico. De esta forma, la variación de profundidad del surco era el elemento dieléctrico y el interior de disco era la otra placa del citado condensador. Estas variaciones de capacidad eran del orden de picofaradios y con ellas se actuaba sobre un oscilador de alta frecuencia a partir del cual se reconstruía la señal de vídeo modulada en FM.
El disco CED giraba a 450 rpm y en cada rotación del surco se mantenían 8 campos. Recordar que un cuadro está formado por dos campos, lo que significa que en cada vuelta estaban grabados cuatro fotogramas. Por lo tanto, en aquellos surcos era posible registrar hasta una hora de vídeo por cara.
Los discos CED eran tremendamente delicados y venían en una especie de funda o caddy para evitar ser tocados por el usuario y expuestos al polvo o suciedad. Por otra parte, al ser un soporte que requería contacto físico para realizar la lectura, la fragilidad del estilete y el desgaste que éste sufría durante la reproducción obligaba a sustituirlo tras un uso continuado.
El desarrollo de CED pasó por muchos altibajos y, aunque el invento demostró ser viable en 1964, era una proeza técnica para la que fue necesario perfeccionar la tecnología de fabricación del propio disco, el sistema de control y el estilete. Estas razones técnicas hicieron que hasta 1981 no fue presentado el SelectaVision SGT-100, apareciendo este como una alternativa al sistema LaserDisc lanzado en 1978.
Gracias al acuerdo entre RCA y Columbia Pictures, el sistema CED prometía un catálogo de miles de títulos cinematográficos con los que se intentaba animar su adopción. Recordemos que el CED, al igual que LaserDisc, eran sistemas de solo lectura y sus posibilidades de éxito dependían de la existencia de películas para ser adquiridas por un particular. Por eso, una de las razones de la pobre acogida de ambos sistemas, está relacionada con la falta de títulos disponibles y porque en aquellos años pocos usuarios tenían la costumbre de acumular películas en casa y eso que, en teoría, CED y LaserDisc ofrecían más calidad de imagen y prometían ser más baratos que una cinta VHS o Beta.
LaserDisc
El soporte que estaba llamado a revolucionar el mercado era el LaserDisc. Este nacía en el momento adecuado, en 1978, justo cuando Betamax y VHS empezaban a captar la atención del público. LaserDisc venía rodeado de una aureola de modernidad al ser la primera vez que un usuario común tenía acceso a la tecnología láser… y aquello le daba un aire de ciencia ficción y sofisticación inigualable…
LaserDisc, que en su inicio se llamó DiscoVision, fue fruto del trabajo de varias compañías entre las que destacan, Paul Gregg y su patente, MCA (Music Corporation of America), Philips, Magnavox y Pioneer. La primera etapa se corresponde con los trabajos de Gregg apoyados por MCA en su intención de contar con un sistema de vídeo con el que dar salida a la gigantesca colección de títulos cinematográficos de Universal Pictures y sus asociadas. Esto sucedió a finales de los ’60. A pesar de que MCA no era una empresa de electrónica, gracias a diversos acuerdos y un abultado presupuesto, logro presentar un prototipo de videodisco transparente en 1972 según las ideas de Gregg. A pesar de este hito aun quedaba un proceso largo de desarrollo hasta contar con un producto. Fue en aquellos años cuando conoció que Philips estaba trabajando en un sistema de videodisco de tecnología reflectiva -que difería de la suya- y entendió que para continuar necesitaba el impulso de una gran compañía experta en electrónica. Por eso, ambas compañías, MCA y Philips, firmaron un acuerdo de colaboración en 1974. Resumidamente, a través de este acuerdo MCA se hacía cargo de la fabricación de discos y Philips se responsabilizaba del desarrollo y fabricación del reproductor. Para ser capaz de fabricar en EE.UU. y contar allí con una marca reconocida, Philips adquiriría en 1974 la histórica Magnavox y trasladaría a sus viejas plantas de Knoxville, Tennessee, la responsabilidad de fabricar un producto de alta tecnología para aquella época. Los retrasos en la adaptación de la citada fabrica y algunos problemas de calidad obligaron a que miles de unidades de los primeros Magnavox 8000 fueran realmente fabricadas en Holanda y volaran en avión para atender los primeros pedidos a finales de 1978 y 1979.
Hacia 1977 MCA firmó otro acuerdo con la compañía electrónica japonesa Pioneer. Se pretendía que este fuera un acuerdo menor que, ante todo, sirviese de respaldo ante la posibilidad de que Philips decidiese abandonar el proyecto DiscoVision, además, también era una forma de atacar el mercado japonés. Por este motivo en el citado acuerdo se daba derecho a Pioneer a estampar discos, desarrollar reproductores y comercializarlos bajo su marca en Japón. Pioneer, en su aspiración de seguir la estela de fabricantes como Sony y JVC y así hacerse un hueco en el incipiente mundo de vídeo doméstico, empezó a planchar discos ópticos en 1980 y puso en el mercado el VP-1000 en 1981, ya comercializado con el sobrenombre de LaserDisc. A partir de aquí podéis intuir como sigue la historia, Philips-Magnavox van retrocediendo porque DiscoVision no terminaba de captar la cuota de mercado esperada y Pioneer va adquiriendo cada vez más control sobre la tecnología hasta convertirse en la cara visible en todos los mercados.
Si uno ojea la patente de Paul Grebb advierte que se citan dos elementos esenciales para reproducir vídeo y audio en un disco trasparente. Por una parte, al tratarse de sonido e imágenes, la densidad de marcas ópticas será muy alta y de un tamaño microscópico y solo será posible su lectura con una fuente de luz coherente: el recién inventado rayo láser (desarrollado en 1960 por Theodore Maiman). Por otro lado, conocedor de los requisitos de ancho de banda de un caudal de imágenes, Gregg estima que el disco debería girar a una velocidad comprendida entre 1800 y 3600 revoluciones por minuto.
Se podría concluir que aquí se encuentran las dos ideas originales sobre las que se asienta esta tecnología, no obstante, las aportaciones de Philips son esenciales porque avanzan en la codificación del vídeo y audio como una sucesión de microscópicos hoyos donde un láser de 632nm se refleja y sufre un desfase de 180º. Gracias al citado desfase de la señal láser es posible reconstruir una señal eléctrica donde la anchura de esta señal se corresponde con la detección o no de hoyo. Esta señal eléctrica ya es una representación en FM de señal de audio y vídeo.
Este planteamiento de disco óptico con lectura “reflejada” difería de la aproximación de Gregg donde se apostaba por discos trasparentes donde emisor láser y transductor estuvieran a cada lado del disco. Así, en la propuesta de Philips el disco giraba a 1800 revoluciones por minuto y tenía dos caras útiles, situando toda la electrónica y el láser a un lado del disco y con solo dar la vuelta a éste se continuaba la reproducción en la otra cara. También es de destacar que, en lugar de pensar en un único surco en espiral que se lee de fuera hacia dentro, Philips pensó en un disco con pistas concéntricas e independientes que se leen de dentro hacia fuera y donde en cada una de estas pistas solo hay grabado un cuadro o fotograma. Gracias a la tecnología CAV (Constant Angular Velocity) esto permitía congelar la imagen perfectamente y así conseguir registrar hasta 30 minutos de imágenes en cada cara.
En contra de lo que se podría pensar -y lo que le sucedió al CED-, LaserDisc no tuvo una muerte prematura y se mantuvo en el mercado hasta el año 2000. Su caída se aceleró a partir de 1996, momento en el cual apareció el DVD. En aquel año su cuota de mercado alcanzaba un 2% en EE.UU. y un 10% en Japón donde fue el formato preferido en los Karaokes. Durante todo el tiempo fue una tecnología que subsistió como una forma de poseer a nivel particular una videoteca con alta calidad de imagen. En este sentido es importante recordar que el hábito de comprar películas por los usuarios no despego hasta la llegada del DVD ya que en los años 80 y principios de los ‘90 lo normal era alquilar en un videoclub. También merece recordar el empleo del LaserDisc en el mundo de los videojuegos en 1983 en el clásico Dragon’s Lair. En la versión de este juego para máquinas recreativas se recurrió a una solución hibrida de LaserDisc y ordenador donde se presentaban imágenes de fondo logrando una videoaventura de una riqueza visual nunca vista.
En muchos sentidos el LaserDisc era un producto adelantado a su tiempo. Como habéis podido comprobar no tiene nada que ver con lo visto anteriormente, como la grabación magnética o los surcos del vinilo, y sienta las bases de lo que más tarde sería el Compac Disc y el DVD, especialmente en las técnicas de lectura láser y servocontrol porque, recordemos, en el LaserDisc el vídeo y el audio eran registros analógicos, aunque ya podía incluir una pista de audio digital PCM. Es un ornitorrinco de la tecnología.
Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2) | Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | 40 años del Compact Disc
Home Video
julio 7, 2021 on 7:24 pm | In colección, hist. fotografía, radio, tv y vídeo | 1 CommentAdolfo García Yagüe | Dentro de unos días la MTV cumplirá cuarenta años. Fue en agosto del ‘81 cuando, con el simbólico “Video Killed the Radio Star” de The Buggles, arrancaban sus emisiones iniciándose así una nueva época para el pop y el rock. Como años antes le sucedió al periodismo, la tecnología del vídeo modificó esta industria con una nueva narrativa que amplificaba la imagen de nuestros ídolos. Estos cambios coincidían con otra transformación de mayor impacto donde los video-reproductores estaban ocupando un hueco en el entretenimiento doméstico, a la vez que se ponía en manos (o al hombro) de un usuario normal la capacidad de videograbar.
Philips N1500 VCR
Realmente fue Philips con su N1500 VCR (Video Cassette Recording) quien dio en 1972 el primer paso hacia el hogar. A pesar del intento previo de Sony, sus U-Matic era caros y las máquinas con bobina de cinta eran complejas y delicadas. Tampoco ayudaba el hecho de que aquellos equipos careciesen de un sintonizador RF y un programador horario (o timer) para grabar contenidos emitidos por televisión. En resumen, Philips lanzó el primer equipo de vídeo pensando en el mercado doméstico con casetes de 30, 45 y 60 minutos, fácil de utilizar y útil para grabar “de la tele”. El pistoletazo de salida ya se había dado y aunque aquel equipo tuvo unas cuantas evoluciones, no terminó de ganarse la confianza del mercado por algunos problemas mecánicos y, sobre todo, porque los VCR de Philips solo eran compatibles con el sistema europeo PAL, no existiendo una versión NTSC (EE.UU. y Japón). Europa, aunque gran consumidora, no estaba destinada a ser referente tecnológico del desarrollo del vídeo.
Sony Betamax
Así, en 1975 Sony puso en el mercado el LV-1901. Este era un sistema monolítico que reunía televisión, reproductor de vídeo y timer en un mismo bloque. Aquel equipo tampoco gozó de gran popularidad porque obligaba al usuario a desechar su anterior TV y su envergadura condicionaba su ubicación, además de ser complicada su reubicación dentro del hogar. A pesar de esto se notaba que era un equipo de gran calidad que podía grabar y reproducir hasta 1 hora en casetes ofreciendo 250 líneas por cuadro. En este equipo Sony condesaba su experiencia previa con U-Matic y, aunque era incompatible con él, ponía en el mercado un sistema de vídeo de prestaciones similares a menor precio haciéndolo accesible para muchos hogares y suficiente para la mayoría de las aplicaciones profesionales. A este sistema de vídeo Sony lo llamó Betamax y, tras la pobre acogida del LV-1901, lanzó el modelo SL-7200 que iba sin timer siendo este una opción de ampliación.
Con Philips y otros fabricantes moviendo levemente el mercado del vídeo doméstico y con Sony empujando con fuerza, se empieza a intuir la revolución que se cernía sobre el mundo audiovisual. Son años donde las grandes compañias cinematográficas empiezan a mirar con recelo, sospechando incluso que la grabación en video acabará con la industria del cine. Nada más lejos de la realidad porque, si alguien salió beneficiado, fueron las propios majors al tener un nuevo canal para comercializar en vídeo -una y otra vez- sus títulos de cine. El punto álgido de aquellas tensiones lo protagonizó Disney y Universal Studios cuando en 1976 emprendieron acciones legales contra Sony haciéndola responsable de la vulneración de derechos de autor por facilitar a los usuarios grabar un espacio de televisión protegido por derechos de autor, aunque esto fuera porque no se podía ver en el horario original de emisión. Tras un proceso que se extendió hasta 1984 la justicia eximió de responsabilidad a Sony pero aquel caso ejemplifica como, desde siempre, las grandes compañías han intentado frenar cualquier avance tecnológico que pueda rozar levemente sus intereses, sin importar que esta tecnología también tenga otros usos e incluso les beneficie.
JVC y el VHS (Video Home System)
La aspiración de Sony con Betamax, como en otras tecnologías, era establecer un estándar que fuera seguido por el resto de los fabricantes y así, además de vender sus reproductores, ver incrementados los ingresos con el licenciamiento de sus patentes para la fabricación de equipos y casetes compatibles con Betamax. Por eso, mientras Sony promocionaba su sistema entre otros fabricantes, conoció que JVC (perteneciente al grupo Matsushita) estaba trabajando en un sistema de vídeo doméstico que era prácticamente igual al suyo denominado Video Home System (VHS). Aquello hizo saltar todas las alarmas de Sony quién incluso llegó a apelar al gobierno nipón contra JVC por menoscabar los supuestos beneficios para la economía y la industria japonesa al existir dos estándares de vídeo.
Aquella rivalidad entre sistemas desencadenó la famosa “guerra de los formatos” y, aunque Betamax ofreciera 250 líneas por campo frente a 240 de VHS, nació con la limitación de 60m en la duración de sus cassettes mientras que VHS soportaba 120m. Evidentemente, esto penalizaba la publicación de largometrajes cinematográficos en una única cinta de vídeo o la grabación de programas que duraran más de una hora. Esta debilidad siempre pesó sobre Betamax aunque fuera resuelta por Sony con nuevas cintas y equipos, incluso antes de que se desarrollara el mercado de la publicación de títulos de cine y los videoclubs. Más allá de este hecho, es importante no olvidar que cuando una tecnología nace tutelada por una única empresa las opciones de asentarse como estándar son pocas, y más aún si se trata de un mercado masivo y altamente competitivo como era este. Por eso, la clave de aquel conflicto, fue que JVC siempre tuvo una política de licenciamiento más laxa que Sony redundando en que cualquier empresa podía fabricar o publicar un vídeo VHS, incluso aquellas que basaban su producto en un diseño de referencia de un tercero o que, simplemente, se limitaban a revender un producto OEM. Ejemplo de aquella flexibilidad es que el primer equipo VHS comercializado en EE.UU. no fue un JVC sino el RCA SelectaVision VBT 200, que estaba diseñado y fabricado originalmente por Panasonic (también del grupo Matsushita). Tampoco olvidemos el «pequeño» detalle de que hasta enero de 1984 el conflicto de Sony con dos de los mayores estudios de Hollywood permaneció abierto. También recordar que este clima de tensión de Sony con la industria audiovisual solo se acabaría cuando los japoneses se hicieron en 1988 con el control de Columbia Records y, al año siguiente, con Columbia Pictures… y ya era demasiado tarde para Betamax.
Hacia el final de la década de los ‘80 quedaba claro que la posición de mercado de VHS era superior a la de Betamax y por esta razón Sony abandonó su sistema dando por perdida la guerra, pero manteniendo el liderazgo en el sector de las videocámaras basadas en el sistema Video8 que era, en gran parte, una evolución de Betamax. Por otro lado, durante la citada década, Sony consolidó su hegemonía en el ámbito profesional o broadcast con sus cámaras de vídeo y el sistema Betacam. En este sistema, en lugar trabajar con una señal de vídeo compuesto como se hacía en U-Matic, Betamax o VHS, se grababa una pista con la señal de luminancia y en otra distinta la crominancia. Además, Betacam era un sistema que, aunque sacrificaba tiempo de grabación al incrementar la velocidad de paso de la cinta, ofrecía 300 líneas por campo llegando incluso a alcanzar las 340 líneas con Betacam SP en 1986.
Philips Video 2000
Aunque sea testimonialmente, acabo recordando que en 1979 Philips intentó reconducir su mala experiencia de los sistemas VCR y hacer valer su veteranía en el hogar presentando junto a Grundig el sistema Video 2000. La principal novedad de estos equipos era el uso de unos cassettes de doble cara. A pesar de alguna mejora más frente a VHS y Betamax, el sistema Video 2000 nació tarde y (una vez más) enfocado en el mercado europeo… y no olvidemos que Europa es un mercado formado por distintos países con economías y niveles de riqueza dispares, y cada uno con sus regulaciones y sus tiempos. Es decir, estamos fragmentados y apenas tenemos escala para poder apostar por un estándar, con la excepción del lejano sistema de telefonía móvil GSM o 2G. Además, carecemos de una industria audiovisual -como la americana- para poder empujar hacia una dirección y ya, para colmo, en los años ochenta, se había empezado a desmontar la industria de electrónica de consumo y solo Philips resistía. Por estas razones Video 2000 desapareció en 1988 sin dejar rastro.
Es curioso comprobar como el sistema VHS soportó el paso de tiempo y solo fue destronado por el DVD al final de la década de los ’90. Con VHS crecimos, compusimos nuestras preferencias cinematográficas y lo más importante, almacenamos grandes recuerdos.
Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2) | Polaroid, la fotografía instantanea y Kodak (y 3) | El Videodisco
© 1999-2025 A.G.YAGÜE - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress