La radio en España. Radiotelegrafía (2)

diciembre 7, 2024 on 5:47 pm | In colección, hist. telecomunicaciones | Comentarios desactivados en La radio en España. Radiotelegrafía (2)

Adolfo García Yagüe | La radiotelegrafía, como aplicación directa de la radio, fue una revolución en la que varias naciones -incluida la nuestra- tomaron posiciones ante la carrera tecnológica que se avecinaba. En España, tras las experiencias de 1901 del comandante Julio Cervera Baviera (1854-1927), soñábamos con alcanzar el liderazgo gracias a las patentes que nuestro héroe había desarrollado, incluso, se decía, que una de sus líneas de investigación tenía ver con la radiotelefonía, situándonos -supuestamente- muy por delante de Marconi y el resto. Consciente de este desafío, en marzo de 1902 Cervera constituyó la Sociedad Anónima Española de Telegrafía y Telefonía sin Hilos con la intención de industrializar y explotar sus inventos, además contaba con el apoyo del Ministerio de la Guerra que aspiraba a volver a tutear a cualquier potencia. ¿Qué podía salir mal?

Para intentar entender -o especular- sobre lo que aconteció, recomiendo leer el prólogo que escribió en 1904 el propio Cervera para la edición española de Ondas hertzianas y telégrafo sin hilos de Oreste Murani (1853-1937). En aquel año Cervera ya se encuentra desvinculado de la radiotelegrafía y, como él mismo cita al comienzo de este texto, al recordar el pasado “acuden a su mente amarguras y pesimismos”. Como el lector podrá comprobar en estas líneas, Cervera admite que ha sufrido “trastornos mentales” debido a su trabajo, y que sus recuerdos están “esfumados y confusos” a pesar de que apenas han transcurrido tres años desde sus éxitos iniciales.

Tras conocer las conclusiones a las que han llegado investigadores como Jesús Sánchez Miñana y Ángel Faus Belau, es complejo responder con certeza a la cuestión anterior al existir importantes discrepancias entre ambos, en particular al resultado de la conexión radiotelegráfica que Cervera tenía previsto realizar entre Jávea e Ibiza y que, sospecho, está en la raíz del infortunio. En contra de lo que afirma Ángel Faus, todo apunta a que la mencionada conexión no funcionó como se esperaba, por lo que no extraña que la crisis sufrida por Cervera tuviera su origen en la elevada presión a la que estuvo expuesto para que sus resultados fueran satisfactorios. Tampoco sorprende que, en el centro de aquella adversidad, afloraran rencillas, reproches y críticas de sus compañeros y superiores. Por estas razones, y sin abandonar el carácter especulativo de estas líneas, parece coherente pensar que lo que iba a ser un hito de la inventiva española desembocó en una pérdida de confianza hacia la figura y el trabajo de Cervera. En este orden de cosas, tampoco debemos pasar por alto la ingenuidad del gobierno español al pretender contrarrestar la capacidad de compañías extranjeras, como Telefunken o Marconi Wireless, con el único talento de Julio Cervera junto a unos pocos colaboradores dotados, todos ellos, de exiguos recursos materiales y económicos.

Sin lugar a duda nuestro apreciado comandante contaba con una gran clarividencia y tenía los conocimientos técnicos necesarios, pero, lamentablemente, no estaba un paso por delante de contemporáneos como Lodge, Popov, Marconi, Poulsen, Slavy o Fessenden. Hago esta apreciación porque así lo da a entender Ángel Faus en la sinopsis de su libro La radio en España (1896-1977) cuando afirma que “el inventor de la radio fue el español Julio Cervera Baviera y no Marconi, tal como se creía hasta ahora”. En esa línea, también considero exagerada la aseveración recogida en el mismo volumen cuando se dice que Cervera “es el pionero de la radiotelefonía con trabajos teóricos y prácticas experimentadas con anterioridad a las de Marconi y a las de todos los científicos de su momento”. Esta afirmación tampoco es cierta y debe ser contrastada visitando otro libro publicado en 1900 por el capitán Isidro Calvo Juana (1861-1928), en cuyo título ya se incluye la frase “Telefonía eléctricas sin hilos conductores” dedicando varias páginas a describir algunos sistemas experimentales para trasmisión de voz sin hilos como el fotófono de Alexander Graham Bell (1849-1922) y basado en la célula de selenio; el propuesto por el ingeniero de caminos español Manuel Maluquer Salvador (1866-1924) que emplea rayos ultravioletas y se aprovecha el efecto fotoeléctrico, descrito años antes por Heinrich Hertz y cuya descripción teórica le valió el Nobel a Albert Einstein en 1921; y el de Carlos Reichelt, que se basa en la modulación de un arco voltaico y nos recuerda al mítico Arco de Poulsen inventado en 1903 por Valdemar Poulsen (1869-1942) y que sería, realmente, uno de los primeros generadores de ondas continuas de frecuencia fija que posibilitaron la trasmisión de la voz por radio.

Red militar
Sin duda, el abandono de la opción Cervera fue un golpe de realidad a las aspiraciones españolas, pero, a pesar de ello, el Ejercito no albergaba dudas de la importancia que tenía contar con una red de radiotelegrafía propia. Con este fin, entre 1903 y 1905, se tomarán una serie de decisiones que marcarán el devenir de los siguientes años, como el compromiso del Estado español con las iniciativas internacionales para reglamentar y unificar las comunicaciones por radio y la creación, dentro del Ejercito, del Centro Electrotécnico y de Comunicaciones en quien se delegó la construcción y puesta en marcha de una Red Radiotelegráfica Militar Permanente con equipos de la firma Telefunken.

Como hemos dicho, durante la primera quincena de agosto de 1903, España, a través de sus delegados Isidro Calvo Juana y Antonio Peláez Campomanes, en representación del Ministerio de la Guerra y Mateo García de los Reyes por parte del Ministerio de Marina, participarán en la Convención que tuvo lugar en Berlín para la preparación la Primera Conferencia Radiotelegráfica Internacional, cuya realización estaba prevista en 1906 en la misma ciudad. En aquella Convención de 1903, además de sentar las bases para reglamentar los detalles técnicos de la comunicación radio, como la asignación de frecuencias e indicativos para cada estación, tuvo especial importancia llegar a un compromiso entre naciones para frenar las prácticas monopolísticas que venía realizando la Marconi Wireless, como, por ejemplo, aquella que impedía a sus telegrafistas comunicarse y atender un mensaje de otras estaciones cuyos equipos no fuesen Marconi. Evidentemente, a excepción de Reino Unido e Italia, cuya relación con la Marconi Wireless era claramente ventajosa, el resto de los países participantes llegaron al acuerdo y establecieron la obligatoriedad de atender cualquier mensaje, en especial los de socorro, sin importar el equipo radiotelegráfico y estación que lo emitiese y recibiera. En este sentido, en la Conferencia de 1906, quedo establecido el uso de la señal de socorro SOS.

Fruto del exquisito trato que recibieron nuestros representantes en Berlín, el recelo que suscitaba la Marconi Wireless o la admiración que sentían algunos militares por el Ejercito Prusiano, a partir del verano de 1904 se empiezan a probar las prestaciones del modelo 1904, transportable en carro, de la firma Telefunken para, posteriormente, seleccionar a esta compañía frente a otras opciones como las de Marconi o las francesas Rochefort y Ducretet. Pero sin duda, el hecho más trascendente de aquel año es la creación en el mes de noviembre del Centro Electrotécnico y de Comunicaciones.

En efecto, ante los importantes desafíos que tenía que encarar nuestro país para ponerse al nivel de otras potencias y atender las acuciantes necesidades que llegaban desde el norte de África, se reunió en un único Cuerpo el conocimiento tecnológico que, hasta el momento, estaba disperso en otras unidades integrando en él, además, a las tropas de la Compañía de Telégrafos de la Red de Madrid y a la Escuela Central de Telegrafía junto a la unidad de Estudios y Experiencias. Uno de los primeros cometidos del Centro Electrotécnico y de Comunicaciones fue organizar el primer curso de radiotelegrafía para reglamentar y unificar la capacitación técnica del personal de otros Cuerpos. En paralelo, el Centro Electrotécnico, establecerá los criterios técnicos que se seguirán en la construcción y puesta en marcha de varias estaciones de radiotelegrafía en la península y África, como la construida en Chamartín de la Rosa en 1905 (Madrid) y empleada en los ensayos que se venían realizando.

Tras la publicación en enero de 1908 en la Gaceta de Madrid (antiguo BOE) de la regulación aplicable al servicio radiotelegráfico, comienza la puesta en servicio de esas primeras estaciones para uso militar. De ellas, la más imponente y representativa será la que se inauguró en julio de 1908 en la Alcazaba de Almería que, como sabéis, fue levantada en tiempos de Abderramán I y Almanzor. Esta estación, cuyo alcance era de 300Km en las longitudes de onda de 300, 600, 900 y 1200 metros, garantizaba la comunicación con Melilla y Ceuta, además, en condiciones óptimas de propagación radio, podría llegar hasta los 500Km y alcanzar la posición de El Harcha y las ciudades de Fez, Alcazarquivir y Larache.

En este repaso, tampoco podemos olvidar la puesta en servicio, en abril de 1911, de la Estación Central de Carabanchel cuya inauguración fue un acontecimiento que mereció la presencia de S.M. El Rey Alfonso XIII. Con un alcance garantizado de 2000Km en 600, 900, 1600, 2000 y 2500 metros cubría la comunicación con las Islas Canarias, todo el norte de África y nos acercaba, sin dificultad, a las principales capitales europeas y, en condiciones óptimas, nos dejaba cerca de Moscú y San Petersburgo. Aquel mismo año también entrarían en servicio otras estaciones importantes como la Barcelona-Montjuic (1000Km en 600, 1000 y 1500m), Ceuta (750Km en 600, 1200 y 1500m), Larache (500Km en 600, 900 y 1200m) y Bilbao y Valencia en 1913, Tetuán en 1914, así hasta un total de 29.

Red civil
Tras la regulación comentada anteriormente y fruto de las dificultades económicas del momento, el Estado sacó a subasta pública la creación y explotación de la red civil. El adjudicatario se comprometía a financiar la construcción de esta red radiotelegráfica por un total de 2,3 millones de pesetas, y a pagar al Estado 150.000 pesetas anuales en concepto de canon por la prestación del servicio. A cambio, el Estado acordaba pagar anualmente hasta amortizar la deuda y, durante este tiempo, ofrecía al ganador disfrutar del beneficio económico derivado de la citada prestación del servicio. Tras el periodo de amortización, estimado entre 20 y 30 años, la red pasaría a ser propiedad del Estado.

Entre los requerimientos publicados se indicó que la red se compondría de un total de 24 estaciones radiotelegráficas costeras y su propósito sería atender las comunicaciones marítimas. Esta red estaría formada por 2 estaciones de primera clase, en Cádiz y Tenerife, cuyo alcance mínimo será de 1600Km en las longitudes de onda de 300, 600 y 1600 metros; 5 de segunda clase (400Km en 300 y 600 metros) en Finisterre, Tarifa, Cabo de Gata, La Nao y Menorca; 17 de tercera clase (200Km y 300m) en Barcelona, Mallorca, Málaga, cabo de Creus o de Bagur, Peñas, Estaca de Bares, islas Cíes, cabo de Palos, Vinaroz o Los Alfaques, cabo Machichaco, Mayor o Quejo, Lanzarote, Fuerteventura, Gran Canaria, Gomera, Palma y Hierro.

Aquella fórmula no fue del agrado del Cuerpo de Telégrafos porque suponía una intromisión en sus competencias y, además, estas estaciones costeras eran percibidas como una amenaza que se integraba en la (su) red telegráfica fija. Tampoco fascino a las empresas candidatas que entendieron que aquella subasta estaba muy limitada económicamente (los 2,3 millones) y que sería imposible cumplir con lo pactado. Finalmente, la concesión fue adjudicada a la única empresa que se presentó, Oerlikon, una compañía que ya operaba en España y formaba parte de la sociedad suiza del mismo nombre dedicada a maquinaria eléctrica. Para salvar el obstáculo donde se solicitaba que la empresa concesionaria fuese española, se constituyó la Compañía Concesionaria del Servicio Público Español de Telegrafía sin Hilos.

En aquella Compañía Concesionaria también participaba en calidad de socio tecnológico la Compagnie Française de Télégraphie sans Fil et d’Applications Électriques. Uno de los primeros pasos de esta empresa se sitúa en 1902 en su intento de introducirse en España a través de la Sociedad Anónima Española de Telegrafía y Telefonía sin Hilos de Julio Cervera Baviera. A pesar de su supuesta pericia técnica no fueron capaces de poner en marcha ninguna estación y, hacia el otoño de 1910 y tras varias moratorias, la empresa sería absorbida por la Marconi Wireless a quién se traspasaron sus obligaciones y derechos en una nueva sociedad creada en diciembre de 1910: la Compañía Nacional de Telegrafía sin Hilos.

Marconi’s Wireless Telegraph Company
Desde su fundación la Marconi Wireless entendía la radiotelegrafía como un servicio “llave en mano” que arrancaba con la construcción de las estaciones y el suministro de los equipos radio, e incluía la formación y asignación de los operadores radiotelegrafistas. Este es el modelo que se adoptó en la Compañía Nacional permitiendo al Estado español, o a navieras como la Trasatlántica, desentenderse de los entresijos del servicio, pero a la vez, fortalecía la posición monopolística de la Marconi Wireless al tener el control de cada estación radiotelegráfica. Un ejemplo de este estatus implicaba que el radiotelegrafista de un crucero, en su “sala Marconi”, atendía y cobraba a los pasajeros por el servicio de envío y recepción de “marconigramas” personales. Otra tarea peculiar de estos radiotelegrafistas tenía que ver con la recepción de las noticias que se producían en el continente para publicarlas, al día siguiente, en un diario impreso que se podía adquirir en el propio buque. En resumen, para la Marconi Wireless la radiotelegrafía se había convertido en una tecnología alrededor de la cual incrementar sus ganancias con servicios de todo tipo, no existiendo una clara diferencia entre las comunicaciones de apoyo a la navegación del resto de atribuciones.

Paradójicamente, la Marconi Wireless fue una de las empresas que rehusó presentarse a la subasta de las estaciones costeras planificadas por España. Incluso, fue el propio Guillermo Marconi quién estimó que su coste rondaba los 7 millones de pesetas, muy por encima de los 2,3 millones presupuestados. ¿Qué había cambiado para sacar del aprieto al Estado español? Fácil. Atrapados en la desesperación, el Gobierno dio carta blanca a la Marconi Wireless para repensar el proyecto y plantearlo de tal forma que este fuera rentable y técnicamente viable. A fin de cuentas, esta era la compañía de mundo que más sabía de radiotelegrafía y de la prestación de este servicio.

Resumidamente, nuestra Compañía Nacional de Telégrafos sin Hilos dedicó el año 1911 a poner a punto un primer grupo de estaciones: Barcelona-El Prat, Cádiz, Tenerife y Las Palmas. Al año siguiente entrarían en servicio Vigo, Sóller y una nueva estación central de gran potencia que no estaba en los planes originales: Madrid-Aranjuez. La idea era que esta estación hiciese de punto central de las costeras para el intercambio de mensajes entre ellas y, además, permitiese el enlace con Gran Bretaña. Evidentemente, sobre el papel no se cumplía con lo acordado ya que el Gobierno solicitaba 24 estaciones, pero, en cambio, aquella disposición parecía ser más eficiente y barata (Visita a la estación y malestar en el Cuerpo de Telégrafos en 1921).

En diciembre de 1911, la recién inaugurada estación costera de Cádiz, demostró una eficacia ejemplar al cooperar en el salvamento de las casi 200 personas a bordo de vapor SS Delhi cuando este naufragó al norte de Marruecos, en cambio, el trágico incidente del RMS Titanic de la naviera White Star Line en la noche del 14 al 15 de abril de 1912, evidenció errores como que los radiotelegrafistas de la Marconi Wireless, Phillips y Bride, al estar ocupados cursando los mensajes del pasaje, no escucharan los mensajes de los mercantes SS Mesaba y SS Californian alertándoles de la existencia de bloques de hielo en la ruta que seguían. Además, al ser personal externo, aquellos operadores no estaban integrados con claridad en la cadena de mando del buque y carecían de unos protocolos claros para mantener constantemente informadas a una o más estaciones costeras, al Capitán Edward John Smith (1850-1912), ni el proceder ante semejante situación, como el uso del mensaje de socorro SOS frente al código CQD… A pesar de todo, gracias al heroico operador John George Phillips (1887-1912) se logró salvar más de 700 de vidas.

Volviendo a la red radiotelegráfica de la Compañía Nacional de Telegrafía sin Hilos, las sospechas del Cuerpo de Telégrafos se cumplieron, y aquella arquitectura radial permitía prescindir de ellos y facilitaba a la Compañía Nacional competir libremente como un operador de telegrafía autónomo. En este sentido, en julio de 1912, la citada Compañía Nacional de Telégrafos sin Hilos consiguió del Gobierno una autorización para poder abrir en las ciudades oficinas de atención al público para el envío y recepción de telegramas. El propio Guillermo Marconi se implicó personalmente y, en su visita a Madrid en mayo de 1912 deslumbró al Rey, al Gobierno y todas sus élites y, en general, a toda la sociedad española que ensalzaba su figura como el inventor de la radio, y la persona que había salvado a cientos de personas tras el naufragio del Titanic…

Conferencia Internacional de Radiotelegrafía de 1912
Durante los meses de junio y julio de 1912 tuvo lugar en Londres la Segunda Conferencia Internacional de Radiotelegrafía. Esta Conferencia estuvo marcada por el desastre del Titanic y puso el acento en la seguridad marítima y los protocolos que se tenían que seguir en las estaciones radiotelegráficas. Entre los acuerdos alcanzados estaba la necesidad de regular la capacitación de los radiotelegrafistas, y que ésta estuviera bajo el control de cada uno de los estados firmantes a través del establecimiento de Escuelas Oficiales.

En el caso español, para cumplir con esta obligación, recayó en el Cuerpo de Telégrafos la responsabilidad de poner en marcha la Escuela General de Telegrafía en junio de 1913. A partir de este momento, para que cualquier telegrafista pudiera ejercer en una red civil, tenía que cursar estudios en ella trucando levemente las ambiciones monopolísticas de la Marconi Wireless (Malestar del Cuerpo de Telégrafos en 1920).

En sus inicios, el plan de formación de esta Escuela General de Telegrafía constaba de tres módulos, en el primero de ellos se cubrían los conocimientos elementales de telefonía, telegrafía y de radiotelegrafía. Tras este curso se podía optar al siguiente módulo para ingresar en el Cuerpo de Telégrafos. Si se superaba esta formación, es decir, si el candidato ya era Oficial de Telégrafos, podía acceder al último módulo de Estudios Superiores para la obtención del título de Ingeniero. En la colección podéis consultar parte de la cartilla que seguían los estudiantes de la Escuela General de Telegrafía. De ella he recogido los esquemas dedicados al estudio de los fundamentos de telefonía, sistema Siemens, Western Electric, Kellogg y Ericsson, el sistema telegráfico Hughes dúplex Santano, telegrafía submarina, estación radiotelegráfica Telefunken, Marconi, sintonizador Marconi, aparato múltiple Baudot y manipulador Baudot de Mierich-Siemens.

En aquella Conferencia de Londres también se alcanzaron otros acuerdos igualmente importantes, entre ellos destaca la obligación de establecer turnos de guardia en buques y estaciones radiotelegráficas para asegurar la vigilancia constante. Además, se fijó la longitud de onda de 600 metros como canal preferente para realizar llamadas de emergencia y de socorro, y que estas estuvieran precedidas del mensaje de socorro SOS para tener prioridad absoluta frente a otras comunicaciones. Por último, quedaba universalizada la neutralidad de la red radiotelegráfica y la interoperabilidad entre equipos, estando obligadas todas las estaciones a atender cualquier mensaje de socorro sin importar el operador, su sistema y fabricante [Continuará].

Colección | Telégrafo y Telecomunicación | Marconi y el Día Internacional de la Radio | Telegrafía y Telefonía | Construcción de un Telégrafo | La radio en España. Pioneros (1)

La radio en España. Pioneros (1)

noviembre 2, 2024 on 1:15 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. telecomunicaciones | Comentarios desactivados en La radio en España. Pioneros (1)

Adolfo García Yagüe | La invención de la radio es uno de los logros más importantes del progreso de la humanidad. Aquellas primeras trasmisiones que cruzaron el Canal de la Mancha o, en el caso español entre Tarifa y Ceuta, trasformaron radicalmente el siglo que comenzaba y fueron el origen de una revolución aun mayor dominada por la electrónica y las telecomunicaciones. En la actualidad, más allá de algún aficionado y estudioso en la materia, pocos conocen como comenzó esta historia. Por este motivo, en esta serie de textos, intentaré resumir lo qué pasó en nuestro país hace más de 100 años. Os pido disculpas por los posibles errores cometidos, apreciaciones equivocadas y omisiones que echéis en falta.

Julio Cervera Baviera
Como no podía ser de otra forma, este recorrido comienza recordando la figura del comandante Cervera, protagonista indiscutible de los primeros instantes de la radiocomunicación en España. Julio Cervera Baviera (1854-1927), natural de Castellón, ingresó en el Ejercito en 1874 y años más tarde pasó a la Academia de Ingenieros del Ejército en Guadalajara. Entre los años 1884 y 1887 realizó diferentes viajes expedicionarios por el interior de Marruecos donde comprobó la importancia de mantener contacto con las plazas españolas. Fruto de aquella necesidad, dirigió su atención hacia las noticias que relataban que un desconocido Guillermo Marconi (1874-1937) había logrado establecer una comunicación telegráfica entre dos puntos distantes a través del éter. Por esta razón, en 1899 el ejercito encomendaría a Cervera la misión de viajar a París y Londres para conocer más detalles sobre la técnica empleada por Marconi y su aplicabilidad militar. No olvidemos que, en aquel momento, para satisfacer las comunicaciones telegráficas con la península se desplegaban costosos cables submarinos, como el efímero y primer cable entre Algeciras y Ceuta (1858), Jávea e Ibiza (1861) y Cádiz con Tenerife (1883).

Tal fue la impresión de Cervera que, a su regreso a España, imagina la aplicación de telecontrol gracias a la novedosa comunicación inalámbrica. También desarrolla algunas mejoras sobre lo visto en Londres, como un sistema manipulador que permite incrementar la velocidad de los despachos telegráficos. Este entusiasmo contará con el respaldo del Ministerio de la Guerra, que le designa para llevar a cabo las pertinentes pruebas prácticas y localizar los emplazamientos más adecuados para poner en marcha las primeras estaciones de radiotelegrafía. Fruto de aquel encargo y debido a la importancia de las ciudades de Ceuta y Melilla, la conexión de radio más simbólica fue la establecida entre Tarifa y Ceuta en 1901. Recordar que en aquellos años España todavía mantiene su presencia en el Golfo de Guinea y la tensión con Marruecos iría en aumento (Guerra del Rif, Administración del Protectorado Español, etc.) por lo que será estratégico contar con un sólido canal de comunicación con la península.

Isidro Calvo Juana
Como es fácil intuir, Cervera acaparó la atención de las crónicas de la época y llegaría a convertirse en la cara visible de los primeros avances radiotelegráficos, pero, es justo recordar que sus trabajos fueron posibles gracias a la abnegada contribución de decenas de miembros del Cuerpo de Telégrafos y del Ejército, como los tenientes de Ingenieros Antonio Peláez Campomanes y Tomás Fernández Quintana. Otro ejemplo de este objetivo compartido dentro del Ejercito es la publicación, en junio de 1900, del libro titulado Aplicaciones de las Oscilaciones Hertzianas, Telegrafía y Telefonía sin hilos conductores, por Isidro Calvo Juana (1861-1928), capitán de Ingenieros y profesor de la Academia de Ingenieros de Guadalajara.

Habitualmente esta publicación es considerada la primera en ser editada sobre estos temas en España e, imaginamos, que no pasó desapercibida para Cervera y el resto. En este volumen, por ejemplo, se describe en detalle el sistema de Marconi y se explican algunas contribuciones esenciales como la teoría de Maxwell, o las experiencias de Herz, Lodge, Branly, Popov y Tesla. Además, se enumeran los ensayos que han sido documentados hasta la fecha siendo, por este orden, el de Popov (Rusia, 1895), Marconi (Experiencias en Italia, Reino Unido y Francia entre los años 1896 y 1899) y Cervera junto a personal del Batallón de Telégrafos en presencia de SS.MM. el Rey Alfonso XIII y su madre, la Reina Regente (en Madrid, 1899), indicando además que Cervera emplea “el sistema Marconi, algo modificado”.

Leonardo Torres Quevedo
En este repaso histórico tampoco podemos dejar de mencionar al insigne cántabro D. Leonardo Torres Quevedo (1852-1936) quién, en 1903, presentó el Telekino ante la Academia de las Ciencias de París. El Telekino fue el primer sistema experimental que permitía el guiado remoto de una embarcación. Ya hemos dicho que esta aplicación de la radiofrecuencia fue imaginada antes por el comandante Cervera e, incluso, el capitán Calvo la consideró en un artículo fechado en 1901, pero fue Torres Quevedo quién ostenta la primicia como así se refleja en su patente del 1 de diciembre de 1903.

El Telekino fue consecuencia de los trabajos que venía desarrollando Torres Quevedo con sus dirigibles. D. Leonardo vio en la radiofrecuencia un auxilio para que, ante un accidente en los vuelos de prueba de aquellas aeronaves, no peligrara la vida de ningún piloto. Con esta idea básica avanzó en la construcción del Telekino contando con la colaboración de M. Rochefort, experto en radiotelegrafía y del Laboratorio de Mecánica de la Sorbona de París. El Telekino era capaz de interpretar un conjunto de señales morse con las que se gobernaba remotamente el cambio de velocidad (marcha adelante, atrás, velocidad, parada), dirección (rumbo recto o viraje pequeño, mediano y máximo a la izquierda o derecha) y saludo de bandera. Incluso también se contemplaba la parada de emergencia ante la perdida de la conexión radio.

El Telekino fue objeto de numerosas demostraciones entre las que destaca Bilbao en 1905, Madrid en 1906 (lago de la Casa de Campo) y, de nuevo, Bilbao en septiembre de 1906 ante S.M. el Rey Alfonso XIII. Como era menester, en estas presentaciones se contaba con la presencia de miembros del Ministerio de Marina y, a través de estos, se avaló repetidamente el potencial del Telekino para el control remoto de embarcaciones y torpedos, pero, por esas razones que solo los españoles comprendemos, no se materializaron en nada, salvo indiferencia y olvido. También en 1906, tras sufrir este desengaño patrio, Torres Quevedo conoció los ensayos que hizo el francés M. Davaux con un aparato similar al Telekino e inició un vano intercambio de correspondencia con la Societé Internacionale de Electriciens para reivindicar su invención.

Matías Balsera Rodríguez
También es común atribuir la invención del citado control remoto a Matías Balsera Rodríguez (1883-1952) quien, entre el periodo 1905 y 1908, realizó numerosas demostraciones, incluida la obligada ante su S.M. el Rey Alfonso XIII el 3 de abril de 1907 en Cartagena. Su aportación más relevante, frente a la idea de Torres Quevedo, tenía que ver con la protección del canal de comunicación radio, poniendo de manifiesto lo vulnerable que este puede ser frente a la escucha no autorizada, suplantación o interferencia del adversario.

Natural de Huelva, Balsera inició su actividad profesional en el Cuerpo de Telégrafos en 1904. A partir de aquellos años empieza a ganar cierta notoriedad tras impartir pequeñas conferencias donde divulga los principios de la tecnología radio presentando algunas experiencias e invenciones que, como aficionado, ha desarrollado en este campo. En este sentido, su vida estuvo marcada por la invención constante, tanto de nuevas aplicaciones de las radiocomunicaciones como de mejoras sobre las tecnologías existentes. Lamentablemente, Balsera vivió en unos tiempos convulsos en un país refractario a toda novedad que nace fuera del perímetro oficial. También, a diferencia de otros países, en España no existía un tejido empresarial capaz de valorar adecuadamente sus ideas y defenderlas, y algo tan esencial como promocionar y comercializar aquellas innovaciones por lo que todo su esfuerzo apenas tuvo repercusión más allá de numerosas demostraciones y notas de prensa que convirtieron, por cierto, a D. Matías en una autoridad respetada y popularmente reconocida.

Es importante destacar que, al revisar ciertos textos de la época que mencionan a Balsera, e incluso algunos artículos actuales, se encuentran afirmaciones incorrectas o, al menos, exageradas. Por ejemplo, en esas notas de prensa se indica que el sistema de telecontrol cuenta con un sintonizador de su creación, dando por sentado que el circuito de sintonía ha sido inventado por el propio Balsera. Lamentablemente, esto no es exacto y se ha ido perpetuando a lo largo de los años. Recordemos que la patente del sintonizador corresponde a Marconi y tiene fecha de 1900. Es más, aquella patente número 7777 fue objeto de disputa porque se inspira en un circuito anterior patentado por Oliver Joseph Lodge (1851-1940) en 1898. Por otro lado, por lo prematuro de la fechas -al no existir tubos termoiónicos- parece complicado que, con los medios disponibles, Balsera hubiese inventado un tipo de heterodinación o codificación especial del canal radio. Quizás su solución se basaba simplemente en enmascarar la comunicación alterando la duración de los pulsos morse que corresponden al punto y la raya y, evidentemente, trabajando en una frecuencia específica gracias a un sintonizador.

En mi opinión, malentendidos similares a éste fueron consecuencia de notas de prensa y artículos escritos con buena intención, pero carentes de criterio técnico, como aquellos que relatan el logro conseguido por Balsera al establecer una Comunicación radio con un tren en marcha (1906) o la invención de un Telégrafo portátil sin pilas (1910). Por esta razón, os ruego que me permitáis ser cauteloso para evitar tropezar y repetir afirmaciones exageradas por lo que comentaré, únicamente, unas pocas referencias que ilustran a la perfección la capacidad y el espíritu de Matías Balsera. Todas ellas corresponden a la segunda década del siglo pasado, después de su regreso a España, tras permanecer en Inglaterra entre de siete y diez años, según las fuentes que se consulten.

La primera aportación que he querido recoger se publicó en El Telégrafo Español en el número de junio de 1921. El Telégrafo Español era una prestigiosa revista publicada por y para profesionales afines al Cuerpo de Telégrafos. En ella se detalla la presentación que hace Balsera de un equipo de su invención que mejora significativamente las prestaciones del sistema Hughes al estar basado íntegramente en elementos eléctricos, no mecánicos, como eran aquellos telégrafos. Los Hughes tradicionales, a diferencia del telégrafo clásico, contaban con un teclado alfanumérico -similar al de un piano- y eran capaces de imprimir caracteres en lugar de puntos y rayas, pero, precisaban de una sincronización previa entre ambos extremos. A pesar del potencial de este sistema Hughes mejorado, ya que en aquellos momentos el sistema Hughes tradicional era ampliamente usado en la red española, este no mereció el interés del Cuerpo de Telégrafos, siendo recordado este hecho como un desprecio hacia Balsera. En mi opinión, y sin pretender ser categórico, es importante tener en cuenta que, aun siendo un buen invento aquel equipo Hughes mejorado de Balsera, en aquellos años el sistema Hughes estaba técnicamente superado por los sistemas Baudot y el uso de terminales mecanográficos como, por ejemplo, el de Siemens, que terminaría imponiéndose frente a los manipuladores tradicionales y teclados tipo piano. Por otro lado, hay que destacar que ambas tecnologías ya eran objeto de estudio en la Escuela General de Telegrafía. Por este motivo, quizás, Telégrafos no estaba interesado en la adopción de un equipo -más moderno, eso sí- que lo único que hacía era extender la vida de un sistema en retroceso: El Hughes.

Radiodifusión según Balsera: El Palacio de Comunicaciones es el
centro de la Red y reúne los contenidos producidos en diversos lugares

Otro de hecho que quiero citar, a propósito de una entrevista publicada en el diario El Sol en noviembre en 1922, es la visión de D. Matías de cómo debería ser concebido el servicio de radiodifusión. En esta interviú se resume a grandes rasgos su propuesta de Broadcasting que -según él- debe ser un servicio prestado desde el Cuerpo de Telégrafos para el bien social. Es decir, un servicio prestado por una institución nacional donde no cabe la iniciativa privada o extranjera cuyo objetivo es, normalmente, comercial. En estas líneas también se percibe el agudo resentimiento de Balsera hacia la institución a la que pertenece, el Cuerpo de Telégrafos, diciendo que “Me fui al extranjero porque la oposición que a todo lo mío declararon ciertos jefes de la Dirección General de Telégrafos, creando una atmósfera desfavorable alrededor de los directores generales, en perjuicio de mis proyectos, me hicieron la vida imposible y tuve que emigrar porque yo no sé ganar mi sueldo sentado ante una mesa copineando despachos”.

Por otra parte, en 1925, aquel prolífico Balsera publicaría el libro titulado Radiotelefonía. En los primeros capítulos de este volumen se exponen los principios básicos de la electricidad y de la teoría electromagnética y concluye con un amplio estudio del tubo termoiónico donde detalla los circuitos más comunes. A pesar de los años transcurridos, este es un libro que merece ser tenido en cuenta por su contenido inicial, que es plenamente válido, y está escrito desde el rigor técnico sin abusar de adornos literarios. Tristemente, en sus páginas finales, Balsera no puede reprimir ese resquemor que aún mantiene con las instituciones y la poca iniciativa técnica nacional.

Por último, en 1930 presentó un dispositivo pensado para ser instalado en los convoyes de ferrocarril y detectar la presencia de un tren circulando en sentido contrario en la misma vía. El citado equipo, al advertir la colisión inminente de ambas unidades, paraba la marcha de cada tren para evitar una catástrofe. Se llegaron a realizar ensayos prácticos -y satisfactorios- en el tramo de línea férrea que une Durana y Vitoria, pero, lamentablemente, aquel invento tampoco cristalizó en un producto comercial.

Antonio Castilla López
Acabamos este repaso recordado a la persona que protagonizó en España la transición desde la radiotelegrafía a la trasmisión de la voz o, como se decía entonces, radiotelefonía. Además, fue el auténtico pionero de la radiodifusión en nuestro país y, para colmo de logros, es el individuo que importó los primeros audiones para, más tarde, fabricarlos en Madrid.

Antonio Castilla López (1886-1965) nació en Cádiz. Por algunos datos que he leído y he contrastado en diversas fuentes, provenía de una familia bien relacionada en su ciudad de origen, Jerez de la Frontera. Este detalle, aunque pueda parecer trivial, explica alguno de los contactos y apoyos que tendrá más adelante como, por ejemplo, el de Francisco Moreno Zuleta, Conde de los Andes (jerezano); Miguel Primo de Rivera, futuro jefe del gobierno (jerezano) e importantes empresarios, como Rufino de Orbe y Morales.

Castilla ingresa en el Cuerpo de Telégrafos en 1904, unos meses antes que Balsera. Más allá de alguna noticia de la época que los relaciona durante el trascurso de una demostración del telecontrol de Balsera, hay pocas señales que indiquen que esta relación se mantuviese en el tiempo. Menos aún, como se suele afirmar, que Castilla fuese el ayudante o discípulo de Matías Balsera. De hecho, ambos seguirán caminos diferentes pues Castilla, en 1906, es destinado a Barcelona y permanece allí hasta 1913. Durante aquellos años su prestigio va en aumento y se convierte en un referente técnico llegando a ejercer como profesor de electricidad aplicada en un centro privado llamado Escuela de Ingenieros de Sarriá.

A pesar de ser un simple telegrafista, como él mismo se definía, el Cuerpo de Telégrafos le concedió una beca para que pudiese viajar a París, Roma, Berlín, Londres y, finalmente, a Estados Unidos en 1916. En aquellos viajes conoció como el triodo de Lee De Forest (1873-1961) supondrá un antes y un después en las comunicaciones por radio. Por aquel motivo, en su viaje a EE.UU., contactó con Lee De Forest e inició con él una relación comercial que le autorizaba a diseñar y comercializar en España equipos de radio con audiones De Forest y, posteriormente, fabricar estos triodos. Se cree que la contrapartida económica con la que Castilla sedujo a Lee De Forest partía del Conde de los Andes. Con semejante aval, Castilla no tardó en convertirse en un referente en nuestro país gracias a la tecnología de los tubos termoiónicos y, con el apoyo de Rufino de Orbe y Morales, fundó la Compañía Ibérica de Telecomunicación en 1916.

Rápidamente, también gracias a sus contactos, el Ejercito contó con él para probar las capacidades de los novedosos audiones en sus estaciones de Carabanchel y El Pardo. Para ello, Castilla adaptó los equipos de radiotelegrafía Telefunken allí existentes para convertirlos en emisoras de radiotelefonía. Otro de los encargos institucionales le llegó de la Dirección General de Telégrafos quién le encomendó la instalación de la nueva emisora (adquirida en 1917 y basada en tubos termoiónicos) en el futuro Palacio de Comunicaciones, cuya inauguración estaba prevista en 1919.

La Gran Guerra provocó que las empresas que fabricaban equipamiento de radio o que controlaban estaciones de radiotelegrafía fuesen intervenidas por sus respectivos gobiernos. Este parón provocó el abandono de mercados dependientes tecnológicamente, como era el español. Por esta razón, hasta los primeros años de la segunda década, la Compañía Ibérica de Telecomunicaciones gozó de un corto, pero favorable, periodo comercial como atestiguan las importantes referencias cosechadas en la Armada o en el Cuerpo de Telégrafos. También, en aquellos años, tendrá lugar la primera radioemisión pública de España, realizada por Antonio Castilla, en la Universidad de Valencia con motivo de la conferencia que allí impartió bajo el título “La física del tubo electrónico” el 22 de abril de 1920.

Como hemos comentado en otros textos, en 1920 tienen lugar en EE.UU. las primeras emisiones radiofónicas dando comienzo un nuevo ciclo donde aflorarán nuevas oportunidades comerciales para la fabricación de receptores y emisoras de radio. Por otro lado, el desabastecimiento del mercado español aludido anteriormente, dejará paso a numerosas empresas nacionales y extranjeras que buscan hacerse (o recuperar) su hueco. Esta coyuntura empujó a Ibérica de Comunicaciones a explorar mercados inexistentes en nuestro país, como el de la fabricación de receptores de onda media para el público común y la radiodifusión “alegal” a través de la emisora Radio Ibérica para, así, fomentar la compra de sus equipos. Estamos en 1924. [Continuará]

Colección | Telégrafo y Telecomunicación | Marconi y el Día Internacional de la Radio | Telegrafía y Telefonía | Construcción de un Telégrafo | La radio en España. Radiotelegrafía (2) | Emisión Termoiónica y Lee De Forest

El receptor superheterodino

agosto 29, 2024 on 4:29 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en El receptor superheterodino

Adolfo García Yagüe | En la Primera Guerra Mundial se comprobó como el uso de las telecomunicaciones representaba una ventaja en el escenario bélico, por esta razón, para contrarrestar o aprovecharse de las comunicaciones por radio que hacía el enemigo, asistimos a los albores de la guerra electrónica. Aunque existen antecedentes en la confrontación que tuvo lugar entre Rusia y Japón (1905-1906), y también en la guerra ítalo-turca (1911-1912), es en la Gran Guerra donde se inicia esta doctrina militar teniendo presente, además, que el término “electrónica” acababa de nacer y hace referencia al control que se hace de los electrones dentro del tubo termoiónico o triodo (1907).

Escuchar las trasmisiones del adversario y adelantarse a sus movimientos teniendo en cuenta sus comunicaciones, ocultar estas, descifrar mensajes, la radiogoniometría o la identificación de la posición del rival a partir de sus emisiones, perturbar sus frecuencias de comunicación o, guiar hacia objetivos -en noches cerradas- a los torpes dirigibles alemanes que pretendían emplearse como bombarderos, fueron algunas de las primeras misiones de los ingenieros de trasmisiones. Uno de aquellos ingenieros fue Edwin Howard Armstrong (1890-1954) quien, en 1917, tras la entrada en la Gran Guerra de EE.UU. sirvió con el grado de Mayor en el legendario Signal Corps y, cuya misión conocida, fue la de rastrear las comunicaciones del enemigo.

El joven Armstrong llegó a Europa avalado por su experiencia en el mundo de la radio tras inventar el circuito regenerativo y, mientras estaba destinado en París, su principal ocupación fue mejorar la sensibilidad y selectividad de los equipos para lograr la escucha de las comunicaciones alemanas emitidas en alta frecuencia. Recordemos que los primeros triodos tenían dificultades para amplificar señales superiores a 3 megahercios (100 metros). Evidentemente, esta limitación también era sufrida por la parte contraria y condujo en 1919 a la invención del tetrodo por el alemán Walter Schottky (1886-1976).

La línea de trabajo de Armstrong se basaba en el fenómeno de heterodinación o la mezcla de dos señales de frecuencia diferente de la que resulta una tercera de frecuencia inferior. Este comportamiento era conocido y el primer intento en aplicarla a las comunicaciones inalámbricas fue hecho en 1901 por Reginald Aubrey Fessenden (1866-1932). Años más tarde, Lucien Lévy (1892-1965), quién en 1917 era el responsable del laboratorio de radio telegrafía militar situado a los pies de la Torre Eiffel, trabajó con la heterodinación con el fin de ocultar una señal de audio fuera del rango audible y, posteriormente, modular una portadora de alta frecuencia. Por su parte, Armstrong avanzó en la idea de bajar la frecuencia de una emisión del enemigo a una región intermedia que fuese fácilmente amplificable con los triodos disponibles. Por último, hay que recordar que, en el bando contrario, estas ideas también estaban en la cabeza del citado Schottky y de Alexander Meissner (1883-1958).

En noviembre de 1918, tras la firma del Armisticio de Compiègne, se daban los primeros pasos para poner fin a la primera contienda mundial y nuestros protagonistas se apresuraron en patentar las aplicaciones desarrolladas en torno a la heterodinación. Armstrong fue el primero en obtener la patente en EE.UU. el 30 de diciembre de 1918 y, cuyos derechos explotación, serían vendidos a la Westinghouse en 1920. Meses antes, también en 1918 y en Alemania, a Schottky se le había concedido una patente. Por su parte, Lévy ya había presentado una solicitud de patente en 1917 en Francia y argumentaba que Armstrong le había robado el concepto mientras estuvo destinado en París… En este sentido, parte de sus reivindicaciones fueron reconocidas en EE.UU. y, a pesar de estas diferencias, Lévy ya había alcanzado un acuerdo con la AT&T lo que allanaba el camino para que la Radio Corporation of America (RCA) pudiera comercializar un futuro receptor superheterodino con las patentes de Westinghouse y los derechos que controlaba la AT&T. Recordemos que en sus comienzos la RCA es una sociedad en la que participaban General Electric (GE), AT&T y Westinghouse con sus respectivas patentes en tecnología radio además de aportar sus capacidades industriales, como las de GE, para la fabricación del equipo que nos ocupa.

 

RCA Radiola Superheterodyne AR-812
Aunque en 1920 el concepto de la heterodinación estuviese claro, la realización práctica de un receptor con fines comerciales quedaba distante. Como hemos comentado en textos anteriores, en aquellas fechas todavía no se había desarrollado el servicio de radiodifusión que hoy conocemos y, fabricar un equipo doméstico que funcionase con más de dos o tres triodos era impensable. Estos motivos permitieron a Armstrong y a su ayudante, Harry William Houck (1896-1989), contar con unos años para ir perfeccionando el circuito de heterodinación, ajustar la cantidad de triodos empleados, optimizar el consumo eléctrico y que, aquel futuro receptor, fuese fácilmente sintonizable.

Houck y Armstrong

Como explicábamos, la ventaja más evidente de la heterodinación es que permite amplificar frecuencias fuera del rango de operación del triodo cuando la señal que se pretende escuchar es trasladada a una frecuencia inferior, es decir mejora la Sensibilidad del receptor. Es importante destacar que esta frecuencia de destino siempre será la misma y la llamaremos Frecuencia Intermedia (FI). En el empleo de esta FI reside otra de las ventajas de la heterodinación al permitirnos utilizar unos transformadores de acople optimizados solo para esa frecuencia intermedia en lugar de para una banda completa como, por ejemplo, la de onda media. Esta optimización de los transformadores para “dejar pasar” una única frecuencia (FI) lleva consigo que las siguientes etapas de amplificación solo amplificarán la emisora que está siendo trasportada en esta FI, es decir, hemos incrementado la Selectividad.

El primer receptor comercial superheterodino que diseñaron Armstrong y Houck fue el RCA Radiola Superheterodyne AR-812 (1924) y, repasando su circuito, identificamos sin dificultad un oscilador local, elemento clave de un circuito heterodino (ver zona de triodo T2). Este oscilador genera una frecuencia que puede ser modificada a través del condensador variable C3, etiquetado como Station Selector II. En el caso del AR-812, se genera esta frecuencia de heterodinación a partir del segundo armónico de la frecuencia fundamental (ver Wikipedia). En este triodo T2 también se produce la mezcla entre la frecuencia de la emisora a escuchar y la frecuencia de heterodinación y, cuyo resultado, es una resta de frecuencias igual a la Frecuencia Intermedia (FI). Por lo tanto, T2 está funcionando en modo réflex o dúplex al desempeñar dos funciones.

Ahora dirijamos nuestra atención al comienzo del circuito. Allí, tras captar la emisora deseada a través del circuito de sintonización y su condensador variable C1 denominado Station Selector I, entregamos la señal de radiofrecuencia (RF) a T1 donde es amplificada junto con la señal FI procedente de T2. Como podemos apreciar, este triodo también trabaja en réflex para lo cual se apoya en el trafo A2 que únicamente permite el paso de la FI, y el condensador C2 sólo RF. A continuación, desde T1 parten dos señales, pero el trafo A1 solo permitirá el paso de RF mientras que la señal de FI solo podrá recorrer su primario para llegar hasta el trafo A3 que está ajustado para permitir únicamente el paso de la FI al triodo T3 donde es amplificada.

Al igual que en la etapa previa, A4 solo permite el paso de la FI a T4 que actúa como detector para extraer la señal de audio. A continuación, A5 solo permite el paso de la señal de audiofrecuencia para ser amplificada en T5 y, de igual forma, en A6 y T6. Tras estas etapas ya estamos en condiciones de reproducir la señal en unos auriculares o altavoz, respectivamente.

A tratarse de un diseño que se apoya en las capacidades réflex, el AR-812 cuenta con 6 triodos en lugar de 8. Estos triodos son del modelo UV-199, que fue diseñado y fabricado por General Electric, pero etiquetado y comercializado como RCA Radiotron. Estos triodos eran de lo mejor que en aquel momento se podía utilizar en un equipo de consumo. Su corriente de filamento era de solo 0.06 amperios y 3 voltios, y su tensión de placa se situaba en 45 voltios para detección y 90 voltios como amplificador. Por este motivo, con sus 86 centímetros de largo y cerca de 20 kilogramos de peso, el AR-812 se posicionó como un equipo “portable” ideal para ser alimentado con baterías.

Ahondando en las interioridades del AR-812 diremos que tiene una antena de cuadro integrada lo que facilita la citada portabilidad, unos condensadores variables, etiquetados como Station I y II, reóstatos para el control de volumen y amplificación y… poco más… RCA se preocupó en ocultar los detalles de este equipo frente a la competencia. Para ello construyó el equipo alrededor de una caja de metal, o catacumba, donde se conectan los mencionados triodos y, en su interior se ocultan los transformadores de acople sumergidos en una capa de resina.

Volviendo a los condensadores variables que están a la vista, el ajuste de este equipo se inicia con el giro de Station Selector I. Recordemos que con este control sintonizamos la emisora que queremos escuchar, por lo tanto, tenemos que situarlo en el punto donde creemos o sabemos que se está emitiendo (por ejemplo, en el 25 del dial). A continuación, nos dirigimos a Station Selector II y lo fijamos a una posición próxima a 25 (15, por ejemplo) y, suavemente, giramos en sentido del reloj y, al aproximarse a 25, empezará a recibirse la emisora deseada. En resumen: lo que hemos hecho es fijar la frecuencia de la emisora a escuchar (Selector I) y, a continuación, hemos ido modificando la Frecuencia Intermedia (Selector II) hasta que esta ha sido compatible con los trasformadores A2, A3 y A4.

La calidad de la recepción ofrecida por el RCA Radiola AR-812 era inmejorable y, a pesar de contar con un oscilador interno, no generaban las mismas interferencias que los regenerativos ya que el usuario solo actuaba sobre la frecuencia heterodina (Selector II), no en su amplitud, permaneciendo está muy baja. Como dato curioso y para hacernos una idea de esta calidad, su precio en 1925 era de 269 dólares y, ese mismo año, un coche Ford T costaba 260 dólares.

Los otros superheterodinos
La adopción a esta tecnología por parte del resto de fabricantes fue gradual y, quizás, esta lentitud tuvo que ver con el estricto control que hizo la RCA sobre sus patentes. Digo esto porque sorprende, por ejemplo, ver como Radio Stanislas, un pequeño fabricante francés, presentó un equipo superheterodino en 1927, pero, a la vez encontramos que en 1930 Philips seguía produciendo equipos, como el costoso (y pesado: 21,5Kg) Modelo 2511, basados en amplificación tradicional, eso sí, con tetrodos.

De lo que no cabe ninguna duda es que pocos inventos han tenido una longevidad similar a la heterodinación permaneciendo, aun hoy, en la base de la mayoría de receptores de radio ajena al cambio que supuso pasar de tubos de termoiónicos a transistores y, posteriormente, a circuitos integrados y, sin importar tampoco, si la modulación está basada en amplitud (AM) o en FM (frecuencia).

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2)

Receptor réflex De Forest D-10

agosto 3, 2024 on 5:39 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Receptor réflex De Forest D-10

Adolfo García Yagüe | Al comienzo de la segunda década de Siglo XX, mientras decenas de fabricantes se apresuraban en adquirir de la Westinghouse una licencia que les autorizase a fabricar y comercializar un receptor regenerativo, Lee De Forest (1873-1961) tenía las puertas cerradas a esta innovación. La razón, a modo de escarmiento, era consecuencia de su intento de reivindicación años atrás de la patente de Edwin Howard Armstrong (1890-1954). Por otro lado, también a raíz de su disputa con John Ambrose Fleming (1849-1945) y su representada la Marconi Wireless, y tras saltarse el acuerdo que le obligaba a informar de la contabilidad relativa a la venta de triodos, una sentencia le impedía fabricar audiones hasta noviembre de 1922, momento en el que expiraba la patente del diodo termoiónico de Fleming.

Para intentar romper el bloqueo en el que se encontraba, la De Forest Radio Telephone & Telegraph comercializó algunos receptores que podían ser fácilmente reconvertidos en regenerativos mediante pequeños cambios hechos por el usuario. Aquella argucia no tardó en chocar con la justicia y no prosperó. Otra maniobra fue adquirir en 1922 la compañía Radio Craft y hacer uso de su licencia para fabricar equipos regenerativos. Una vez más los abogados de la Westinghouse salieron al paso recordando que estas licencias no eran trasferibles. Afortunadamente, tras la compra de Radio Craft se mantuvo en su puesto a su fundador Frank M. Squire quien, para eludir las repetidas obstrucciones, propuso diseñar un receptor de radio totalmente diferente a lo conocido y basado en triodos Audion.

La propuesta de Squire era desarrollar un receptor de gran capacidad de amplificación y, a la vez, emplear pocos triodos en su diseño. Para ello recurrió a los servicios de William H. Priess quien, durante su estancia en la US Navy, trabajó en un circuito de un único triodo con el que se amplificaban simultáneamente dos señales de frecuencia diferente (radiofrecuencia y audio). Esta técnica de amplificación se conoció como réflex o dúplex y se basaba en la amplificación lineal que ofrece el triodo en ambas regiones: alta y baja frecuencia. Realmente, esta idea ya había sido presentada por los alemanes Wilhelm Schloemilch (1870-1939) y Otto von Bronk (1872-1951) en una patente de 1914 y, posteriormente, fue mejorada en 1917 por el francés Marius Latour.

De Forest D-10
Este equipo fue presentado en Nueva York en marzo de 1923 y empleaba cuatro triodos audion DV-2 (filamento 5V y 0,25A) o DV-6 (6V y 0,75A). En cambio, si se pretendía ahorrar baterías y ganar en portabilidad, se recomendaba el uso de triodos DV-1 (1,5V y 0,2A). El D-10 era una evolución del modelo D-7 de tres triodos DV-1 presentado en octubre de 1922. Por su parte, el D-7A también venía equipado con tres triodos DV-6A (6V y 0,3A) y es de febrero del ‘23.

En los receptores D-7, D-7A y D-10 destaca su antena de cuadro orientable para ganar más selectividad. Esta mejora contrasta con su pobre etapa de sintonía, fiando su capacidad a las diferentes etapas de amplificación radio y a la configuración manual de bandas que se hace mediante la sustitución de sus transformadores radio.

Como se ha comentado, el D-10 cuenta con cuatro triodos que, al tratarse de funcionamiento réflex, se corresponde con 6 etapas de amplificación actuando de la siguiente manera: Tras orientar la antena de cuadro y, simultáneamente, sintonizar la estación deseada mediante los condensadores variables de tuning (ajuste grueso) y vernier (fino), la señal de radiofrecuencia elegida llegará al primer triodo (T1) donde se amplifica y gana en sensibilidad. A continuación, esta señal pasa del primario al secundario del transformador de acople A1 (cuyo núcleo es de aire) y de ahí a la segunda etapa de amplificación réflex T2. Tras esta etapa la señal puede tomar el camino a través de B1 y B2. En nuestro caso, al tratarse de una señal de alta frecuencia, solo se cursará a través de primario de B1 (núcleo aire) y B2, con núcleo de hierro, representa una barrera. A continuación, el triodo T3 (réflex) vuelve a amplificar la señal radio y, a través de C1 (núcleo aire), llegamos hasta el elemento detector que, sorprendentemente, está basado en un cristal de galena. De ahí al primario y secundario de A2 (hierro), mientras que A1 (aire) es una barrera para esta señal de baja frecuencia. En T2 (réflex) la señal de audiofrecuencia también se amplifica y recorre el primario de B1 (trafo de núcleo de aire) pero no logra pasar a su secundario llegando hasta el primario de B2 y su secundario (trafo hierro). De ahí se vuelve a amplificar en T3 (réflex). La salida de esta etapa recorre el primario de C1 y, como se trata de una señal de baja frecuencia, no llega a su secundario. En este punto estaríamos en disposición de hacer una escucha con auriculares, pero, para lograr más volumen y, si el usuario tiene desconectados sus auriculares, se cierra un circuito y se deriva la señal al primario del trafo de acope C2 desde donde la señal de audio es amplificada en el triodo T4 antes de atacar a un altavoz o altoparlante.

La manipulación de este receptor de onda media no era fácil y, a las dificultades de ajuste que supone trabajar con dos controles para la sintonía y otros dos de amplificación, hay que añadir el intercambio necesario de transformadores para fijar la banda de trabajo. Para este propósito el usuario tenía a su disposición un set de cinco trafos y una tabla donde se indicaba la posición que tres de ellos debían ocupar en el circuito en función de la banda deseada. Por último, a estas dificultades había que añadir el uso de un detector de galena y su bigote de gato que, en mi opinión, tenía que ver con alguna de las muchas disputas que tenía abiertas De Forest impidiéndole utilizar un triodo como detector. A su favor, y a diferencia de los receptores regenerativos, el D-10 era un equipo que no generaba interferencias.

En agosto de 1924, tras algo más de un año en el mercado, el D-10 fue modificado por Priess para mejorar el circuito de sintonía de la primera etapa amplificadora y así ganar en selectividad. Aquel nuevo equipo se llamó D-12. Tras acabar su trabajo Priess abandonó la compañía y se aseguró un contrato de pago de royalties por cada unidad vendida. Para ocupar su puesto Lee De Forest contrató a Roy Alexander Weagant (1881-1942) quien prosiguió con los rediseños añadiendo un quinto triodo para funciones de detección y, así, prescindir de la galena (abril 1925). No conforme con estos cambios, y con los almacenes repletos, volvió a rediseñar el D-12 para prescindir totalmente del funcionamiento réflex y así perjudicar a su ahora competidor, Priess… Imaginaros las pérdidas millonarias y la desconfianza que esto generaba entre los vendedores del D-12 y sus clientes, significando, en cierto modo, el declive de De Forest como empresario del mundo de la radio.

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | El receptor superheterodino | La radio en España. Pioneros (1)

Radio de recepción regenerativa

julio 12, 2024 on 5:12 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio de recepción regenerativa

Adolfo García Yagüe | Como vimos en el texto anterior, una radio de galena es un tipo de receptor con el que miles de aficionados se iniciaron en el mundo de las ondas. Gracias a su sencillez es posible asimilar algunos conceptos que, de otra forma, suelen ser abstractos y poco intuitivos. Este equipo también es un buen punto de partida para abordar el estudio de otros receptores más complejos basados en triodos, popularmente conocidos como lámparas o tubos de vacío.

En los primeros receptores de radio la misión de estas lámparas ha sido la detección y la amplificación de la señal de audio para así aumentar su volumen. Si os fijáis, sus áreas funcionales coinciden con las descritas en un receptor de galena.

Triodo termoiónico
Antes de avanzar, es importante situar al triodo en el contexto tecnológico de hace un siglo y entender que, en aquellos años, los tubos de vacío eran considerados sofisticados componentes electrónicos.

Además de existir patentes que restringían la fabricación de un triodo, el proceso de industrialización solo era abordable por algunas compañías. Esto significa que era necesario conocer la técnica de vaciado del interior de la ampolla y dominar la metalurgia necesaria para elaborar el filamento, rejilla y placa con calidad, garantizando, por supuesto, que la respuesta durante la vida útil del tubo se encontraba dentro unos valores de operación fiables y que estos eran comunes a toda la producción. Aquellas dificultades, junto con el incremento del consumo eléctrico que suponía usar varios triodos en un receptor y la consiguiente reducción de la vida útil de las baterías, impactaban notablemente en el precio y en los impuestos que licenciaban su uso.

Esta situación empujó a los fabricantes de receptores a ser ingeniosos y desarrollar numerosos circuitos electrónicos donde se reducía al máximo el número de triodos a costa, lógicamente, de sacrificar alguna prestación o la calidad del propio receptor. También, esta disparidad de diseños electrónicos era una forma de esquivar las patentes que protegían un determinado circuito electrónico, por lo que es normal encontrar receptores con una única lampara y otros más sofisticados donde se llegan a reunir 6 triodos.

Circuito regenerativo
Tras los primeros días de funcionamiento, un circuito como el anterior, seguramente satisfizo a miles de radioescuchas habituados a sus limitados receptores de galena. No obstante, algunos de estos aficionados pronto advertirían que, si bien la detección era más compacta, el volumen aumentaba y la escucha resultaba más clara, la sensibilidad no había mejorado significativamente y seguía siendo difícil recibir emisoras distantes.

En 1912 Edwin Howard Armstrong (1890-1954) estudiaba ingeniería eléctrica en la Universidad de Columbia y, mientras experimentaba con la capacidad de amplificación de sonido del Audion, ideo un circuito capaz de incrementar también la señal de radiofrecuencia ganando en sensibilidad. Para ello se valió de una tercera bobina, llamada de reacción, que inducía a la segunda bobina del transformador de antena parte señal ya amplificada por el triodo. Es decir, hacíamos una realimentación o regeneración positiva con la que se «vigorizaba» la señal de radiofrecuencia. Gracias al incremento de sensibilidad ofrecido por aquel ingenioso circuito y, durante el transcurso de sus primeras demostraciones, Armstrong llegó a escuchar en Nueva York mensajes cursados entre San Francisco y Honolulú, junto a otros procedentes de Irlanda.

Como recordé en el texto dedicado al triodo, la invención de este circuito también desencadenó una larga y amarga disputa entre Armstrong y Lee De Forest (1873-1961) poniendo de manifiesto que, a veces, una reinterpretación torticera puede decantar una sentencia. Me refiero a que desde hace décadas no se discute que la autoría de la invención del circuito regenerativo corresponde a Armstrong, más aun tras quedar documentado que el propio De Forest no supo explicar ante el juez (ni había rastro de una descripción previa) el principio de funcionamiento de dicho circuito, pero, en su momento y tras años de batalla legal de sus abogados, y el testimonio a favor de John Stone Stone (1869-1943) y los tácitos intereses de la ATT&T, en 1934 un juez anuló las sentencias anteriores y atribuyó la autoría del citado circuito a De Forest por el simple hecho de considerarlo un mero amplificador.

En la colección podemos conocer el aspecto de dos receptores de radio que hacen uso de la regeneración descrita: el Westinghouse RA-DA (1921) y el Westinghouse Aeriola Sr. Receiver (1922). Ambos son de los primeros equipos en ser comercializados entre el público y, concretamente, estaban dirigidos para uso amateur y experimental, no como un receptor broadcast para escuchar emisiones radiofónicas, entre otras cosas porque las primeras emisiones comerciales empezaron unos meses antes con la KDKA -propiedad de Westinghouse- en Pittsburgh. Mediante estos dos equipos la Westinghouse pretendía afianzar su posición en mundo de la radio e ir cubriendo huecos de la futura cadena de valor: Fabricante y proveedor de equipos de emisión, propietario de frecuencias y emisoras y, por último, ser un fabricante y proveedor de equipos receptores de usuario.

El RA-DA está formado por dos módulos: RA para la sintonía y DA amplificación. El núcleo del módulo RA es la mencionada bobina de reacción junto a los controles para una sintonía gruesa o “Turner”, otra más precisa y selectiva a través de “Vernier” y, por último, un ajuste del grado de reacción a través de “Tickler”. Por su parte, el módulo de amplificación DA cuenta con tres triodos, un UV-200 para detección y dos UV-201 para la amplificación audio, junto a sus correspondientes controles con los que se regula la corriente del filamento en cada una de estas lámparas.

Este receptor fue diseñado entre los años 1919 y 1920 por Frank Conrad (1874-1941) quién, desde el año 1916 y a título particular y experimental, organizaba trasmisiones radiofónicas bajo la licencia e indicativo 8XK. Este interés y experiencia de Conrad sirvió de inspiración para que la Westinghouse pusiese en marcha la KDKA.

Por otra parte, el Westinghouse Aeriola Sr. Receiver representa un buen ejemplo de aquellos equipos económicos que resumieron su diseño a la mínima expresión, es decir, solo emplea el triodo WD-11. Además, su presentación, en una pequeña caja de madera junto a las instrucciones de operación, evidencia que estaba dirigido a entusiastas y aficionados que querían abrirse un hueco en esta nueva tecnología. Por último, este equipo también atestigua los comienzos de la todopoderosa RCA (Radio Corporation of America) como revendedor de los equipos que otras firmas fabricaban (P. Ej. Westinghouse). Esto fue así porque, durante la Primera Guerra Mundial, EE.UU. experimentó lo que significaba carecer de independencia tecnológica en el terreno de la radio y depender de británicos (Marconi Wireless) y franceses (triodo TM) frente a un enemigo bien preparado, como los alemanes con Telefunken y Siemens y así, en 1919, decidió concentrar en una compañía llamada RCA todo el conocimiento sobre tecnología radio, sus patentes y el servicio internacional que venía prestando la Marconi Wireless. Como era evidente, en aquella empresa participarían, entre otros accionistas, la General Electric, Westinghouse y ATT&T.

Por último, solo recordar que el uso de equipos como el RA-DA o el Aeriola Senior requerían algo de pericia por parte del oyente y, en cierto modo, suponemos que era deseable conocer su principio de funcionamiento para evitar incómodos silbidos y molestas interferencias. A pesar de aquellas dificultades, equipos similares a estos fueron bastante populares hasta los años 30 cuando se decretó su prohibición. La razón de semejante medida era consecuencia de las interferencias que provocaban sobre otros receptores próximos. Pensemos que aquel proceso de retroalimentación con el que la señal de radiofrecuencia se amplificaba era una forma de radioemisión sin control y esto, en una época donde empezaban a proliferar los receptores domésticos, no se podía tolerar.

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1)

Radio Galena

febrero 13, 2024 on 7:48 am | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio Galena

Adolfo García Yagüe | Hace 100 años, alrededor de la radio, miles de personas sucumbieron ante el primer delirio tecnológico de la historia. Recordemos que nuestro querido Siglo XX se inició con las experiencias de Marconi y, durante sus primeras décadas, la industria electrónica, las telecomunicaciones y la radiodifusión vivieron su particular adolescencia. Tras la invención de la radio todo parecía posible, desde enviar energía eléctrica a distancia -sin cables- a fabricar tu propio receptor para escuchar el parte de noticias y la previsión meteorológica de remotas latitudes o, intercambiar algún mensaje con simpáticos marcianos… Sin lugar a dudas, la humanidad había entrado en una nueva era.

Tras la Primera Guerra Mundial empiezan a aparecer publicaciones especializadas y noticias en prensa recogiendo los avances técnicos que se están produciendo en el campo de la difusión del sonido a través de las ondas. A este ambiente de novedad y expectación contribuyó su aparente sencillez, siendo posible, con un poco de pericia, construir un económico receptor de onda media que no precisaba corriente eléctrica para funcionar, basado en la detección a cristal que hacen algunos minerales como la galena, el carborundum o la pirita. Lo importante era entender los conceptos y dejarse guiar por algún galenista más aventajado. En este sentido, cabe destacar, la publicación por parte la Oficina de Estándares de EE.UU., de un par boletines con los detalles constructivos de una radio de este tipo. Aquellas guías, que coincidían con las primeras emisiones comerciales, fueron una forma de divulgar este nuevo medio entre aquellos oyentes que carecían de los recursos para adquirir -o fabricarse- un costoso receptor de tubos de vacío. Tampoco hay que olvidar que otro de los alicientes de esta nueva tecnología, a diferencia de otras previas como el telégrafo y el teléfono, tenía que ver con el hecho de que la radio no precisaba de una infraestructura de cables y centrales telefónicas para disfrutar de ella. Por eso, cualquier aficionado podía introducirse en esta tecnología con solo disponer de un receptor y dedicar horas a rastrear emisiones, alguna de ellas en otro idioma, de carácter oficial o, simplemente, procedente de otro aficionado.

Antena
En un receptor de galena se identifican cuatro etapas funcionales. La primera, denomina antena, puede ser un simple cable capaz de captar ondas electromagnéticas y convertir estas en señales eléctricas. La longitud de este cable será compatible con la longitud de onda de la banda que pretendemos recibir e, idealmente, debe estar ubicada en el exterior, en un espacio abierto y elevado, lejos de estructuras metálicas y otras fuentes de ruido eléctrico como redes de distribución de energía. Este cable, si se encuentra en el exterior, alejado de edificios y otras estructuras más elevadas, es conveniente que esté conectado a tierra a través de un protector de rayos.

Para recordar su origen es necesario remontarse a 1887 y conocer las experiencias que realizó Heinrich Rudolf Hertz (1857-1895) sobre la propagación electromagnética. Con ellas se ratificaba la teoría descrita por James Clerk Maxwell (1831-1879) en 1865 y, aunque en ese momento no se puede hablar de una comunicación propiamente dicha, aquellos trabajos fueron el inicio de numerosas líneas de investigaciones entre las que destacan las de Aleksandr Stepánovich Popov (1859-1906) en la Universidad de San Petersburgo en 1897. Popov avanzó en la posibilidad de comunicarse a distancia si ambos elementos, emisor y receptor, estaban conectados a un largo cable o antena.

Sintonía
Volvamos a nuestro circuito. A continuación, para excluir de la antena las señales eléctricas no deseadas, necesitamos un circuito de sintonía capaz de entrar en resonancia con la estación emisora elegida permitiendo el paso de la frecuencia seleccionada. Este circuito, en su forma más básica, constará de una bobina y un condensador que, idealmente, tienen que permitir alguna forma de variación de sus valores de inductancia y capacitancia, respectivamente, para tener cierto control en la elección de la frecuencia o emisora que pretendemos oír.

Precisamente, la diferencia más significativa entre los distintos receptores de galena se encuentra en esta etapa. En ella, partiendo de la premisa comentada antes, se han empleado diversas aproximaciones con el fin de logar un ajuste más preciso y selectivo con el que discriminar la recepción de una emisora que interfiere con la que realmente deseamos escuchar. Un ejemplo de ello son los sintonizadores donde, mediante un cursor deslizante sobre una bobina cilíndrica, seleccionamos el número de espiras que forman parte de ésta cambiando así su inductancia. En otros diseños, este cambio de inductancia se realiza a través de un conmutador rotativo o maneta de contactos con el que se  selecciona una determinada posición o toma -ya preestablecida- en las espiras de una bobina cilíndrica o de fondo de cesto. En cambio, en otros receptores, se modifica manualmente la inductancia mediante la variación del acople entre dos bobinas, o la capacidad de un condensador variable.

Para acabar, es importante recordar aquellos receptores donde la bobina de sintonía era sustituida por un trasformador con el que se separaba la etapa de antena de la de sintonía y, cuyo acople, era configurable manualmente. Este trasformador permitía la adaptación de impedancias entre ambas etapas con lo que se lograba mejor selectividad y, además, también permitía modificar el valor de inductancia de cada bobina mediante una maneta de contactos como la descrita anteriormente. En su forma más antigua, estos trasformadores eran construidos artesanalmente mediante dos bobinas cilíndricas móviles, una dentro de la otra. Más adelante se emplearon dos bobinas de nido de abeja intercambiables donde, modificando la distancia entre ambas, se variaba el acople.

En el plano histórico hay que recordar que la invención del sintonizador se atribuye a Oliver Joseph Lodge (1851-1940), físico británico y pionero en la telegrafía sin hilos. Lodge obtuvo en 1898 la patente de éste, iniciándose así el enfrentamiento con la Marconi Wireless que, un año antes, había sido fundada para comercializar servicios de telegrafía inalámbrica y, utilizaba, un sintonizador similar al concebido por Logde. Aquella disputa, que se extendió durante años, no fue resuelta hasta 1912 cuando la Marconi compró a Logde los derechos de su patente sintónica y lo nombró asesor científico.

Detector
Hasta ahora nos hemos movido en el dominio de la alta frecuencia, es decir, estamos tratando con ondas que tienen propiedades para viajar por el espacio, pero, aunque en ellas se ha modulado su amplitud con una señal de audio, no son audibles. Por lo tanto, necesitamos extraer de esta señal portadora la señal audio o de baja frecuencia, y aquí es donde entra en juego la galena.

Las singulares propiedades de este mineral y su aplicación como detector de perturbaciones eléctricas fueron descritas en 1901 por Jagadis Chunder Bose (1858-1937). Años mas tarde, en 1906, Greenleaf Whittier Pickard (1887-1956) profundizó en la investigación de las propiedades de ciertos minerales y la detección de radiofrecuencia al permitir a la corriente circular en un único sentido, es decir, se produce un fenómeno de rectificación donde solo el semiciclo positivo de una señal alterna de radiofrecuencia puede pasar. Esta propiedad de rectificación no es uniforme en toda la superficie del mineral y, para encontrar el punto óptimo, es preciso buscar el contacto con un fino alambre llamado bigote de gato. A veces, esta búsqueda puede ser laboriosa y es poco estable por lo que es normal perder la paciencia. Afortunadamente, podemos prescindir del mineral de galena y emplear un diodo de germanio para lograr una detección y/o rectificación más eficiente y estable.

Escucha
Tras atravesar el mineral -o el diodo- con la señal sintonizada, se identifican una serie de pulsos de amplitud variable que definen a la envolvente de la señal de audio. Con estos pulsos estamos en condiciones de activar el electroimán que se encuentra dentro de un auricular de alta impedancia, provocando así, la vibración de una membrana de metal que reproduce el sonido de igual forma que en los auriculares empleados en telefonía.

Al no existir ningún tipo de amplificación el nivel de audición es bajo, y dependerá de la potencia de la señal recibida y proximidad de la estación. Sólo a través de elementos amplificadores, ya basados en triodos termiónicos, será posible la escucha a través de un altavoz.

Con esta breve explicación y precisamente hoy, que es el Día Mundial de la Radio, he querido recordar aquellos humildes equipos que permitieron a varias generaciones introducirse de forma sencilla y didáctica en la radiodifusión, y fueron los primeros en estar “conectados” a un mundo donde se avecinaban grandes cambios. Por todo ello, emociona descubrir aparatos donde algunos aficionados, cargados de ilusión, reaprovecharon elementos a su alcance para la construcción de su propio radiorreceptor.

En estos tiempos en los que esta tecnología está prácticamente olvidada, es importante no infravalorar la ciencia que hay detrás del funcionamiento de una radio de este tipo y deleitarse pensando que sus principios siguen estando en la base de las actuales comunicaciones inalámbricas.

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | La radio en España. Pioneros (1) | La radio en España. Radiotelegrafía (2)

Wearables (y 3)

noviembre 12, 2023 on 6:53 pm | In análisis de datos, colección, m2m, iot | Comentarios desactivados en Wearables (y 3)

Adolfo García Yagüe | En estas líneas comentaremos como el uso de sensores ópticos, junto a otros de tecnología MEMS (Microelectromechanical Systems) y el empleo de microcontroladores, está permitiendo el desarrollo de una nueva generación de productos conocidos como Wearables (por aquello de que van entre nuestra indumentaria) especializados en recoger datos biométricos y de nuestra actividad física.

Microcontroladores
Los microcontroladores llevan entre nosotros desde los años 70. En ellos, compartiendo el mismo silicio, se reúnen los principales elementos que constituyen un ordenador: microprocesador, memoria ROM y RAM, puertos de entrada y salida e, incluso, etapas de conversión AD (Analógico-Digital) y DA. El espectro de aplicación de estos componentes es amplísimo al simplificar un diseño electrónico y abaratar costes. Otra cualidad que hace especialmente atractivos a ciertos microcontroladores es su bajo consumo eléctrico, razón por la cual son ampliamente usados en dispositivos integrados o embebidos.

Como podéis intuir, el clip de actividad Fitbit One (2012) cumple con la definición de dispositivo embebido y fue uno de los primeros de la generación Wearable. En él, además de su bajo perfil eléctrico, se observa un diseño compacto optimizado para realizar una funcionalidad con una necesidad de cómputo limitada y predecible. En este podómetro se emplea el microcontrolador STM32L de ST Microelectronics, que se basa en la arquitectura ARM 7 perfil M, o Cortex M3. Este componente, a través a sus buses digitales I2C, SPI o analógicos, puede recoger las lecturas procedentes sensores externos.

MEMS (Microelectromechanical Systems)
A pesar de que las micromáquinas están permitiendo el desarrollo de cientos de dispositivos y soluciones, la tecnología que rodea a estos ingenios es poco conocida. La idea de partida se basa en el desarrollo a escala nano y micrométrica de máquinas mediante técnicas de fabricación similares a las empleadas en los circuitos integrados, es decir, a través de la deposición sobre un sustrato de silicio de distintas capas de materiales y la posterior fotolitografía para “esculpir” microscópicamente un sencillo proceso mecánico junto a otro electrónico. Esta unión entre mecánica y electrónica ha hecho posible, por ejemplo, la miniaturización de sensores de presión, de gases, acelerómetros y giróscopos. Otros componentes desarrollados gracias a la tecnología MEMS tienen que ver con las comunicaciones ópticas, la radiofrecuencia o algo tan común como los inyectores de tinta de algunas impresoras. Por último, y no menos importante, son aquellas aplicaciones MEMS en el campo de la medicina como medidores del nivel de glucosa en sangre, parches para dosificar una sustancia a un paciente o las bombas de insulina, entre otras.

(a). Mecanismo ultraplanar construido con tecnología MEMS en Sandia National Laboratories. (b). Patas de un ácaro sobre los engranajes de un micromotor construido en Sandia National Laboratories. (c). Detalle de ejes y x de un acelerómetro capacitivo MEMS de ST Microelectronics.

La historia de los MEMS la podemos resumir en los siguientes hitos. En primer lugar, en 1954, se descubrió la existencia de propiedades piezo-resistivas en el silicio y germanio. La piezo-resistividad es el cambio de resistencia eléctrica que experimentan algunos materiales cuando se los somete a un esfuerzo o estrés mecánico de tracción o compresión. Durante década de los ’60 se harán las primeras demostraciones de sensores de presión y aceleración, ambos construidos con silicio. En 1977, a diferencia del sensor presentado años atrás, que se apoyaba la citada piezo-resistividad, se mostrará un sensor de presión basado en la variación de capacidad. En 1988 se presentarán los primeros prototipos de (micro) máquinas rotativas construidas con esta tecnología. Por último, al principio de la década de los ’90, Analog Devices pone a la venta el primer acelerómetro capacitivo de un eje con tecnología MEMS: el ADXL50.

Podómetro y calidad del sueño
En el caso del clip Fitbit One, para el medir el número de pasos, el citado microcontrolador STM32L realiza un promediado de los datos procedentes del sensor acelerómetro capacitivo MEMS C3H de tres ejes con el fin de identificar y eliminar aquellas muestras que, por su valor, exceden los valores normales de funcionamiento. Tras esta “limpieza” de las señales leídas en cada eje, los pasos del usuario se corresponderán con la repetición periódica de ciertos valores que destacan entre el resto. Sin abandonar este microcontrolador, tras reconocer los eventos asociados a un paso, se llevará la cuenta de estos y se realizarán los cálculos matemáticos para deducir, entre otros, la distancia recorrida, velocidad y calorías quemadas. Por último, guardará todos estos datos en una memoria pudiendo ser presentados en un display para ser consultados por el usuario o, enviados por radio bluetooth al Smartphone y de ahí a la nube de Google en el caso de un dispositivo Fitbit. Y vuelta a empezar.

Otra capacidad que se ha vuelto muy popular entre algunos usuarios de Wearables es la “medida” de la calidad del sueño. Como sabéis, gran parte de la población dormimos menos de lo que necesitamos y esto, lamentablemente, se puede manifestar en nuestra salud física y mental. Esta necesidad por conocer la calidad de nuestro descanso ha llevado a los fabricantes de Wearables a implementar algoritmos con los que registrar los movimientos de nuestro cuerpo mientras dormimos. Es bien conocido que durante este periodo de descanso se producen varias etapas y que el sueño reparador o, de más calidad, se desarrolla durante las fases III, IV o Delta y V REM (Rapid Eye Movement). Durante estas etapas, nuestra actividad motora va cesando hasta permanecer inmóviles. La duración de estos periodos de reposo son los que registran los Wearables. Es decir, al contrario que con los pasos, en la medida de calidad del sueño se lleva un control del tiempo en la que acelerómetro apenas registra movimientos.

Medición de escalones subidos
En el clip Fitbit One también se identifica el sensor de presión barométrica MS5607 de MEAS Switzerland. Gracias a este sensor de tecnología MEMS, este Wearable lleva la cuenta de los escalones que subimos añadiendo así más riqueza a los datos que describen nuestra actividad.

El MS5607 basa su funcionamiento en el efecto piezo-resistivo y, a través de éste, es capaz de medir la presión atmosférica en un rango que va desde los 10 a 1200 mbar (milibares). No olvidemos que, a nivel del mar, la presión atmosférica es de 1013 milibares y que, a medida que aumenta la altura, la presión disminuye en, aproximadamente, 1 mbar por cada 9 metros, o 110 mbar por cada 1.000 metros. No obstante, como deduciréis, la Fitbit One no pretende ser un barómetro y se apoya en la precisión de 20cm que ofrece el MS5607 para identificar los incrementos de altura que se producen cuando subimos las escaleras. Por último, al estar calibrado por MEAS durante el proceso de fabricación, este sensor entregará al microcontrolador STM32L sus lecturas listas para ser empleadas a través de un bus I2C o SPI y solo será necesario hacer -en el microcontrolador- la conversión de milibares a metros de altitud y cruzar estos datos incrementales con los que está registrando el acelerómetro en el movimiento que hace nuestro cuerpo mientras subimos la escalera.

Frecuencia cardíaca y oxígeno en sangre
En el texto dedicado al pulsómetro vimos cómo es posible conocer la frecuencia cardíaca a través de unos electrodos con los que se registra -en la superficie de nuestro pecho- los impulsos eléctricos que estimulan cada latido. Aunque esta técnica ha demostrado su efectividad y es usada por algunos deportistas, presenta ciertos inconvenientes como la colocación apropiada del sensor y su incomodidad. Estas dificultades son la consecuencia de que su uso no esté extendido más allá del círculo deportivo, siendo inviable en el día a día de una persona. Por este motivo, desde hace algunos años, ciertos Wearables emplean para este propósito la fotopletismografía (PPG) que es, como todos sabéis, la aproximación usada en fines médicos para la medición del nivel de saturación de oxígeno en sangre (SpO2).

Sin ser un entendido en fisiología, diré que la fotopletismografía se apoya en la medida del cambio de volumen del flujo sanguíneo durante la actividad cardíaca. Este cambio de volumen, que coincide con los latidos del corazón, también coincide con cambios en la coloración de la hemoglobina mientras ésta transporta oxígeno confiriendo a la sangre ese color rojo intenso y, en cambio, un color rojo oscuro cuando porta dióxido de carbono.

Como decíamos anteriormente, esta técnica de medida se viene utilizando en el mundo médico desde finales de los ’80 y, en los últimos años, está disponible en medidores de uso personal para comprobar la saturación de oxígeno en sangre y el pulso cardíaco: son los conocidos oxímetros y pulsímetros que se colocan en el dedo. Si analizamos uno de estos dispositivos observaremos que, en la parte que toca con la yema del dedo, se identifica un receptor de luz mientras que, en el lado contrario, hay una fuente de luz de tonos rojos. Mas concretamente, el oxímetro emite dos fuentes de luz: en la región infrarroja con un LED de 940nm y con otro LED rojo a 660nm, ambas lambdas tienen un grado de absorción diferente en función del contenido de oxígeno en la sangre. Es decir, se produce una transmisión luminosa a través del dedo y, a continuación, se mide la señal recibida para deducir el nivel de oxígeno e identificar una pulsación.

El primer Wearable donde se trasladó el principio de funcionamiento descrito a un formato pulsera fue en el Mio LINK (2014). En este dispositivo los elementos de emisión óptica y de lectura se encuentran adyacentes y, en lugar transmitir luz a través del dedo, se registra la reflexión de está a través del interior de la muñeca. Además, en vez de trabajar con fuentes de luz roja e infrarroja, se emplea un LED de color verde junto con un sensor óptico.

La técnica fotopletismográfica, tal y como se aplica en la mayoría de los Wareables, no está exenta de lecturas imprecisas y funcionamientos anómalos producto de la inadecuada colocación de la pulsera y el ajuste de esta, el movimiento de la muñeca, la pigmentación de la piel y sudoración de cada individuo o la temperatura de sus extremidades. Otro aspecto que hace inadecuada esta técnica es la existencia de una patología previa asociada a niveles bajos de hemoglobina. Por último, como se ha comentado, la PPG lleva tiempo facilitando al personal sanitario información fiable sobre el SpO2 y el pulso de un paciente, pero no ha demostrado ser totalmente efectiva en la medición de otros niveles, y es aquí donde la mayoría de los fabricantes están intentando desarrollar algoritmos más capaces y precisos para sus Wearables.

Hacia la completa monitorización de la información biométrica
Como podéis comprobar estamos asistiendo a una evolución tecnológica que intenta condensar en gadgets -de bajo coste- parte de la experiencia tecnológica del mundo médico. El objetivo no es otro que llegar a conocer, de manera fiable y no invasiva, las constantes vitales y ciertos marcadores de un individuo. En este sentido hay que recordar la capacidad que ya se tiene, a partir del Apple Watch 4 (2018), de hacer un sencillo electrocardiograma a través del electrodo existente en la corona de este reloj, o los planes declarados de esta compañía de ir incorporando nuevos sensores a su familia de relojes inteligentes para conocer, por ejemplo, el nivel de glucosa en sangre junto a otras capacidades de inteligencia artificial -desde su Cloud- para ayudar en la interpretación y seguimiento de los datos biométricos de un usuario.

Lamentablemente, esta rápida evolución también genera confusión entre los usuarios cuando se nos ofrecen ciertas capacidades a través de la contratación de servicios Premium o se escribe, por ejemplo, sobre los peligros de la apnea del sueño y el análisis de los ronquidos que pueden hacer los relojes Fitbit Versa 3 (2020) y Fitbit Sense (2021), o el registro del estrés y el estado de ánimo que, supuestamente, hace el Fitbit Sense 2 (2022)

Colección | Actividad física y podómetro (1) | Pulsómetro y posición GPS (2)

 

GTP y la seguridad en redes 4G y 5G NSA

octubre 18, 2023 on 8:10 pm | In ciberseguridad, colección, descarga textos pdf, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | En el Fortinet Security Day de hace unos días, con la idea de presentar alguna de las áreas Cyber en las que trabajamos en Axians, hice esta pequeña presentación repasando las amenazas a las que han estado expuestas las redes telefonía de móvil: desde la denegación de servicio en el acceso radio hasta llegar a los ataques contra GPRS Tunneling Protocol.

Colección | Los Móviles | 1G o primera generación de telefonía móvil | HarmonyOS y los Sistemas Operativos Móviles | Ciberseguridad e IoT

Pulsómetro y posición GPS (2)

octubre 3, 2023 on 6:01 pm | In análisis de datos, colección | No Comments

Adolfo García Yagüe | En el texto anterior vimos como el podómetro nos permite conocer la distancia recorrida y, aproximadamente, estimar las calorías empleadas. Estos datos, aunque útiles, tienen poco valor para cuantificar el esfuerzo real que hace un individuo, determinar la respuesta de su cuerpo y entender su evolución física. Esto solo es posible a través de una prueba de esfuerzo, o ergometría, donde se monitoriza la actividad cardíaca y la capacidad respiratoria mientras se realiza un esfuerzo físico, como correr sobre una cinta o pedalear en bici estática. Históricamente, esta prueba ha sido y es común entre deportistas de alto rendimiento porque permite conocer con precisión cuales son los límites de una persona para, así, orientar su preparación física. Afortunadamente, desde hace tiempo, este diagnóstico ya está al alcance de la mayoría de las personas, especialmente si han sufrido algún accidente cardiovascular y se trabaja en su rehabilitación. También, por supuesto, este tipo de pruebas ayudan a los especialistas a descubrir dolencias latentes que muchas veces permanecen ocultas.

Pulsómetro
Dejando a un lado la ergometría, el mejor compañero de cualquier corredor es el pulsómetro. Como su nombre indica, este dispositivo registra nuestra actividad cardíaca de la forma más básica que existe, es decir, llevando la cuenta de las pulsaciones por minuto.

La primera compañía que desarrolló un pulsómetro compacto fue la finlandesa Polar, quien, a finales de los años 70, presentó un dispositivo con el que era posible conocer la actividad cardíaca. Más adelante, avanzada la siguiente década, comercializaron el PE3000 en formato reloj. Junto a este pulsómetro se suministraba una banda elástica que tenía que ser situada alrededor del tórax y medía los impulsos eléctricos cardíacos a través de unos electrodos. A continuación, a través del envío de pulsos de radiofrecuencia, la banda informaba al reloj de la actividad cardíaca. En este sentido es preciso recordar que la naturaleza de la comunicación inalámbrica entre sensor y reloj es unidireccional y que carece de cualquier técnica de codificación, emparejamiento o enlace y, como anécdota, comentaré que cuando estaba fotografiando los pulsómetros PE3000 y Tunturi, estos registraban un latido cardíaco con cada destello luminoso del flash. Por último mencionar que, como complemento al pulsómetro, era posible adquirir una impresora que se conectaba al reloj a través de un adaptador y permitía extraer las lecturas y comprobar así la evolución de la actividad cardíaca.

En aquellos años disponer de un pulsómetro Polar no estaba al alcance de cualquiera y solo era posible verlos en equipos y clubs de alto rendimiento, la mayoría de las veces compartido por varios atletas.

A diferencia del podómetro, cuya aplicación es claramente motivadora y ayuda a fijar pequeñas metas y comprobar progresos, el pulsómetro nos permite conocer la respuesta de nuestro corazón y, de acuerdo con ella, fijar el entrenamiento y grado de esfuerzo que más nos conviene. Evidentemente, según avancemos en nuestra forma física, estos umbrales se moverán y seremos capaces de mayores retos. Esto significa que, para sacar partido al pulsómetro, hay que estar comprometido y no caer en el error (común) de pensar que este gadget solo sirve para ver, mientras corro, el número de pulsaciones por minuto y pensar que si mi corazón va más rápido soy más machote. Al contrario.

Este “compromiso” con el uso del pulsómetro y en general con una actividad deportiva, se refleja en que algunos pulsómetros de antaño venían acompañados de un completo manual de instrucciones donde se comentaban algunos principios de fisiología deportiva como la diferencia entre un ejercicio aeróbico y otro anaeróbico, además de requerirnos que anotáramos nuestras pulsaciones en reposo, peso, edad, sexo, pulsaciones máximas recomendadas… y pulsaciones máximas registradas, tiempo dedicado a la actividad física, formulas, etc… En fin, se perdían las ganas de ponerlo en marcha y solo l@s muy entregad@s le sacaban partido. Los más perezosos teníamos la excusa perfecta para no hacer deporte: – ¡Es que no termino de entender al pulsómetro, me tiene confundido y claro, correr por correr…!

Global Positioning System (GPS)
Como vimos en el texto dedicado al podómetro, conocer la distancia recorrida tiene su encanto y, para un principiante, suele ser más efectivo y menos tedioso que realizar contabilidad cardíaca. De esto eran conscientes los fabricantes de dispositivos y, a la forma tradicional de contar pasos para conocer la distancia recorrida, se añadieron las capacidades GPS.

Al comienzo de los 2000 la tecnología GPS empieza a formar parte de la vida de los usuarios a través de dispositivos de navegación para coche como el Garmin StreetPilot (1998). Este equipo era consecuencia de la disminución de tamaño y de la integración cartográfica. Recordemos que, tan solo unos años atrás, los GPS solo informan de las coordenadas de localización y la altitud junto a una referencia horaria.

Unos años después Garmin presentó el que sería el primer GPS que podía ser llevado en la muñeca: el Forerunner 101 (2003). Con una precisión de aproximadamente 10m, un tiempo de refresco de la posición de 1 segundo y, a pesar de que tras el arranque inicial este GPS podía tardar un minuto en sincronizar con hasta 12 satélites, era juguete muy cool. Estaba dirigido a ciclistas, corredores y amantes de las caminatas a los que les hacía ilusión conocer cuantos kilómetros habían recorrido, el tiempo empleado, velocidad y calorías -estimadas- consumidas. Además, el Forerunner permitía almacenar hasta 5000 trayectos para así tener una vista de la evolución histórica y, aunque carecía de mapas, tenía un modo de navegación consistente en memorizar la longitud y latitud de un punto y el GPS señalizaba la ruta, independientemente de que ésta fuera transitable o no. Por último, hay que recordar que el 101 no permitía exportar los datos a una plataforma o extraerlos para tratarlos posteriormente, esto lo dejamos para el siguiente texto. Continuará.

Colección | Actividad física y podómetro (1) | Wearables (y 3)

Actividad física y podómetro (1)

septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | 3 Comments

Adolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.

Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.

Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…

Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.

El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.

Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.

En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías.  Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.

En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.

Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.

En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.

En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Micropacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro basado en un sensor electromecánico y un circuito integrado diseñado a medida o ASIC. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.

En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.

Colección | Pulsómetro y posición GPS (2) | Wearables (y 3)

Página siguiente »


(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress