Radio de recepción regenerativa

julio 12, 2024 on 5:12 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio de recepción regenerativa

Adolfo García Yagüe | Como vimos en el texto anterior, una radio de galena es un tipo de receptor con el que miles de aficionados se iniciaron en el mundo de las ondas. Gracias a su sencillez es posible asimilar algunos conceptos que, de otra forma, suelen ser abstractos y poco intuitivos. Este equipo también es un buen punto de partida para abordar el estudio de otros receptores más complejos basados en triodos, popularmente conocidos como lámparas o tubos de vacío.

En los primeros receptores de radio la misión de estas lámparas ha sido la detección y la amplificación de la señal de audio para así aumentar su volumen. Si os fijáis, sus áreas funcionales coinciden con las descritas en un receptor de galena.

Triodo termoiónico
Antes de avanzar, es importante situar al triodo en el contexto tecnológico de hace un siglo y entender que, en aquellos años, los tubos de vacío eran considerados sofisticados componentes electrónicos.

Además de existir patentes que restringían la fabricación de un triodo, el proceso de industrialización solo era abordable por algunas compañías. Esto significa que era necesario dominar la técnica de vaciado del interior de la ampolla y conocer la metalurgia necesaria para elaborar el filamento, rejilla y placa con calidad, garantizando, por supuesto, que la respuesta durante la vida útil del tubo se encontraba dentro unos valores de operación fiables y que estos eran comunes a toda la producción. Aquellas dificultades, junto con el incremento del consumo eléctrico que suponía usar varios triodos en un receptor y la consiguiente reducción de la vida útil de las baterías, impactaban notablemente en el precio y en los impuestos que licenciaban su uso.

Esta situación empujó a los fabricantes de receptores a ser ingeniosos y desarrollar numerosos circuitos electrónicos donde se reducía al máximo el número de triodos a costa, lógicamente, de sacrificar alguna prestación o la calidad del propio receptor. También, esta disparidad de diseños electrónicos era una forma de esquivar las patentes que protegían un determinado circuito electrónico, por lo que es normal encontrar receptores con una única lampara y otros más sofisticados donde se llegan a reunir 6 triodos.

Circuito regenerativo
Tras los primeros días de funcionamiento, un circuito como el anterior, seguramente satisfizo a miles de radioescuchas habituados a sus limitados receptores de galena. No obstante, algunos de estos aficionados pronto advertirían que, si bien la detección era más compacta, el volumen aumentaba y la escucha resultaba más clara, la sensibilidad no había mejorado significativamente y seguía siendo difícil recibir emisoras distantes.

Fue en 1912, cuando Edwin Howard Armstrong (1890-1954) estudiaba ingeniería eléctrica en la Universidad de Columbia y experimentaba con la capacidad de amplificación de sonido del Audion, ideo un circuito capaz de incrementar también la señal de radiofrecuencia ganando en sensibilidad. Para ello se valió de una tercera bobina, llamada de reacción, que inducía a la segunda bobina del transformador de antena parte señal ya amplificada por el triodo. Es decir, hacíamos una realimentación o regeneración positiva con la que se «vigorizaba» la señal de radiofrecuencia. Gracias al incremento de sensibilidad ofrecido por aquel ingenioso circuito y, durante el transcurso de sus primeras demostraciones, Armstrong llegó a escuchar en Nueva York mensajes cursados entre San Francisco y Honolulú, junto a otros procedentes de Irlanda.

Como recordé en el texto dedicado al triodo, la invención de este circuito también desencadenó una larga y amarga disputa entre Armstrong y Lee De Forest (1873-1961) poniendo de manifiesto que, a veces, una reinterpretación torticera puede decantar una sentencia. Me refiero a que desde hace décadas no se discute que la autoría de la invención del circuito regenerativo corresponde a Armstrong, más aun tras quedar documentado que el propio De Forest no supo explicar ante el juez (ni había rastro de una descripción previa) el principio de funcionamiento de dicho circuito, pero, en su momento y tras años de batalla legal de sus abogados, y el testimonio a favor de John Stone Stone (1869-1943) y los tácitos intereses de la ATT&T, en 1934 un juez anuló las sentencias anteriores y atribuyó la autoría del citado circuito a De Forest por el simple hecho de considerarlo un mero amplificador.

En la colección podemos conocer el aspecto de dos receptores de radio que hacen uso de la regeneración descrita: el Westinghouse RA-DA (1921) y el Westinghouse Aeriola Sr. Receiver (1922). Ambos son de los primeros equipos en ser comercializados entre el público y, concretamente, estaban dirigidos para uso amateur y experimental, no como un receptor broadcast para escuchar emisiones radiofónicas, entre otras cosas porque las primeras emisiones comerciales empezaron unos meses antes con la KDKA -propiedad de Westinghouse- en Pittsburgh. Mediante estos dos equipos la Westinghouse pretendía afianzar su posición en mundo de la radio e ir cubriendo huecos de la futura cadena de valor: Fabricante y proveedor de equipos de emisión, propietario de frecuencias y emisoras y, por último, ser un fabricante y proveedor de equipos receptores de usuario.

El RA-DA está formado por dos módulos: RA para la sintonía y DA amplificación. El núcleo del módulo RA es la mencionada bobina de reacción junto a los controles para una sintonía gruesa o “Turner”, otra más precisa y selectiva a través de “Vernier” y, por último, un ajuste del grado de reacción a través de “Tickler”. Por su parte, el módulo de amplificación DA cuenta con tres triodos, un UV-200 para detección y dos UV-201 para la amplificación audio, junto a sus correspondientes controles con los que se regula la corriente del filamento en cada una de estas lámparas.

Este receptor fue diseñado entre los años 1919 y 1920 por Frank Conrad (1874-1941) quién, desde el año 1916 y a título particular y experimental, organizaba trasmisiones radiofónicas bajo la licencia e indicativo 8XK. Este interés y experiencia de Conrad sirvió de inspiración para que la Westinghouse pusiese en marcha la KDKA.

Por otra parte, el Westinghouse Aeriola Sr. Receiver representa un buen ejemplo de aquellos equipos económicos que resumieron su diseño a la mínima expresión, es decir, solo emplea el triodo WD-11. Además, su presentación, en una pequeña caja de madera junto a las instrucciones de operación, evidencia que estaba dirigido a aquellos aficionados que querían abrirse un hueco en esta nueva tecnología. Por último, este equipo también atestigua los comienzos de la todopoderosa RCA (Radio Corporation of America) como revendedor de los equipos que otras firmas fabricaban (P. Ej. Westinghouse). Esto fue así porque, durante la Primera Guerra Mundial, EE.UU. experimentó lo que significaba carecer de independencia tecnológica en el terreno de la radio y depender de británicos (Marconi Wireless) y franceses (triodo TM) frente a un enemigo bien preparado, como los alemanes con Telefunken y así, en 1919, decidió concentrar en una compañía llamada RCA todo el conocimiento sobre tecnología radio, sus patentes y el servicio internacional que venía prestando la Marconi Wireless. Como era evidente, en aquella empresa participarían, entre otros accionistas, la General Electric, Westinghouse y ATT&T.

Por último, solo recordar que el uso de equipos como el RA-DA o el Aeriola Senior requerían algo de pericia por parte del oyente y, en cierto modo, suponemos que era deseable conocer su principio de funcionamiento para evitar incómodos silbidos y molestas interferencias. A pesar de aquellas dificultades, equipos similares a estos fueron bastante populares hasta los años 30 cuando se decretó su prohibición. La razón de semejante medida era consecuencia de las interferencias que provocaban sobre otros receptores próximos. Pensemos que aquel proceso de retroalimentación con el que la señal de radiofrecuencia se amplificaba era una forma de radioemisión sin control y esto, en una época donde empezaban a proliferar los receptores domésticos, no se podía tolerar.

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena

Radio Galena

febrero 13, 2024 on 7:48 am | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio Galena

Adolfo García Yagüe | Hace 100 años, alrededor de la radio, miles de personas sucumbieron ante el primer delirio tecnológico de la historia. Recordemos que nuestro querido Siglo XX se inició con las experiencias de Marconi y, durante sus primeras décadas, la industria electrónica, las telecomunicaciones y la radiodifusión vivieron su particular adolescencia. Tras la invención de la radio todo parecía posible, desde enviar energía eléctrica a distancia -sin cables- a fabricar tu propio receptor para escuchar el parte de noticias y la previsión meteorológica de remotas latitudes o, intercambiar algún mensaje con simpáticos marcianos… Sin lugar a dudas, la humanidad había entrado en una nueva era.

Tras la Primera Guerra Mundial empiezan a aparecer publicaciones especializadas y noticias en prensa recogiendo los avances técnicos que se están produciendo en el campo de la difusión del sonido a través de las ondas. A este ambiente de novedad y expectación contribuyó su aparente sencillez, siendo posible, con un poco de pericia, construir un económico receptor de onda media que no precisaba corriente eléctrica para funcionar, basado en la detección a cristal que hacen algunos minerales como la galena o la pirita. Lo importante era entender los conceptos y dejarse guiar por algún galenista más aventajado. En este sentido, cabe destacar, la publicación por parte la Oficina de Estándares de EE.UU., de un par boletines con los detalles constructivos de una radio de este tipo. Aquellas guías, que coincidían con las primeras emisiones comerciales, fueron una forma de divulgar este nuevo medio entre aquellos oyentes que carecían de los recursos para adquirir -o fabricarse- un costoso receptor de tubos de vacío. Tampoco hay que olvidar que otro de los alicientes de esta nueva tecnología, a diferencia de otras previas como el telégrafo y el teléfono, tenía que ver con el hecho de que la radio no precisaba de una infraestructura de cables y centrales telefónicas para disfrutar de ella. Por eso, cualquier aficionado podía introducirse en esta tecnología con solo disponer de un receptor y dedicar horas a rastrear emisiones, alguna de ellas en otro idioma, de carácter oficial o, simplemente, procedente de otro aficionado.

Antena
En un receptor de galena se identifican cuatro etapas funcionales. La primera, denomina antena, puede ser un simple cable capaz de captar ondas electromagnéticas y convertir estas en señales eléctricas. La longitud de este cable será compatible con la longitud de onda de la banda que pretendemos recibir e, idealmente, debe estar ubicada en el exterior, en un espacio abierto y elevado, lejos de estructuras metálicas y otras fuentes de ruido eléctrico como redes de distribución de energía. Este cable, si se encuentra en el exterior, alejado de edificios y otras estructuras más elevadas, es conveniente que esté conectado a tierra a través de un protector de rayos.

Para recordar su origen es necesario remontarse a 1887 y conocer las experiencias que realizó Heinrich Rudolf Hertz (1857-1895) sobre la propagación electromagnética. Con ellas se ratificaba la teoría descrita por James Clerk Maxwell (1831-1879) en 1865 y, aunque en ese momento no se puede hablar de una comunicación propiamente dicha, aquellos trabajos fueron el inicio de numerosas líneas de investigaciones entre las que destacan las de Aleksandr Stepánovich Popov (1859-1906) en la Universidad de San Petersburgo en 1897. Popov avanzó en la posibilidad de comunicarse a distancia si ambos elementos, emisor y receptor, estaban conectados a un largo cable o antena.

Sintonía
Volvamos a nuestro circuito. A continuación, para excluir de la antena las señales eléctricas no deseadas, necesitamos un circuito de sintonía capaz de entrar en resonancia con la estación emisora elegida permitiendo el paso de la frecuencia seleccionada. Este circuito, en su forma más básica, constará de una bobina y un condensador que, idealmente, tienen que permitir alguna forma de variación de sus valores de inductancia y capacitancia, respectivamente, para tener cierto control en la elección de la frecuencia o emisora que pretendemos oír.

Precisamente, la diferencia más significativa entre los distintos receptores de galena se encuentra en esta etapa. En ella, partiendo de la premisa comentada antes, se han empleado diversas aproximaciones con el fin de logar un ajuste más preciso y selectivo con el que discriminar la recepción de una emisora que interfiere con la que realmente deseamos escuchar. Un ejemplo de ello son los sintonizadores donde, mediante un cursor deslizante sobre una bobina cilíndrica, seleccionamos el número de espiras que forman parte de ésta cambiando así su inductancia. En otros diseños, este cambio de inductancia se realiza a través de un conmutador rotativo o maneta de contactos con el que se  selecciona una determinada posición o toma -ya preestablecida- en las espiras de una bobina cilíndrica o de fondo de cesto. En cambio, en otros receptores, se modifica manualmente la inductancia mediante la variación del acople entre dos bobinas, o la capacidad de un condensador variable.

Para acabar, es importante recordar aquellos receptores donde la bobina de sintonía era sustituida por un trasformador con el que se separaba la etapa de antena de la de sintonía y, cuyo acople, era configurable manualmente. Este trasformador permitía la adaptación de impedancias entre ambas etapas con lo que se lograba mejor selectividad y, además, también permitía modificar el valor de inductancia de cada bobina mediante una maneta de contactos como la descrita anteriormente. En su forma más antigua, estos trasformadores eran construidos artesanalmente mediante dos bobinas cilíndricas móviles, una dentro de la otra. Más adelante se emplearon dos bobinas de nido de abeja intercambiables donde, modificando la distancia entre ambas, se variaba el acople.

En el plano histórico hay que recordar que la invención del sintonizador se atribuye a Oliver Joseph Lodge (1851-1940), físico británico y pionero en la telegrafía sin hilos. Lodge obtuvo en 1898 la patente de éste, iniciándose así el enfrentamiento con la Marconi Wireless que, un año antes, había sido fundada para comercializar servicios de telegrafía inalámbrica y, utilizaba, un sintonizador similar al concebido por Logde. Aquella disputa, que se extendió durante años, no fue resuelta hasta 1912 cuando la Marconi compró a Logde los derechos de su patente sintónica y lo nombró asesor científico.

Detector
Hasta ahora nos hemos movido en el dominio de la alta frecuencia, es decir, estamos tratando con ondas que tienen propiedades para viajar por el espacio, pero, aunque en ellas se ha modulado su amplitud con una señal de audio, no son audibles. Por lo tanto, necesitamos extraer de esta señal portadora la señal audio o de baja frecuencia, y aquí es donde entra en juego la galena.

Las singulares propiedades de este mineral y su aplicación como detector de perturbaciones eléctricas fueron descritas en 1901 por Jagadis Chunder Bose (1858-1937). Años mas tarde, en 1906, Greenleaf Whittier Pickard (1887-1956) profundizó en la investigación de las propiedades de ciertos minerales y la detección de radiofrecuencia al permitir a la corriente circular en un único sentido, es decir, se produce un fenómeno de rectificación donde solo el semiciclo positivo de una señal alterna de radiofrecuencia puede pasar. Esta propiedad de rectificación no es uniforme en toda la superficie del mineral y, para encontrar el punto óptimo, es preciso buscar el contacto con un fino alambre llamado bigote de gato. A veces, esta búsqueda puede ser laboriosa y es poco estable por lo que es normal perder la paciencia. Afortunadamente, podemos prescindir del mineral de galena y emplear un diodo de germanio para lograr una detección y/o rectificación más eficiente y estable.

Escucha
Tras atravesar el mineral -o el diodo- con la señal sintonizada, se identifican una serie de pulsos de amplitud variable que definen a la envolvente de la señal de audio. Con estos pulsos estamos en condiciones de activar el electroimán que se encuentra dentro de un auricular de alta impedancia, provocando así, la vibración de una membrana de metal que reproduce el sonido de igual forma que en los auriculares empleados en telefonía.

Al no existir ningún tipo de amplificación el nivel de audición es bajo, y dependerá de la potencia de la señal recibida y proximidad de la estación. Sólo a través de elementos amplificadores, ya basados en triodos termiónicos, será posible la escucha a través de un altavoz.

Con esta breve explicación y precisamente hoy, que es el Día Mundial de la Radio, he querido recordar aquellos humildes equipos que permitieron a varias generaciones introducirse de forma sencilla y didáctica en la radiodifusión, y fueron los primeros en estar “conectados” a un mundo donde se avecinaban grandes cambios. Por todo ello, emociona descubrir aparatos donde algunos aficionados, cargados de ilusión, reaprovecharon elementos a su alcance para la construcción de su propio radiorreceptor.

En estos tiempos en los que esta tecnología está prácticamente olvidada, es importante no infravalorar la ciencia que hay detrás del funcionamiento de una radio de este tipo y deleitarse pensando que sus principios siguen estando en la base de las actuales comunicaciones inalámbricas.

Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio de recepción regenerativa

Wearables (y 3)

noviembre 12, 2023 on 6:53 pm | In análisis de datos, colección, m2m, iot | Comentarios desactivados en Wearables (y 3)

Adolfo García Yagüe | En estas líneas comentaremos como el uso de sensores ópticos, junto a otros de tecnología MEMS (Microelectromechanical Systems) y el empleo de microcontroladores, está permitiendo el desarrollo de una nueva generación de productos conocidos como Wearables (por aquello de que van entre nuestra indumentaria) especializados en recoger datos biométricos y de nuestra actividad física.

Microcontroladores
Los microcontroladores llevan entre nosotros desde los años 70. En ellos, compartiendo el mismo silicio, se reúnen los principales elementos que constituyen un ordenador: microprocesador, memoria ROM y RAM, puertos de entrada y salida e, incluso, etapas de conversión AD (Analógico-Digital) y DA. El espectro de aplicación de estos componentes es amplísimo al simplificar un diseño electrónico y abaratar costes. Otra cualidad que hace especialmente atractivos a ciertos microcontroladores es su bajo consumo eléctrico, razón por la cual son ampliamente usados en dispositivos integrados o embebidos.

Como podéis intuir, el clip de actividad Fitbit One (2012) cumple con la definición de dispositivo embebido y fue uno de los primeros de la generación Wearable. En él, además de su bajo perfil eléctrico, se observa un diseño compacto optimizado para realizar una funcionalidad con una necesidad de cómputo limitada y predecible. En este podómetro se emplea el microcontrolador STM32L de ST Microelectronics, que se basa en la arquitectura ARM 7 perfil M, o Cortex M3. Este componente, a través a sus buses digitales I2C, SPI o analógicos, puede recoger las lecturas procedentes sensores externos.

MEMS (Microelectromechanical Systems)
A pesar de que las micromáquinas están permitiendo el desarrollo de cientos de dispositivos y soluciones, la tecnología que rodea a estos ingenios es poco conocida. La idea de partida se basa en el desarrollo a escala nano y micrométrica de máquinas mediante técnicas de fabricación similares a las empleadas en los circuitos integrados, es decir, a través de la deposición sobre un sustrato de silicio de distintas capas de materiales y la posterior fotolitografía para “esculpir” microscópicamente un sencillo proceso mecánico junto a otro electrónico. Esta unión entre mecánica y electrónica ha hecho posible, por ejemplo, la miniaturización de sensores de presión, de gases, acelerómetros y giróscopos. Otros componentes desarrollados gracias a la tecnología MEMS tienen que ver con las comunicaciones ópticas, la radiofrecuencia o algo tan común como los inyectores de tinta de algunas impresoras. Por último, y no menos importante, son aquellas aplicaciones MEMS en el campo de la medicina como medidores del nivel de glucosa en sangre, parches para dosificar una sustancia a un paciente o las bombas de insulina, entre otras.

(a). Mecanismo ultraplanar construido con tecnología MEMS en Sandia National Laboratories. (b). Patas de un ácaro sobre los engranajes de un micromotor construido en Sandia National Laboratories. (c). Detalle de ejes y x de un acelerómetro capacitivo MEMS de ST Microelectronics.

La historia de los MEMS la podemos resumir en los siguientes hitos. En primer lugar, en 1954, se descubrió la existencia de propiedades piezo-resistivas en el silicio y germanio. La piezo-resistividad es el cambio de resistencia eléctrica que experimentan algunos materiales cuando se los somete a un esfuerzo o estrés mecánico de tracción o compresión. Durante década de los ’60 se harán las primeras demostraciones de sensores de presión y aceleración, ambos construidos con silicio. En 1977, a diferencia del sensor presentado años atrás, que se apoyaba la citada piezo-resistividad, se mostrará un sensor de presión basado en la variación de capacidad. En 1988 se presentarán los primeros prototipos de (micro) máquinas rotativas construidas con esta tecnología. Por último, al principio de la década de los ’90, Analog Devices pone a la venta el primer acelerómetro capacitivo de un eje con tecnología MEMS: el ADXL50.

Podómetro y calidad del sueño
En el caso del clip Fitbit One, para el medir el número de pasos, el citado microcontrolador STM32L realiza un promediado de los datos procedentes del sensor acelerómetro capacitivo MEMS C3H de tres ejes con el fin de identificar y eliminar aquellas muestras que, por su valor, exceden los valores normales de funcionamiento. Tras esta “limpieza” de las señales leídas en cada eje, los pasos del usuario se corresponderán con la repetición periódica de ciertos valores que destacan entre el resto. Sin abandonar este microcontrolador, tras reconocer los eventos asociados a un paso, se llevará la cuenta de estos y se realizarán los cálculos matemáticos para deducir, entre otros, la distancia recorrida, velocidad y calorías quemadas. Por último, guardará todos estos datos en una memoria pudiendo ser presentados en un display para ser consultados por el usuario o, enviados por radio bluetooth al Smartphone y de ahí a la nube de Google en el caso de un dispositivo Fitbit. Y vuelta a empezar.

Otra capacidad que se ha vuelto muy popular entre algunos usuarios de Wearables es la “medida” de la calidad del sueño. Como sabéis, gran parte de la población dormimos menos de lo que necesitamos y esto, lamentablemente, se puede manifestar en nuestra salud física y mental. Esta necesidad por conocer la calidad de nuestro descanso ha llevado a los fabricantes de Wearables a implementar algoritmos con los que registrar los movimientos de nuestro cuerpo mientras dormimos. Es bien conocido que durante este periodo de descanso se producen varias etapas y que el sueño reparador o, de más calidad, se desarrolla durante las fases III, IV o Delta y V REM (Rapid Eye Movement). Durante estas etapas, nuestra actividad motora va cesando hasta permanecer inmóviles. La duración de estos periodos de reposo son los que registran los Wearables. Es decir, al contrario que con los pasos, en la medida de calidad del sueño se lleva un control del tiempo en la que acelerómetro apenas registra movimientos.

Medición de escalones subidos
En el clip Fitbit One también se identifica el sensor de presión barométrica MS5607 de MEAS Switzerland. Gracias a este sensor de tecnología MEMS, este Wearable lleva la cuenta de los escalones que subimos añadiendo así más riqueza a los datos que describen nuestra actividad.

El MS5607 basa su funcionamiento en el efecto piezo-resistivo y, a través de éste, es capaz de medir la presión atmosférica en un rango que va desde los 10 a 1200 mbar (milibares). No olvidemos que, a nivel del mar, la presión atmosférica es de 1013 milibares y que, a medida que aumenta la altura, la presión disminuye en, aproximadamente, 1 mbar por cada 9 metros, o 110 mbar por cada 1.000 metros. No obstante, como deduciréis, la Fitbit One no pretende ser un barómetro y se apoya en la precisión de 20cm que ofrece el MS5607 para identificar los incrementos de altura que se producen cuando subimos las escaleras. Por último, al estar calibrado por MEAS durante el proceso de fabricación, este sensor entregará al microcontrolador STM32L sus lecturas listas para ser empleadas a través de un bus I2C o SPI y solo será necesario hacer -en el microcontrolador- la conversión de milibares a metros de altitud y cruzar estos datos incrementales con los que está registrando el acelerómetro en el movimiento que hace nuestro cuerpo mientras subimos la escalera.

Frecuencia cardíaca y oxígeno en sangre
En el texto dedicado al pulsómetro vimos cómo es posible conocer la frecuencia cardíaca a través de unos electrodos con los que se registra -en la superficie de nuestro pecho- los impulsos eléctricos que estimulan cada latido. Aunque esta técnica ha demostrado su efectividad y es usada por algunos deportistas, presenta ciertos inconvenientes como la colocación apropiada del sensor y su incomodidad. Estas dificultades son la consecuencia de que su uso no esté extendido más allá del círculo deportivo, siendo inviable en el día a día de una persona. Por este motivo, desde hace algunos años, ciertos Wearables emplean para este propósito la fotopletismografía (PPG) que es, como todos sabéis, la aproximación usada en fines médicos para la medición del nivel de saturación de oxígeno en sangre (SpO2).

Sin ser un entendido en fisiología, diré que la fotopletismografía se apoya en la medida del cambio de volumen del flujo sanguíneo durante la actividad cardíaca. Este cambio de volumen, que coincide con los latidos del corazón, también coincide con cambios en la coloración de la hemoglobina mientras ésta transporta oxígeno confiriendo a la sangre ese color rojo intenso y, en cambio, un color rojo oscuro cuando porta dióxido de carbono.

Como decíamos anteriormente, esta técnica de medida se viene utilizando en el mundo médico desde finales de los ’80 y, en los últimos años, está disponible en medidores de uso personal para comprobar la saturación de oxígeno en sangre y el pulso cardíaco: son los conocidos oxímetros y pulsímetros que se colocan en el dedo. Si analizamos uno de estos dispositivos observaremos que, en la parte que toca con la yema del dedo, se identifica un receptor de luz mientras que, en el lado contrario, hay una fuente de luz de tonos rojos. Mas concretamente, el oxímetro emite dos fuentes de luz: en la región infrarroja con un LED de 940nm y con otro LED rojo a 660nm, ambas lambdas tienen un grado de absorción diferente en función del contenido de oxígeno en la sangre. Es decir, se produce una transmisión luminosa a través del dedo y, a continuación, se mide la señal recibida para deducir el nivel de oxígeno e identificar una pulsación.

El primer Wearable donde se trasladó el principio de funcionamiento descrito a un formato pulsera fue en el Mio LINK (2014). En este dispositivo los elementos de emisión óptica y de lectura se encuentran adyacentes y, en lugar transmitir luz a través del dedo, se registra la reflexión de está a través del interior de la muñeca. Además, en vez de trabajar con fuentes de luz roja e infrarroja, se emplea un LED de color verde junto con un sensor óptico.

La técnica fotopletismográfica, tal y como se aplica en la mayoría de los Wareables, no está exenta de lecturas imprecisas y funcionamientos anómalos producto de la inadecuada colocación de la pulsera y el ajuste de esta, el movimiento de la muñeca, la pigmentación de la piel y sudoración de cada individuo o la temperatura de sus extremidades. Otro aspecto que hace inadecuada esta técnica es la existencia de una patología previa asociada a niveles bajos de hemoglobina. Por último, como se ha comentado, la PPG lleva tiempo facilitando al personal sanitario información fiable sobre el SpO2 y el pulso de un paciente, pero no ha demostrado ser totalmente efectiva en la medición de otros niveles, y es aquí donde la mayoría de los fabricantes están intentando desarrollar algoritmos más capaces y precisos para sus Wearables.

Hacia la completa monitorización de la información biométrica
Como podéis comprobar estamos asistiendo a una evolución tecnológica que intenta condensar en gadgets -de bajo coste- parte de la experiencia tecnológica del mundo médico. El objetivo no es otro que llegar a conocer, de manera fiable y no invasiva, las constantes vitales y ciertos marcadores de un individuo. En este sentido hay que recordar la capacidad que ya se tiene, a partir del Apple Watch 4 (2018), de hacer un sencillo electrocardiograma a través del electrodo existente en la corona de este reloj, o los planes declarados de esta compañía de ir incorporando nuevos sensores a su familia de relojes inteligentes para conocer, por ejemplo, el nivel de glucosa en sangre junto a otras capacidades de inteligencia artificial -desde su Cloud- para ayudar en la interpretación y seguimiento de los datos biométricos de un usuario.

Lamentablemente, esta rápida evolución también genera confusión entre los usuarios cuando se nos ofrecen ciertas capacidades a través de la contratación de servicios Premium o se escribe, por ejemplo, sobre los peligros de la apnea del sueño y el análisis de los ronquidos que pueden hacer los relojes Fitbit Versa 3 (2020) y Fitbit Sense (2021), o el registro del estrés y el estado de ánimo que, supuestamente, hace el Fitbit Sense 2 (2022)

Colección | Actividad física y podómetro (1) | Pulsómetro y posición GPS (2)

 

GTP y la seguridad en redes 4G y 5G NSA

octubre 18, 2023 on 8:10 pm | In ciberseguridad, colección, descarga textos pdf, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | En el Fortinet Security Day de hace unos días, con la idea de presentar alguna de las áreas Cyber en las que trabajamos en Axians, hice esta pequeña presentación repasando las amenazas a las que han estado expuestas las redes telefonía de móvil: desde la denegación de servicio en el acceso radio hasta llegar a los ataques contra GPRS Tunneling Protocol.

Colección | Los Móviles | 1G o primera generación de telefonía móvil | HarmonyOS y los Sistemas Operativos Móviles | Ciberseguridad e IoT

Pulsómetro y posición GPS (2)

octubre 3, 2023 on 6:01 pm | In análisis de datos, colección | No Comments

Adolfo García Yagüe | En el texto anterior vimos como el podómetro nos permite conocer la distancia recorrida y, aproximadamente, estimar las calorías empleadas. Estos datos, aunque útiles, tienen poco valor para cuantificar el esfuerzo real que hace un individuo, determinar la respuesta de su cuerpo y entender su evolución física. Esto solo es posible a través de una prueba de esfuerzo, o ergometría, donde se monitoriza la actividad cardíaca y la capacidad respiratoria mientras se realiza un esfuerzo físico, como correr sobre una cinta o pedalear en bici estática. Históricamente, esta prueba ha sido y es común entre deportistas de alto rendimiento porque permite conocer con precisión cuales son los límites de una persona para, así, orientar su preparación física. Afortunadamente, desde hace tiempo, este diagnóstico ya está al alcance de la mayoría de las personas, especialmente si han sufrido algún accidente cardiovascular y se trabaja en su rehabilitación. También, por supuesto, este tipo de pruebas ayudan a los especialistas a descubrir dolencias latentes que muchas veces permanecen ocultas.

Pulsómetro
Dejando a un lado la ergometría, el mejor compañero de cualquier corredor es el pulsómetro. Como su nombre indica, este dispositivo registra nuestra actividad cardíaca de la forma más básica que existe, es decir, llevando la cuenta de las pulsaciones por minuto.

La primera compañía que desarrolló un pulsómetro compacto fue la finlandesa Polar, quien, a finales de los años 70, presentó un dispositivo con el que era posible conocer la actividad cardíaca. Más adelante, avanzada la siguiente década, comercializaron el PE3000 en formato reloj. Junto a este pulsómetro se suministraba una banda elástica que tenía que ser situada alrededor del tórax y medía los impulsos eléctricos cardíacos a través de unos electrodos. A continuación, a través del envío de pulsos de radiofrecuencia, la banda informaba al reloj de la actividad cardíaca. En este sentido es preciso recordar que la naturaleza de la comunicación inalámbrica entre sensor y reloj es unidireccional y que carece de cualquier técnica de codificación, emparejamiento o enlace y, como anécdota, comentaré que cuando estaba fotografiando los pulsómetros PE3000 y Tunturi, estos registraban un latido cardíaco con cada destello luminoso del flash. Por último mencionar que, como complemento al pulsómetro, era posible adquirir una impresora que se conectaba al reloj a través de un adaptador y permitía extraer las lecturas y comprobar así la evolución de la actividad cardíaca.

En aquellos años disponer de un pulsómetro Polar no estaba al alcance de cualquiera y solo era posible verlos en equipos y clubs de alto rendimiento, la mayoría de las veces compartido por varios atletas.

A diferencia del podómetro, cuya aplicación es claramente motivadora y ayuda a fijar pequeñas metas y comprobar progresos, el pulsómetro nos permite conocer la respuesta de nuestro corazón y, de acuerdo con ella, fijar el entrenamiento y grado de esfuerzo que más nos conviene. Evidentemente, según avancemos en nuestra forma física, estos umbrales se moverán y seremos capaces de mayores retos. Esto significa que, para sacar partido al pulsómetro, hay que estar comprometido y no caer en el error (común) de pensar que este gadget solo sirve para ver, mientras corro, el número de pulsaciones por minuto y pensar que si mi corazón va más rápido soy más machote. Al contrario.

Este “compromiso” con el uso del pulsómetro y en general con una actividad deportiva, se refleja en que algunos pulsómetros de antaño venían acompañados de un completo manual de instrucciones donde se comentaban algunos principios de fisiología deportiva como la diferencia entre un ejercicio aeróbico y otro anaeróbico, además de requerirnos que anotáramos nuestras pulsaciones en reposo, peso, edad, sexo, pulsaciones máximas recomendadas… y pulsaciones máximas registradas, tiempo dedicado a la actividad física, formulas, etc… En fin, se perdían las ganas de ponerlo en marcha y solo l@s muy entregad@s le sacaban partido. Los más perezosos teníamos la excusa perfecta para no hacer deporte: – ¡Es que no termino de entender al pulsómetro, me tiene confundido y claro, correr por correr…!

Global Positioning System (GPS)
Como vimos en el texto dedicado al podómetro, conocer la distancia recorrida tiene su encanto y, para un principiante, suele ser más efectivo y menos tedioso que realizar contabilidad cardíaca. De esto eran conscientes los fabricantes de dispositivos y, a la forma tradicional de contar pasos para conocer la distancia recorrida, se añadieron las capacidades GPS.

Al comienzo de los 2000 la tecnología GPS empieza a formar parte de la vida de los usuarios a través de dispositivos de navegación para coche como el Garmin StreetPilot (1998). Este equipo era consecuencia de la disminución de tamaño y de la integración cartográfica. Recordemos que, tan solo unos años atrás, los GPS solo informan de las coordenadas de localización y la altitud junto a una referencia horaria.

Unos años después Garmin presentó el que sería el primer GPS que podía ser llevado en la muñeca: el Forerunner 101 (2003). Con una precisión de aproximadamente 10m, un tiempo de refresco de la posición de 1 segundo y, a pesar de que tras el arranque inicial este GPS podía tardar un minuto en sincronizar con hasta 12 satélites, era juguete muy cool. Estaba dirigido a ciclistas, corredores y amantes de las caminatas a los que les hacía ilusión conocer cuantos kilómetros habían recorrido, el tiempo empleado, velocidad y calorías -estimadas- consumidas. Además, el Forerunner permitía almacenar hasta 5000 trayectos para así tener una vista de la evolución histórica y, aunque carecía de mapas, tenía un modo de navegación consistente en memorizar la longitud y latitud de un punto y el GPS señalizaba la ruta, independientemente de que ésta fuera transitable o no. Por último, hay que recordar que el 101 no permitía exportar los datos a una plataforma o extraerlos para tratarlos posteriormente, esto lo dejamos para el siguiente texto. Continuará.

Colección | Actividad física y podómetro (1) | Wearables (y 3)

Actividad física y podómetro (1)

septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | 3 Comments

Adolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.

Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.

Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…

Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.

El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.

Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.

En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías.  Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.

En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.

Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.

En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.

En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Micropacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro basado en un sensor electromecánico y un circuito integrado diseñado a medida o ASIC. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.

En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.

Colección | Pulsómetro y posición GPS (2) | Wearables (y 3)

Emisión Termoiónica y Lee De Forest

agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.

La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.

Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.

Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.

Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.

Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.

El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.

Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).

De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.

A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).

A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.

Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.

Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.

A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado.  Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.

Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.

A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.

Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Relés, válvulas y transistores

Restructuración de la Colección

agosto 1, 2023 on 5:59 pm | In colección | No Comments

Ahora, coincidiendo que el número de piezas y documentos de la colección se aproxima a los 2000, ha sido necesaria una importante restructuración para facilitar su clasificación. Por esta razón, la galería ha pasado de las 12 áreas temáticas de las que constaba a 18. Éstas han sido situadas siguiendo un orden cronológico donde las calculadoras ocuparían la primera “sala” y la llegada de los PCs el último espacio.

Visto en perspectiva da vértigo lo que la tecnología electrónica ha evolucionado en los últimos 100 años. Apenas hace un siglo los ingenios se basaban en ruedas dentadas, mecanismos de relojería y electroimanes, mientras que los tubos termoiónicos y la radiodifusión daban sus primeros pasos.

Telegrafía, telefonía, radiodifusión, cine, televisión, informática, Internet… Tendríamos que remontarnos a la invención de la rueda o la imprenta para identificar algún paralelismo de lo que han supuesto estos avances tecnológicos en la humanidad por eso, creo que somos afortunados de haber asistido al nacimiento y desarrollo de alguno de ellos.

Disfrutad y no olvidéis que estamos en deuda con tod@s los que antes que nosotros contribuyeron a construir este paisaje. Muchos de ell@s ya no están aquí y seguro que se sentirían maravillados al hablar con un familiar por un teléfono móvil o navegar por Internet. Pensemos que, sobre sus sueños, ilusiones y esfuerzo se ha construido lo que hoy tenemos.

Colección

Sonikas 20 – 14 y 15 de Enero 2023

diciembre 26, 2022 on 6:27 pm | In arte sonoro, música electrónica, sonikas | Comentarios desactivados en Sonikas 20 – 14 y 15 de Enero 2023

Durante los días 14 y 15 de enero del inminente 2023 se celebrará la vigésima edición de Sonikas. Un hito que, seguramente, pasará discretamente por el panorama cultural madrileño aunque llevamos dos décadas en activo. A pesar de este anonimato, durante los últimos 20 años la Asociación Cultural CRC, con el apoyo de la Asociación Vallecas Todocultura, el Excmo. Ayuntamiento de Madrid y la Comunidad de Madrid hemos hecho posible este festival internacional que, sin duda, se ha convertido en un referente del Arte Sonoro y la Música Experimental.

Gracias a todo el equipo humano de los Centros Culturales Lope de Vega, Pilar Miró y Paco Rabal por acogernos y prestarnos todo tipo de facilidades. También queremos extender este agradecimiento a los más de 200 artistas que han confiado en nosotros y han hecho de Sonikas un pequeño milagro y, por último, Gracias a tod@s vosotr@s por acompañarnos durante todo este tiempo.

Sábado, 14 de Enero:
20h. Susana López aka Susana Drone.
21h. Nilo Gallego.

Domingo, 15 de Enero:
20h. A.Q.V.
21h. Sergio Luque presenta «It’s Happening Again» (12m) y será el responsable de la difusión sonora de las obras de Iannis Xenakis, Concret PH (1958), Bohor (1962), GENDY3 (1991).

Fotos de su participación | Artículo en Scherzowww.ccapitalia.net/crc

Centro Cultural Lope de Vega, c/ Concejo de Teverga – Madrid.

Acceso gratuito.

Primera Generación de Videoconsolas (y 2)

noviembre 1, 2022 on 8:41 am | In colección, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | En el texto anterior recordábamos como en 1972, gracias a Ralph Baer, apareció la Odyssey de Magnavox. Además de comentar su funcionamiento describimos cómo eran los primeros videojuegos y, aunque citamos algunos antecedentes, fue el lanzamiento de esta videoconsola el detonante que hizo que empresas como Atari, Nintendo y Coleco buscaran hacerse un hueco en el nuevo mercado.

Atari
A mediados de los años 60, mientras cursaba su Licenciatura en Electrónica en la Universidad de Utah, el joven Nolan Bushnell (1943) también descubrió Spacewar! y no tardó en comprender el potencial de los videojuegos en el futuro del entretenimiento electrónico. Aquello fue como una revelación y junto a su amigo Ted Dabney (1937-2018) crearon Syzygy Company para embarcarse en el diseño de una máquina recreativa que sería instalada en espacios púbicos, como un bar o un salón de juegos. Evidentemente, el coste de adquisición de esta máquina debía garantizar a su propietario el retorno de inversión en un tiempo razonable y, con aquella premisa, desecharan la idea de emplear un costosísimo ordenador y optaron por desarrollar en electrónica digital TTL una adaptación de Spacewar!. Para industrializar y comercializar esta máquina alcanzaron un acuerdo de licenciamiento con Nutting Associates y así, en 1971, llegaría al mercado Computer Space. De esta consola de monedas apenas se vendieron más de mil quinientas máquinas y su acogida fue tibia, pero, en contra de lo que cabría esperar, Bunshell y Dabney se reafirmaron en su empeño de avanzar en el mundo de los videojuegos y así, al año siguiente, fundaron Atari para absorber a Syzygy y lanzar PONG, su primer título, cuyo desarrollo fue obra de Allan Alcorn (1948).

A pesar del fulgurante crecimiento que experimento Atari durante sus primeros años, la presión de la competencia junto a unos errores contables y el fracaso de su filial japonesa la dejaron cerca de la quiebra. Para sortear aquel bache en 1973 se tomó la decisión, poco ética pero efectiva, de crear una empresa pantalla llamada Kee Games a través de la cual vender clones de sus propios juegos, y así esquivar los acuerdos de exclusividad firmados con sus distribuidores. Por otro lado, en aquel cúmulo de adversidades, en 1974 Magnavox inició una demanda contra Atari demostrando que Bushnell conoció en una presentación de la Odyssey la existencia del juego Tennis, antes de que empezase el desarrollo de Atari PONG.

Sin lugar a dudas, Atari era un reflejo del espíritu audaz y emprendedor de Nolan Bushnell a quién no le importaba transitar sobre terrenos de dudosa legalidad, contratar a empleados que estaban en el límite de la sociedad o aquellos que tenían una visión diferente de la vida, entre los que se encontraba Steve Jobs (1955-2011). Aquel ímpetu fue el que les impulsó en 1974 a poner en marcha el proyecto Darlene con el que aspiraban a conquistar los hogares.

Al frente de Darlene se colocó a Al Alcorn con el objetivo de abaratar el futuro producto a través de la integración de toda la electrónica de PONG en un único circuito integrado LSI (Large Scale Integration) y que este pudiese funcionar con baterías. Tras este hito, era necesario diseñar una atractiva envolvente para que la videoconsola destacara en el hogar y, por último, había que introducir el producto en una red de distribución que tuviese suficiente capilaridad para llegar a cualquier a cualquier rincón del país, como almacenes Sears, y ser capaces de atender la demanda de semejante cliente… Gracias a Donald “Don” Thomas Valentine (1932-2019) y su firma Sequoia Capital, Atari contó con el apoyo financiero necesario para alcanzar las citadas metas y así transformar la compañía. En este punto quiero recordar que Don Valentine es una las figuras más legendarias de Silicon Valley e hizo posible numerosos proyectos que allí han nacido.

En las navidades de 1975 se puso a la venta en todos los almacenes Sears la consola Tele-Games PONG y unas semanas más tarde Atari comercializó su videoconsola PONG C-100, que era exactamente igual, logrando así que todos los usuarios reconocieran esta marca e, inevitablemente, ser identificados con los videojuegos. Nacía así un mito universal que años después transformaría el mercado en la Segunda Generación.

Coleco
Como vimos anteriormente, el uso de componentes discretos fue abandonado en favor de circuitos integrados LSI (IC) de compañias como Texas Instruments, National Semiconductor, Mostek, Mitsubishi o General Instruments. Estas firmas pusieron a disposición de cualquier fabricante de videoconsolas un chip que reunía uno o más juegos en lo que se conoció como PONG-on-a-Chip.

De aquellos IC el más importante fue el AY-3-8500 de General Instruments (1976) y las versiones que le sucedieron. Este circuito integrado sería el corazón de miles de consolas entre la que destaca la Telstar de Coleco, no por ser la mejor sino por ser la primera que empleó el mencionado chip.

Sobre lo que quiero llamar la atención en estas líneas es sobre el efecto llamada que tuvieron estos IC para cualquiera fabricante que deseaba vender una videoconsola. La mayoría de estas firmas carecían de conocimientos y no tenían una estrategia en el mundo de los videojuegos, salvo esperar el lanzamiento de un nuevo modelo de chip y competir en precio. Así paso. Desaparecieron todas excepto aquellas, como Coleco, que fueron capaces de programar algo original años después.

Nintendo
Los orígenes de esta centenaria empresa se sitúan a finales del siglo XIX y, hasta 1974, su negocio principal fue la fabricación de juegos de mesa y cartas. En los años 70 del siglo pasado empezaron a comercializar sencillos juguetes electrónicos con los que intentaban trasformar su negocio histórico. Uno de aquellos productos era una línea de armas de juguete, los Kôsenjû Guns, que disparaban un haz de luz contra una diana de sensores ópticos para así probar la puntería del jugador. La apariencia de su rifle de juguete hizo que Magnavox contara con ellos para la fabricación del rifle que acompañaba a sus juegos Shooting Gallery. Aquello permitió a Nintendo conocer en primicia el potencial de los videojuegos y animó a los japoneses a llegar a un acuerdo de licenciamiento con Magnavox, a la vez que, de la mano de Mitsubishi, comenzaban el desarrollo del circuito integrado M58816P con los juegos -a color- de Tenis, Hockey y Voleibol.  Así es como aparecería en 1977 la videoconsola Color TV-Game 6.

 

Resulta curioso recordar los orígenes de Nintendo a la vez que es admirable contemplar su capacidad de adaptación hasta convertirse en una de las empresas más relevantes de esta industria. Para ellos no fue suficiente hacer una consola con un chip, Nintendo supo entender la trascendencia del mercado que nacía, logrando sobrevivir a Magnavox, Atari y a muchas otras compañías de la primera generación.

… y España no fue diferente
En contra de lo que cabría pensar en España también se fabricaron consolas de la Primera Generación y, aunque el recuerdo de estas iniciativas sean un poco difuso, los productos están ahí atestiguando que algo pasó.

La primera de ellas fue Overkal, una videoconsola de la que es difícil encontrar información y lo poco que conocemos es fruto del empeño de algunos aficionados por desentrañar su pasado. Sabemos que esta máquina fue fabricada en Barcelona por la conocida firma Inter Electrónica S. A. y que llegó al mercado en la primavera de 1974. También conocemos que se vendieron unidades a través de El Corte Ingles a un precio de 9.000 pesetas. Quizás, parte del oscurantismo que rodea a este producto, se deba a que fue una atrevida copia de la Magnavox Odyssey que infringe cualquier patente y modelo de utilidad. Sabemos que Ralph Baer tenía identificada esta consola, pero, desconocemos, si Magnavox emprendió algún tipo acción legal o advertencia al titular de la fabricación o aquellos que la vendían. Poco sabemos si el desarrollo de Overkal fue producto de la iniciativa de Inter Electrónica o, un intermediario poco escrupuloso, les “vendió” la idea ya que, por las mismas fechas, en Argentina se puso a la venta una consola similar. Es fácil llegar a esta idea porque, no parece muy pruedente, que empresas del prestigio de Inter Electrónica (recordemos que en los setenta fue comprada por Grundig) y El Corte Inglés se embarcasen en desarrollar y comercializar una novedosa videoconsola que rozaba la ilegalidad. Por eso es de suponer qué, tras constatar que era un producto sobre el que podía pesar algún litigio e indemnización, la hiciesen desaparecer sin apenas dejar rastro.

Mas cercano a lo que se hacía en otros países fue la fabricación a partir de 1976 de diversas videoconsolas basadas en el IC AY-3-8500 en su versión europea o PAL. De ellas recordamos la Teletenis de Togisa (1976) y la Tele-Juego B/N-4 de Talleres Radioeléctricos Querol, TRQ (1978). Ambas consolas no presentaban ninguna novedad pero acercaron los videojuegos a los hogares españoles. Estas iniciativas ilustran bien algo que más adelante sería evidente y era que, en este ecosistema, solo tenían alguna posibilidad de sobrevivir aquellas empresas que fabricaran un hardware innovador o aquellos estudios que fuesen capaces de producir grandes títulos.

Colección | Primera Generación de Videoconsolas (1) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación

Página siguiente »


(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress