El receptor superheterodino
agosto 29, 2024 on 4:29 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en El receptor superheterodinoAdolfo García Yagüe | En la Primera Guerra Mundial se comprobó como el uso de las telecomunicaciones representaba una ventaja en el escenario bélico, por esta razón, para contrarrestar o aprovecharse de las comunicaciones por radio que hacía el enemigo, asistimos a los albores de la guerra electrónica. Aunque existen antecedentes en la confrontación que tuvo lugar entre Rusia y Japón (1905-1906), y también en la guerra ítalo-turca (1911-1912), es en la Gran Guerra donde se inicia esta doctrina militar teniendo presente, además, que el término “electrónica” acababa de nacer y hace referencia al control que se hace de los electrones dentro del tubo termoiónico o triodo (1907).
Escuchar las trasmisiones del adversario y adelantarse a sus movimientos teniendo en cuenta sus comunicaciones, ocultar estas, descifrar mensajes, la radiogoniometría o la identificación de la posición del rival a partir de sus emisiones, perturbar sus frecuencias de comunicación o, guiar hacia objetivos -en noches cerradas- a los torpes dirigibles alemanes que pretendían emplearse como bombarderos, fueron algunas de las primeras misiones de los ingenieros de trasmisiones. Uno de aquellos ingenieros fue Edwin Howard Armstrong (1890-1954) quien, en 1917, tras la entrada en la Gran Guerra de EE.UU. sirvió con el grado de Mayor en el legendario Signal Corps y, cuya misión conocida, fue la de rastrear las comunicaciones del enemigo.
El joven Armstrong llegó a Europa avalado por su experiencia en el mundo de la radio tras inventar el circuito regenerativo y, mientras estaba destinado en París, su principal ocupación fue mejorar la sensibilidad y selectividad de los equipos para lograr la escucha de las comunicaciones alemanas emitidas en alta frecuencia. Recordemos que los primeros triodos tenían dificultades para amplificar señales superiores a 3 megahercios (100 metros). Evidentemente, esta limitación también era sufrida por la parte contraria y condujo en 1919 a la invención del tetrodo por el alemán Walter Schottky (1886-1976).
La línea de trabajo de Armstrong se basaba en el fenómeno de heterodinación o la mezcla de dos señales de frecuencia diferente de la que resulta una tercera de frecuencia inferior. Este comportamiento era conocido y el primer intento en aplicarla a las comunicaciones inalámbricas fue hecho en 1901 por Reginald Aubrey Fessenden (1866-1932). Años más tarde, Lucien Lévy (1892-1965), quién en 1917 era el responsable del laboratorio de radio telegrafía militar situado a los pies de la Torre Eiffel, trabajó con la heterodinación con el fin de ocultar una señal de audio fuera del rango audible y, posteriormente, modular una portadora de alta frecuencia. Por su parte, Armstrong avanzó en la idea de bajar la frecuencia de una emisión del enemigo a una región intermedia que fuese fácilmente amplificable con los triodos disponibles. Por último, hay que recordar que, en el bando contrario, estas ideas también estaban en la cabeza del citado Schottky y de Alexander Meissner (1883-1958).
En noviembre de 1918, tras la firma del Armisticio de Compiègne, se daban los primeros pasos para poner fin a la primera contienda mundial y nuestros protagonistas se apresuraron en patentar las aplicaciones desarrolladas en torno a la heterodinación. Armstrong fue el primero en obtener la patente en EE.UU. el 30 de diciembre de 1918 y, cuyos derechos explotación, serían vendidos a la Westinghouse en 1920. Meses antes, también en 1918 y en Alemania, a Schottky se le había concedido una patente. Por su parte, Lévy ya había presentado una solicitud de patente en 1917 en Francia y argumentaba que Armstrong le había robado el concepto mientras estuvo destinado en París… En este sentido, parte de sus reivindicaciones fueron reconocidas en EE.UU. y, a pesar de estas diferencias, Lévy ya había alcanzado un acuerdo con la AT&T lo que allanaba el camino para que la Radio Corporation of America (RCA) pudiera comercializar un futuro receptor superheterodino con las patentes de Westinghouse y los derechos que controlaba la AT&T. Recordemos que en sus comienzos la RCA es una sociedad en la que participaban General Electric (GE), AT&T y Westinghouse con sus respectivas patentes en tecnología radio además de aportar sus capacidades industriales, como las de GE, para la fabricación del equipo que nos ocupa.
RCA Radiola Superheterodyne AR-812
Aunque en 1920 el concepto de la heterodinación estuviese claro, la realización práctica de un receptor con fines comerciales quedaba distante. Como hemos comentado en textos anteriores, en aquellas fechas todavía no se había desarrollado el servicio de radiodifusión que hoy conocemos y, fabricar un equipo doméstico que funcionase con más de dos o tres triodos era impensable. Estos motivos permitieron a Armstrong y a su ayudante, Harry William Houck (1896-1989), contar con unos años para ir perfeccionando el circuito de heterodinación, ajustar la cantidad de triodos empleados, optimizar el consumo eléctrico y que, aquel futuro receptor, fuese fácilmente sintonizable.
Como explicábamos, la ventaja más evidente de la heterodinación es que permite amplificar frecuencias fuera del rango de operación del triodo cuando la señal que se pretende escuchar es trasladada a una frecuencia inferior, es decir mejora la Sensibilidad del receptor. Es importante destacar que esta frecuencia de destino siempre será la misma y la llamaremos Frecuencia Intermedia (FI). En el empleo de esta FI reside otra de las ventajas de la heterodinación al permitirnos utilizar unos transformadores de acople optimizados solo para esa frecuencia intermedia en lugar de para una banda completa como, por ejemplo, la de onda media. Esta optimización de los transformadores para “dejar pasar” una única frecuencia (FI) lleva consigo que las siguientes etapas de amplificación solo amplificarán la emisora que está siendo trasportada en esta FI, es decir, hemos incrementado la Selectividad.
El primer receptor comercial superheterodino que diseñaron Armstrong y Houck fue el RCA Radiola Superheterodyne AR-812 (1924) y, repasando su circuito, identificamos sin dificultad un oscilador local, elemento clave de un circuito heterodino (ver zona de triodo T2). Este oscilador genera una frecuencia que puede ser modificada a través del condensador variable C3, etiquetado como Station Selector II. En el caso del AR-812, se genera esta frecuencia de heterodinación a partir del segundo armónico de la frecuencia fundamental (ver Wikipedia). En este triodo T2 también se produce la mezcla entre la frecuencia de la emisora a escuchar y la frecuencia de heterodinación y, cuyo resultado, es una resta de frecuencias igual a la Frecuencia Intermedia (FI). Por lo tanto, T2 está funcionando en modo réflex o dúplex al desempeñar dos funciones.
Ahora dirijamos nuestra atención al comienzo del circuito. Allí, tras captar la emisora deseada a través del circuito de sintonización y su condensador variable C1 denominado Station Selector I, entregamos la señal de radiofrecuencia (RF) a T1 donde es amplificada junto con la señal FI procedente de T2. Como podemos apreciar, este triodo también trabaja en réflex para lo cual se apoya en el trafo A2 que únicamente permite el paso de la FI, y el condensador C2 sólo RF. A continuación, desde T1 parten dos señales, pero el trafo A1 solo permitirá el paso de RF mientras que la señal de FI solo podrá recorrer su primario para llegar hasta el trafo A3 que está ajustado para permitir únicamente el paso de la FI al triodo T3 donde es amplificada.
Al igual que en la etapa previa, A4 solo permite el paso de la FI a T4 que actúa como detector para extraer la señal de audio. A continuación, A5 solo permite el paso de la señal de audiofrecuencia para ser amplificada en T5 y, de igual forma, en A6 y T6. Tras estas etapas ya estamos en condiciones de reproducir la señal en unos auriculares o altavoz, respectivamente.
A tratarse de un diseño que se apoya en las capacidades réflex, el AR-812 cuenta con 6 triodos en lugar de 8. Estos triodos son del modelo UV-199, que fue diseñado y fabricado por General Electric, pero etiquetado y comercializado como RCA Radiotron. Estos triodos eran de lo mejor que en aquel momento se podía utilizar en un equipo de consumo. Su corriente de filamento era de solo 0.06 amperios y 3 voltios, y su tensión de placa se situaba en 45 voltios para detección y 90 voltios como amplificador. Por este motivo, con sus 86 centímetros de largo y cerca de 20 kilogramos de peso, el AR-812 se posicionó como un equipo “portable” ideal para ser alimentado con baterías.
Ahondando en las interioridades del AR-812 diremos que tiene una antena de cuadro integrada lo que facilita la citada portabilidad, unos condensadores variables, etiquetados como Station I y II, reóstatos para el control de volumen y amplificación y… poco más… RCA se preocupó en ocultar los detalles de este equipo frente a la competencia. Para ello construyó el equipo alrededor de una caja de metal, o catacumba, donde se conectan los mencionados triodos y, en su interior se ocultan los transformadores de acople sumergidos en una capa de resina.
Volviendo a los condensadores variables que están a la vista, el ajuste de este equipo se inicia con el giro de Station Selector I. Recordemos que con este control sintonizamos la emisora que queremos escuchar, por lo tanto, tenemos que situarlo en el punto donde creemos o sabemos que se está emitiendo (por ejemplo, en el 25 del dial). A continuación, nos dirigimos a Station Selector II y lo fijamos a una posición próxima a 25 (15, por ejemplo) y, suavemente, giramos en sentido del reloj y, al aproximarse a 25, empezará a recibirse la emisora deseada. En resumen: lo que hemos hecho es fijar la frecuencia de la emisora a escuchar (Selector I) y, a continuación, hemos ido modificando la Frecuencia Intermedia (Selector II) hasta que esta ha sido compatible con los trasformadores A2, A3 y A4.
La calidad de la recepción ofrecida por el RCA Radiola AR-812 era inmejorable y, a pesar de contar con un oscilador interno, no generaban las mismas interferencias que los regenerativos ya que el usuario solo actuaba sobre la frecuencia heterodina (Selector II), no en su amplitud, permaneciendo está muy baja. Como dato curioso y para hacernos una idea de esta calidad, su precio en 1925 era de 269 dólares y, ese mismo año, un coche Ford T costaba 260 dólares.
Los otros superheterodinos
La adopción a esta tecnología por parte del resto de fabricantes fue gradual y, quizás, esta lentitud tuvo que ver con el estricto control que hizo la RCA sobre sus patentes. Digo esto porque sorprende, por ejemplo, ver como Radio Stanislas, un pequeño fabricante francés, presentó un equipo superheterodino en 1927, pero, a la vez encontramos que en 1930 Philips seguía produciendo equipos, como el costoso (y pesado: 21,5Kg) Modelo 2511, basados en amplificación tradicional, eso sí, con tetrodos.
De lo que no cabe ninguna duda es que pocos inventos han tenido una longevidad similar a la heterodinación permaneciendo, aun hoy, en la base de la mayoría de receptores de radio ajena al cambio que supuso pasar de tubos de termoiónicos a transistores y, posteriormente, a circuitos integrados y, sin importar tampoco, si la modulación está basada en amplitud (AM) o en FM (frecuencia).
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10
Receptor réflex De Forest D-10
agosto 3, 2024 on 5:39 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Receptor réflex De Forest D-10Adolfo García Yagüe | Al comienzo de la segunda década de Siglo XX, mientras decenas de fabricantes se apresuraban en adquirir de la Westinghouse una licencia que les autorizase a fabricar y comercializar un receptor regenerativo, Lee De Forest (1873-1961) tenía las puertas cerradas a esta innovación. La razón, a modo de escarmiento, era consecuencia de su intento de reivindicación años atrás de la patente de Edwin Howard Armstrong (1890-1954). Por otro lado, también a raíz de su disputa con John Ambrose Fleming (1849-1945) y su representada la Marconi Wireless, y tras saltarse el acuerdo que le obligaba a informar de la contabilidad relativa a la venta de triodos, una sentencia le impedía fabricar audiones hasta noviembre de 1922, momento en el que expiraba la patente del diodo termoiónico de Fleming.
Para intentar romper el bloqueo en el que se encontraba, la De Forest Radio Telephone & Telegraph comercializó algunos receptores que podían ser fácilmente reconvertidos en regenerativos mediante pequeños cambios hechos por el usuario. Aquella argucia no tardó en chocar con la justicia y no prosperó. Otra maniobra fue adquirir en 1922 la compañía Radio Craft y hacer uso de su licencia para fabricar equipos regenerativos. Una vez más los abogados de la Westinghouse salieron al paso recordando que estas licencias no eran trasferibles. Afortunadamente, tras la compra de Radio Craft se mantuvo en su puesto a su fundador Frank M. Squire quien, para eludir las repetidas obstrucciones, propuso diseñar un receptor de radio totalmente diferente a lo conocido y basado en triodos Audion.
La propuesta de Squire era desarrollar un receptor de gran capacidad de amplificación y, a la vez, emplear pocos triodos en su diseño. Para ello recurrió a los servicios de William H. Priess quien, durante su estancia en la US Navy, trabajó en un circuito de un único triodo con el que se amplificaban simultáneamente dos señales de frecuencia diferente (radiofrecuencia y audio). Esta técnica de amplificación se conoció como réflex o dúplex y se basaba en la amplificación lineal que ofrece el triodo en ambas regiones: alta y baja frecuencia. Realmente, esta idea ya había sido presentada por los alemanes Wilhelm Schloemilch (1870-1939) y Otto von Bronk (1872-1951) en una patente de 1914 y, posteriormente, fue mejorada en 1917 por el francés Marius Latour.
De Forest D-10
Este equipo fue presentado en Nueva York en marzo de 1923 y empleaba cuatro triodos audion DV-2 (filamento 5V y 0,25A) o DV-6 (6V y 0,75A). En cambio, si se pretendía ahorrar baterías y ganar en portabilidad, se recomendaba el uso de triodos DV-1 (1,5V y 0,2A). El D-10 era una evolución del modelo D-7 de tres triodos DV-1 presentado en octubre de 1922. Por su parte, el D-7A también venía equipado con tres triodos DV-6A (6V y 0,3A) y es de febrero del ‘23.
En los receptores D-7, D-7A y D-10 destaca su antena de cuadro orientable para ganar más selectividad. Esta mejora contrasta con su pobre etapa de sintonía, fiando su capacidad a las diferentes etapas de amplificación radio y a la configuración manual de bandas que se hace mediante la sustitución de sus transformadores radio.
Como se ha comentado, el D-10 cuenta con cuatro triodos que, al tratarse de funcionamiento réflex, se corresponde con 6 etapas de amplificación actuando de la siguiente manera: Tras orientar la antena de cuadro y, simultáneamente, sintonizar la estación deseada mediante los condensadores variables de tuning (ajuste grueso) y vernier (fino), la señal de radiofrecuencia elegida llegará al primer triodo (T1) donde se amplifica y gana en sensibilidad. A continuación, esta señal pasa del primario al secundario del transformador de acople A1 (cuyo núcleo es de aire) y de ahí a la segunda etapa de amplificación réflex T2. Tras esta etapa la señal puede tomar el camino a través de B1 y B2. En nuestro caso, al tratarse de una señal de alta frecuencia, solo se cursará a través de primario de B1 (núcleo aire) y B2, con núcleo de hierro, representa una barrera. A continuación, el triodo T3 (réflex) vuelve a amplificar la señal radio y, a través de C1 (núcleo aire), llegamos hasta el elemento detector que, sorprendentemente, está basado en un cristal de galena. De ahí al primario y secundario de A2 (hierro), mientras que A1 (aire) es una barrera para esta señal de baja frecuencia. En T2 (réflex) la señal de audiofrecuencia también se amplifica y recorre el primario de B1 (trafo de núcleo de aire) pero no logra pasar a su secundario llegando hasta el primario de B2 y su secundario (trafo hierro). De ahí se vuelve a amplificar en T3 (réflex). La salida de esta etapa recorre el primario de C1 y, como se trata de una señal de baja frecuencia, no llega a su secundario. En este punto estaríamos en disposición de hacer una escucha con auriculares, pero, para lograr más volumen y, si el usuario tiene desconectados sus auriculares, se cierra un circuito y se deriva la señal al primario del trafo de acope C2 desde donde la señal de audio es amplificada en el triodo T4 antes de atacar a un altavoz o altoparlante.
La manipulación de este receptor de onda media no era fácil y, a las dificultades de ajuste que supone trabajar con dos controles para la sintonía y otros dos de amplificación, hay que añadir el intercambio necesario de transformadores para fijar la banda de trabajo. Para este propósito el usuario tenía a su disposición un set de cinco trafos y una tabla donde se indicaba la posición que tres de ellos debían ocupar en el circuito en función de la banda deseada. Por último, a estas dificultades había que añadir el uso de un detector de galena y su bigote de gato que, en mi opinión, tenía que ver con alguna de las muchas disputas que tenía abiertas De Forest impidiéndole utilizar un triodo como detector. A su favor, y a diferencia de los receptores regenerativos, el D-10 era un equipo que no generaba interferencias.
En agosto de 1924, tras algo más de un año en el mercado, el D-10 fue modificado por Priess para mejorar el circuito de sintonía de la primera etapa amplificadora y así ganar en selectividad. Aquel nuevo equipo se llamó D-12. Tras acabar su trabajo Priess abandonó la compañía y se aseguró un contrato de pago de royalties por cada unidad vendida. Para ocupar su puesto Lee De Forest contrató a Roy Alexander Weagant (1881-1942) quien prosiguió con los rediseños añadiendo un quinto triodo para funciones de detección y, así, prescindir de la galena (abril 1925). No conforme con estos cambios, y con los almacenes repletos, volvió a rediseñar el D-12 para prescindir totalmente del funcionamiento réflex y así perjudicar a su ahora competidor, Priess… Imaginaros las pérdidas millonarias y la desconfianza que esto generaba entre los vendedores del D-12 y sus clientes, significando, en cierto modo, el declive de De Forest como empresario del mundo de la radio.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Radio de recepción regenerativa | El receptor superheterodino
Radio de recepción regenerativa
julio 12, 2024 on 5:12 pm | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio de recepción regenerativaAdolfo García Yagüe | Como vimos en el texto anterior, una radio de galena es un tipo de receptor con el que miles de aficionados se iniciaron en el mundo de las ondas. Gracias a su sencillez es posible asimilar algunos conceptos que, de otra forma, suelen ser abstractos y poco intuitivos. Este equipo también es un buen punto de partida para abordar el estudio de otros receptores más complejos basados en triodos, popularmente conocidos como lámparas o tubos de vacío.
En los primeros receptores de radio la misión de estas lámparas ha sido la detección y la amplificación de la señal de audio para así aumentar su volumen. Si os fijáis, sus áreas funcionales coinciden con las descritas en un receptor de galena.
Triodo termoiónico
Antes de avanzar, es importante situar al triodo en el contexto tecnológico de hace un siglo y entender que, en aquellos años, los tubos de vacío eran considerados sofisticados componentes electrónicos.
Además de existir patentes que restringían la fabricación de un triodo, el proceso de industrialización solo era abordable por algunas compañías. Esto significa que era necesario conocer la técnica de vaciado del interior de la ampolla y dominar la metalurgia necesaria para elaborar el filamento, rejilla y placa con calidad, garantizando, por supuesto, que la respuesta durante la vida útil del tubo se encontraba dentro unos valores de operación fiables y que estos eran comunes a toda la producción. Aquellas dificultades, junto con el incremento del consumo eléctrico que suponía usar varios triodos en un receptor y la consiguiente reducción de la vida útil de las baterías, impactaban notablemente en el precio y en los impuestos que licenciaban su uso.
Esta situación empujó a los fabricantes de receptores a ser ingeniosos y desarrollar numerosos circuitos electrónicos donde se reducía al máximo el número de triodos a costa, lógicamente, de sacrificar alguna prestación o la calidad del propio receptor. También, esta disparidad de diseños electrónicos era una forma de esquivar las patentes que protegían un determinado circuito electrónico, por lo que es normal encontrar receptores con una única lampara y otros más sofisticados donde se llegan a reunir 6 triodos.
Circuito regenerativo
Tras los primeros días de funcionamiento, un circuito como el anterior, seguramente satisfizo a miles de radioescuchas habituados a sus limitados receptores de galena. No obstante, algunos de estos aficionados pronto advertirían que, si bien la detección era más compacta, el volumen aumentaba y la escucha resultaba más clara, la sensibilidad no había mejorado significativamente y seguía siendo difícil recibir emisoras distantes.
En 1912 Edwin Howard Armstrong (1890-1954) estudiaba ingeniería eléctrica en la Universidad de Columbia y, mientras experimentaba con la capacidad de amplificación de sonido del Audion, ideo un circuito capaz de incrementar también la señal de radiofrecuencia ganando en sensibilidad. Para ello se valió de una tercera bobina, llamada de reacción, que inducía a la segunda bobina del transformador de antena parte señal ya amplificada por el triodo. Es decir, hacíamos una realimentación o regeneración positiva con la que se «vigorizaba» la señal de radiofrecuencia. Gracias al incremento de sensibilidad ofrecido por aquel ingenioso circuito y, durante el transcurso de sus primeras demostraciones, Armstrong llegó a escuchar en Nueva York mensajes cursados entre San Francisco y Honolulú, junto a otros procedentes de Irlanda.
Como recordé en el texto dedicado al triodo, la invención de este circuito también desencadenó una larga y amarga disputa entre Armstrong y Lee De Forest (1873-1961) poniendo de manifiesto que, a veces, una reinterpretación torticera puede decantar una sentencia. Me refiero a que desde hace décadas no se discute que la autoría de la invención del circuito regenerativo corresponde a Armstrong, más aun tras quedar documentado que el propio De Forest no supo explicar ante el juez (ni había rastro de una descripción previa) el principio de funcionamiento de dicho circuito, pero, en su momento y tras años de batalla legal de sus abogados, y el testimonio a favor de John Stone Stone (1869-1943) y los tácitos intereses de la ATT&T, en 1934 un juez anuló las sentencias anteriores y atribuyó la autoría del citado circuito a De Forest por el simple hecho de considerarlo un mero amplificador.
En la colección podemos conocer el aspecto de dos receptores de radio que hacen uso de la regeneración descrita: el Westinghouse RA-DA (1921) y el Westinghouse Aeriola Sr. Receiver (1922). Ambos son de los primeros equipos en ser comercializados entre el público y, concretamente, estaban dirigidos para uso amateur y experimental, no como un receptor broadcast para escuchar emisiones radiofónicas, entre otras cosas porque las primeras emisiones comerciales empezaron unos meses antes con la KDKA -propiedad de Westinghouse- en Pittsburgh. Mediante estos dos equipos la Westinghouse pretendía afianzar su posición en mundo de la radio e ir cubriendo huecos de la futura cadena de valor: Fabricante y proveedor de equipos de emisión, propietario de frecuencias y emisoras y, por último, ser un fabricante y proveedor de equipos receptores de usuario.
El RA-DA está formado por dos módulos: RA para la sintonía y DA amplificación. El núcleo del módulo RA es la mencionada bobina de reacción junto a los controles para una sintonía gruesa o “Turner”, otra más precisa y selectiva a través de “Vernier” y, por último, un ajuste del grado de reacción a través de “Tickler”. Por su parte, el módulo de amplificación DA cuenta con tres triodos, un UV-200 para detección y dos UV-201 para la amplificación audio, junto a sus correspondientes controles con los que se regula la corriente del filamento en cada una de estas lámparas.
Este receptor fue diseñado entre los años 1919 y 1920 por Frank Conrad (1874-1941) quién, desde el año 1916 y a título particular y experimental, organizaba trasmisiones radiofónicas bajo la licencia e indicativo 8XK. Este interés y experiencia de Conrad sirvió de inspiración para que la Westinghouse pusiese en marcha la KDKA.
Por otra parte, el Westinghouse Aeriola Sr. Receiver representa un buen ejemplo de aquellos equipos económicos que resumieron su diseño a la mínima expresión, es decir, solo emplea el triodo WD-11. Además, su presentación, en una pequeña caja de madera junto a las instrucciones de operación, evidencia que estaba dirigido a entusiastas y aficionados que querían abrirse un hueco en esta nueva tecnología. Por último, este equipo también atestigua los comienzos de la todopoderosa RCA (Radio Corporation of America) como revendedor de los equipos que otras firmas fabricaban (P. Ej. Westinghouse). Esto fue así porque, durante la Primera Guerra Mundial, EE.UU. experimentó lo que significaba carecer de independencia tecnológica en el terreno de la radio y depender de británicos (Marconi Wireless) y franceses (triodo TM) frente a un enemigo bien preparado, como los alemanes con Telefunken y Siemens y así, en 1919, decidió concentrar en una compañía llamada RCA todo el conocimiento sobre tecnología radio, sus patentes y el servicio internacional que venía prestando la Marconi Wireless. Como era evidente, en aquella empresa participarían, entre otros accionistas, la General Electric, Westinghouse y ATT&T.
Por último, solo recordar que el uso de equipos como el RA-DA o el Aeriola Senior requerían algo de pericia por parte del oyente y, en cierto modo, suponemos que era deseable conocer su principio de funcionamiento para evitar incómodos silbidos y molestas interferencias. A pesar de aquellas dificultades, equipos similares a estos fueron bastante populares hasta los años 30 cuando se decretó su prohibición. La razón de semejante medida era consecuencia de las interferencias que provocaban sobre otros receptores próximos. Pensemos que aquel proceso de retroalimentación con el que la señal de radiofrecuencia se amplificaba era una forma de radioemisión sin control y esto, en una época donde empezaban a proliferar los receptores domésticos, no se podía tolerar.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio Galena | Receptor réflex De Forest D-10 | El receptor superheterodino
Radio Galena
febrero 13, 2024 on 7:48 am | In colección, hist. fotografía, radio, tv y vídeo | Comentarios desactivados en Radio GalenaAdolfo García Yagüe | Hace 100 años, alrededor de la radio, miles de personas sucumbieron ante el primer delirio tecnológico de la historia. Recordemos que nuestro querido Siglo XX se inició con las experiencias de Marconi y, durante sus primeras décadas, la industria electrónica, las telecomunicaciones y la radiodifusión vivieron su particular adolescencia. Tras la invención de la radio todo parecía posible, desde enviar energía eléctrica a distancia -sin cables- a fabricar tu propio receptor para escuchar el parte de noticias y la previsión meteorológica de remotas latitudes o, intercambiar algún mensaje con simpáticos marcianos… Sin lugar a dudas, la humanidad había entrado en una nueva era.
Tras la Primera Guerra Mundial empiezan a aparecer publicaciones especializadas y noticias en prensa recogiendo los avances técnicos que se están produciendo en el campo de la difusión del sonido a través de las ondas. A este ambiente de novedad y expectación contribuyó su aparente sencillez, siendo posible, con un poco de pericia, construir un económico receptor de onda media que no precisaba corriente eléctrica para funcionar, basado en la detección a cristal que hacen algunos minerales como la galena, el carborundum o la pirita. Lo importante era entender los conceptos y dejarse guiar por algún galenista más aventajado. En este sentido, cabe destacar, la publicación por parte la Oficina de Estándares de EE.UU., de un par boletines con los detalles constructivos de una radio de este tipo. Aquellas guías, que coincidían con las primeras emisiones comerciales, fueron una forma de divulgar este nuevo medio entre aquellos oyentes que carecían de los recursos para adquirir -o fabricarse- un costoso receptor de tubos de vacío. Tampoco hay que olvidar que otro de los alicientes de esta nueva tecnología, a diferencia de otras previas como el telégrafo y el teléfono, tenía que ver con el hecho de que la radio no precisaba de una infraestructura de cables y centrales telefónicas para disfrutar de ella. Por eso, cualquier aficionado podía introducirse en esta tecnología con solo disponer de un receptor y dedicar horas a rastrear emisiones, alguna de ellas en otro idioma, de carácter oficial o, simplemente, procedente de otro aficionado.
Antena
En un receptor de galena se identifican cuatro etapas funcionales. La primera, denomina antena, puede ser un simple cable capaz de captar ondas electromagnéticas y convertir estas en señales eléctricas. La longitud de este cable será compatible con la longitud de onda de la banda que pretendemos recibir e, idealmente, debe estar ubicada en el exterior, en un espacio abierto y elevado, lejos de estructuras metálicas y otras fuentes de ruido eléctrico como redes de distribución de energía. Este cable, si se encuentra en el exterior, alejado de edificios y otras estructuras más elevadas, es conveniente que esté conectado a tierra a través de un protector de rayos.
Para recordar su origen es necesario remontarse a 1887 y conocer las experiencias que realizó Heinrich Rudolf Hertz (1857-1895) sobre la propagación electromagnética. Con ellas se ratificaba la teoría descrita por James Clerk Maxwell (1831-1879) en 1865 y, aunque en ese momento no se puede hablar de una comunicación propiamente dicha, aquellos trabajos fueron el inicio de numerosas líneas de investigaciones entre las que destacan las de Aleksandr Stepánovich Popov (1859-1906) en la Universidad de San Petersburgo en 1897. Popov avanzó en la posibilidad de comunicarse a distancia si ambos elementos, emisor y receptor, estaban conectados a un largo cable o antena.
Sintonía
Volvamos a nuestro circuito. A continuación, para excluir de la antena las señales eléctricas no deseadas, necesitamos un circuito de sintonía capaz de entrar en resonancia con la estación emisora elegida permitiendo el paso de la frecuencia seleccionada. Este circuito, en su forma más básica, constará de una bobina y un condensador que, idealmente, tienen que permitir alguna forma de variación de sus valores de inductancia y capacitancia, respectivamente, para tener cierto control en la elección de la frecuencia o emisora que pretendemos oír.
Precisamente, la diferencia más significativa entre los distintos receptores de galena se encuentra en esta etapa. En ella, partiendo de la premisa comentada antes, se han empleado diversas aproximaciones con el fin de logar un ajuste más preciso y selectivo con el que discriminar la recepción de una emisora que interfiere con la que realmente deseamos escuchar. Un ejemplo de ello son los sintonizadores donde, mediante un cursor deslizante sobre una bobina cilíndrica, seleccionamos el número de espiras que forman parte de ésta cambiando así su inductancia. En otros diseños, este cambio de inductancia se realiza a través de un conmutador rotativo o maneta de contactos con el que se selecciona una determinada posición o toma -ya preestablecida- en las espiras de una bobina cilíndrica o de fondo de cesto. En cambio, en otros receptores, se modifica manualmente la inductancia mediante la variación del acople entre dos bobinas, o la capacidad de un condensador variable.
Para acabar, es importante recordar aquellos receptores donde la bobina de sintonía era sustituida por un trasformador con el que se separaba la etapa de antena de la de sintonía y, cuyo acople, era configurable manualmente. Este trasformador permitía la adaptación de impedancias entre ambas etapas con lo que se lograba mejor selectividad y, además, también permitía modificar el valor de inductancia de cada bobina mediante una maneta de contactos como la descrita anteriormente. En su forma más antigua, estos trasformadores eran construidos artesanalmente mediante dos bobinas cilíndricas móviles, una dentro de la otra. Más adelante se emplearon dos bobinas de nido de abeja intercambiables donde, modificando la distancia entre ambas, se variaba el acople.
En el plano histórico hay que recordar que la invención del sintonizador se atribuye a Oliver Joseph Lodge (1851-1940), físico británico y pionero en la telegrafía sin hilos. Lodge obtuvo en 1898 la patente de éste, iniciándose así el enfrentamiento con la Marconi Wireless que, un año antes, había sido fundada para comercializar servicios de telegrafía inalámbrica y, utilizaba, un sintonizador similar al concebido por Logde. Aquella disputa, que se extendió durante años, no fue resuelta hasta 1912 cuando la Marconi compró a Logde los derechos de su patente sintónica y lo nombró asesor científico.
Detector
Hasta ahora nos hemos movido en el dominio de la alta frecuencia, es decir, estamos tratando con ondas que tienen propiedades para viajar por el espacio, pero, aunque en ellas se ha modulado su amplitud con una señal de audio, no son audibles. Por lo tanto, necesitamos extraer de esta señal portadora la señal audio o de baja frecuencia, y aquí es donde entra en juego la galena.
Las singulares propiedades de este mineral y su aplicación como detector de perturbaciones eléctricas fueron descritas en 1901 por Jagadis Chunder Bose (1858-1937). Años mas tarde, en 1906, Greenleaf Whittier Pickard (1887-1956) profundizó en la investigación de las propiedades de ciertos minerales y la detección de radiofrecuencia al permitir a la corriente circular en un único sentido, es decir, se produce un fenómeno de rectificación donde solo el semiciclo positivo de una señal alterna de radiofrecuencia puede pasar. Esta propiedad de rectificación no es uniforme en toda la superficie del mineral y, para encontrar el punto óptimo, es preciso buscar el contacto con un fino alambre llamado bigote de gato. A veces, esta búsqueda puede ser laboriosa y es poco estable por lo que es normal perder la paciencia. Afortunadamente, podemos prescindir del mineral de galena y emplear un diodo de germanio para lograr una detección y/o rectificación más eficiente y estable.
Escucha
Tras atravesar el mineral -o el diodo- con la señal sintonizada, se identifican una serie de pulsos de amplitud variable que definen a la envolvente de la señal de audio. Con estos pulsos estamos en condiciones de activar el electroimán que se encuentra dentro de un auricular de alta impedancia, provocando así, la vibración de una membrana de metal que reproduce el sonido de igual forma que en los auriculares empleados en telefonía.
Al no existir ningún tipo de amplificación el nivel de audición es bajo, y dependerá de la potencia de la señal recibida y proximidad de la estación. Sólo a través de elementos amplificadores, ya basados en triodos termiónicos, será posible la escucha a través de un altavoz.
Con esta breve explicación y precisamente hoy, que es el Día Mundial de la Radio, he querido recordar aquellos humildes equipos que permitieron a varias generaciones introducirse de forma sencilla y didáctica en la radiodifusión, y fueron los primeros en estar “conectados” a un mundo donde se avecinaban grandes cambios. Por todo ello, emociona descubrir aparatos donde algunos aficionados, cargados de ilusión, reaprovecharon elementos a su alcance para la construcción de su propio radiorreceptor.
En estos tiempos en los que esta tecnología está prácticamente olvidada, es importante no infravalorar la ciencia que hay detrás del funcionamiento de una radio de este tipo y deleitarse pensando que sus principios siguen estando en la base de las actuales comunicaciones inalámbricas.
Colección | Marconi y el Día Internacional de la Radio | Emisión Termoiónica | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino
Wearables (y 3)
noviembre 12, 2023 on 6:53 pm | In análisis de datos, colección, m2m, iot | Comentarios desactivados en Wearables (y 3)Adolfo García Yagüe | En estas líneas comentaremos como el uso de sensores ópticos, junto a otros de tecnología MEMS (Microelectromechanical Systems) y el empleo de microcontroladores, está permitiendo el desarrollo de una nueva generación de productos conocidos como Wearables (por aquello de que van entre nuestra indumentaria) especializados en recoger datos biométricos y de nuestra actividad física.
Microcontroladores
Los microcontroladores llevan entre nosotros desde los años 70. En ellos, compartiendo el mismo silicio, se reúnen los principales elementos que constituyen un ordenador: microprocesador, memoria ROM y RAM, puertos de entrada y salida e, incluso, etapas de conversión AD (Analógico-Digital) y DA. El espectro de aplicación de estos componentes es amplísimo al simplificar un diseño electrónico y abaratar costes. Otra cualidad que hace especialmente atractivos a ciertos microcontroladores es su bajo consumo eléctrico, razón por la cual son ampliamente usados en dispositivos integrados o embebidos.
Como podéis intuir, el clip de actividad Fitbit One (2012) cumple con la definición de dispositivo embebido y fue uno de los primeros de la generación Wearable. En él, además de su bajo perfil eléctrico, se observa un diseño compacto optimizado para realizar una funcionalidad con una necesidad de cómputo limitada y predecible. En este podómetro se emplea el microcontrolador STM32L de ST Microelectronics, que se basa en la arquitectura ARM 7 perfil M, o Cortex M3. Este componente, a través a sus buses digitales I2C, SPI o analógicos, puede recoger las lecturas procedentes sensores externos.
MEMS (Microelectromechanical Systems)
A pesar de que las micromáquinas están permitiendo el desarrollo de cientos de dispositivos y soluciones, la tecnología que rodea a estos ingenios es poco conocida. La idea de partida se basa en el desarrollo a escala nano y micrométrica de máquinas mediante técnicas de fabricación similares a las empleadas en los circuitos integrados, es decir, a través de la deposición sobre un sustrato de silicio de distintas capas de materiales y la posterior fotolitografía para “esculpir” microscópicamente un sencillo proceso mecánico junto a otro electrónico. Esta unión entre mecánica y electrónica ha hecho posible, por ejemplo, la miniaturización de sensores de presión, de gases, acelerómetros y giróscopos. Otros componentes desarrollados gracias a la tecnología MEMS tienen que ver con las comunicaciones ópticas, la radiofrecuencia o algo tan común como los inyectores de tinta de algunas impresoras. Por último, y no menos importante, son aquellas aplicaciones MEMS en el campo de la medicina como medidores del nivel de glucosa en sangre, parches para dosificar una sustancia a un paciente o las bombas de insulina, entre otras.
(a). Mecanismo ultraplanar construido con tecnología MEMS en Sandia National Laboratories. (b). Patas de un ácaro sobre los engranajes de un micromotor construido en Sandia National Laboratories. (c). Detalle de ejes y x de un acelerómetro capacitivo MEMS de ST Microelectronics.
La historia de los MEMS la podemos resumir en los siguientes hitos. En primer lugar, en 1954, se descubrió la existencia de propiedades piezo-resistivas en el silicio y germanio. La piezo-resistividad es el cambio de resistencia eléctrica que experimentan algunos materiales cuando se los somete a un esfuerzo o estrés mecánico de tracción o compresión. Durante década de los ’60 se harán las primeras demostraciones de sensores de presión y aceleración, ambos construidos con silicio. En 1977, a diferencia del sensor presentado años atrás, que se apoyaba la citada piezo-resistividad, se mostrará un sensor de presión basado en la variación de capacidad. En 1988 se presentarán los primeros prototipos de (micro) máquinas rotativas construidas con esta tecnología. Por último, al principio de la década de los ’90, Analog Devices pone a la venta el primer acelerómetro capacitivo de un eje con tecnología MEMS: el ADXL50.
Podómetro y calidad del sueño
En el caso del clip Fitbit One, para el medir el número de pasos, el citado microcontrolador STM32L realiza un promediado de los datos procedentes del sensor acelerómetro capacitivo MEMS C3H de tres ejes con el fin de identificar y eliminar aquellas muestras que, por su valor, exceden los valores normales de funcionamiento. Tras esta “limpieza” de las señales leídas en cada eje, los pasos del usuario se corresponderán con la repetición periódica de ciertos valores que destacan entre el resto. Sin abandonar este microcontrolador, tras reconocer los eventos asociados a un paso, se llevará la cuenta de estos y se realizarán los cálculos matemáticos para deducir, entre otros, la distancia recorrida, velocidad y calorías quemadas. Por último, guardará todos estos datos en una memoria pudiendo ser presentados en un display para ser consultados por el usuario o, enviados por radio bluetooth al Smartphone y de ahí a la nube de Google en el caso de un dispositivo Fitbit. Y vuelta a empezar.
Otra capacidad que se ha vuelto muy popular entre algunos usuarios de Wearables es la “medida” de la calidad del sueño. Como sabéis, gran parte de la población dormimos menos de lo que necesitamos y esto, lamentablemente, se puede manifestar en nuestra salud física y mental. Esta necesidad por conocer la calidad de nuestro descanso ha llevado a los fabricantes de Wearables a implementar algoritmos con los que registrar los movimientos de nuestro cuerpo mientras dormimos. Es bien conocido que durante este periodo de descanso se producen varias etapas y que el sueño reparador o, de más calidad, se desarrolla durante las fases III, IV o Delta y V REM (Rapid Eye Movement). Durante estas etapas, nuestra actividad motora va cesando hasta permanecer inmóviles. La duración de estos periodos de reposo son los que registran los Wearables. Es decir, al contrario que con los pasos, en la medida de calidad del sueño se lleva un control del tiempo en la que acelerómetro apenas registra movimientos.
Medición de escalones subidos
En el clip Fitbit One también se identifica el sensor de presión barométrica MS5607 de MEAS Switzerland. Gracias a este sensor de tecnología MEMS, este Wearable lleva la cuenta de los escalones que subimos añadiendo así más riqueza a los datos que describen nuestra actividad.
El MS5607 basa su funcionamiento en el efecto piezo-resistivo y, a través de éste, es capaz de medir la presión atmosférica en un rango que va desde los 10 a 1200 mbar (milibares). No olvidemos que, a nivel del mar, la presión atmosférica es de 1013 milibares y que, a medida que aumenta la altura, la presión disminuye en, aproximadamente, 1 mbar por cada 9 metros, o 110 mbar por cada 1.000 metros. No obstante, como deduciréis, la Fitbit One no pretende ser un barómetro y se apoya en la precisión de 20cm que ofrece el MS5607 para identificar los incrementos de altura que se producen cuando subimos las escaleras. Por último, al estar calibrado por MEAS durante el proceso de fabricación, este sensor entregará al microcontrolador STM32L sus lecturas listas para ser empleadas a través de un bus I2C o SPI y solo será necesario hacer -en el microcontrolador- la conversión de milibares a metros de altitud y cruzar estos datos incrementales con los que está registrando el acelerómetro en el movimiento que hace nuestro cuerpo mientras subimos la escalera.
Frecuencia cardíaca y oxígeno en sangre
En el texto dedicado al pulsómetro vimos cómo es posible conocer la frecuencia cardíaca a través de unos electrodos con los que se registra -en la superficie de nuestro pecho- los impulsos eléctricos que estimulan cada latido. Aunque esta técnica ha demostrado su efectividad y es usada por algunos deportistas, presenta ciertos inconvenientes como la colocación apropiada del sensor y su incomodidad. Estas dificultades son la consecuencia de que su uso no esté extendido más allá del círculo deportivo, siendo inviable en el día a día de una persona. Por este motivo, desde hace algunos años, ciertos Wearables emplean para este propósito la fotopletismografía (PPG) que es, como todos sabéis, la aproximación usada en fines médicos para la medición del nivel de saturación de oxígeno en sangre (SpO2).
Sin ser un entendido en fisiología, diré que la fotopletismografía se apoya en la medida del cambio de volumen del flujo sanguíneo durante la actividad cardíaca. Este cambio de volumen, que coincide con los latidos del corazón, también coincide con cambios en la coloración de la hemoglobina mientras ésta transporta oxígeno confiriendo a la sangre ese color rojo intenso y, en cambio, un color rojo oscuro cuando porta dióxido de carbono.
Como decíamos anteriormente, esta técnica de medida se viene utilizando en el mundo médico desde finales de los ’80 y, en los últimos años, está disponible en medidores de uso personal para comprobar la saturación de oxígeno en sangre y el pulso cardíaco: son los conocidos oxímetros y pulsímetros que se colocan en el dedo. Si analizamos uno de estos dispositivos observaremos que, en la parte que toca con la yema del dedo, se identifica un receptor de luz mientras que, en el lado contrario, hay una fuente de luz de tonos rojos. Mas concretamente, el oxímetro emite dos fuentes de luz: en la región infrarroja con un LED de 940nm y con otro LED rojo a 660nm, ambas lambdas tienen un grado de absorción diferente en función del contenido de oxígeno en la sangre. Es decir, se produce una transmisión luminosa a través del dedo y, a continuación, se mide la señal recibida para deducir el nivel de oxígeno e identificar una pulsación.
El primer Wearable donde se trasladó el principio de funcionamiento descrito a un formato pulsera fue en el Mio LINK (2014). En este dispositivo los elementos de emisión óptica y de lectura se encuentran adyacentes y, en lugar transmitir luz a través del dedo, se registra la reflexión de está a través del interior de la muñeca. Además, en vez de trabajar con fuentes de luz roja e infrarroja, se emplea un LED de color verde junto con un sensor óptico.
La técnica fotopletismográfica, tal y como se aplica en la mayoría de los Wareables, no está exenta de lecturas imprecisas y funcionamientos anómalos producto de la inadecuada colocación de la pulsera y el ajuste de esta, el movimiento de la muñeca, la pigmentación de la piel y sudoración de cada individuo o la temperatura de sus extremidades. Otro aspecto que hace inadecuada esta técnica es la existencia de una patología previa asociada a niveles bajos de hemoglobina. Por último, como se ha comentado, la PPG lleva tiempo facilitando al personal sanitario información fiable sobre el SpO2 y el pulso de un paciente, pero no ha demostrado ser totalmente efectiva en la medición de otros niveles, y es aquí donde la mayoría de los fabricantes están intentando desarrollar algoritmos más capaces y precisos para sus Wearables.
Hacia la completa monitorización de la información biométrica
Como podéis comprobar estamos asistiendo a una evolución tecnológica que intenta condensar en gadgets -de bajo coste- parte de la experiencia tecnológica del mundo médico. El objetivo no es otro que llegar a conocer, de manera fiable y no invasiva, las constantes vitales y ciertos marcadores de un individuo. En este sentido hay que recordar la capacidad que ya se tiene, a partir del Apple Watch 4 (2018), de hacer un sencillo electrocardiograma a través del electrodo existente en la corona de este reloj, o los planes declarados de esta compañía de ir incorporando nuevos sensores a su familia de relojes inteligentes para conocer, por ejemplo, el nivel de glucosa en sangre junto a otras capacidades de inteligencia artificial -desde su Cloud- para ayudar en la interpretación y seguimiento de los datos biométricos de un usuario.
Lamentablemente, esta rápida evolución también genera confusión entre los usuarios cuando se nos ofrecen ciertas capacidades a través de la contratación de servicios Premium o se escribe, por ejemplo, sobre los peligros de la apnea del sueño y el análisis de los ronquidos que pueden hacer los relojes Fitbit Versa 3 (2020) y Fitbit Sense (2021), o el registro del estrés y el estado de ánimo que, supuestamente, hace el Fitbit Sense 2 (2022)…
Colección | Actividad física y podómetro (1) | Pulsómetro y posición GPS (2)
GTP y la seguridad en redes 4G y 5G NSA
octubre 18, 2023 on 8:10 pm | In ciberseguridad, colección, descarga textos pdf, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | En el Fortinet Security Day de hace unos días, con la idea de presentar alguna de las áreas Cyber en las que trabajamos en Axians, hice esta pequeña presentación repasando las amenazas a las que han estado expuestas las redes telefonía de móvil: desde la denegación de servicio en el acceso radio hasta llegar a los ataques contra GPRS Tunneling Protocol.
Colección | Los Móviles | 1G o primera generación de telefonía móvil | HarmonyOS y los Sistemas Operativos Móviles | Ciberseguridad e IoT
Pulsómetro y posición GPS (2)
octubre 3, 2023 on 6:01 pm | In análisis de datos, colección | No CommentsAdolfo García Yagüe | En el texto anterior vimos como el podómetro nos permite conocer la distancia recorrida y, aproximadamente, estimar las calorías empleadas. Estos datos, aunque útiles, tienen poco valor para cuantificar el esfuerzo real que hace un individuo, determinar la respuesta de su cuerpo y entender su evolución física. Esto solo es posible a través de una prueba de esfuerzo, o ergometría, donde se monitoriza la actividad cardíaca y la capacidad respiratoria mientras se realiza un esfuerzo físico, como correr sobre una cinta o pedalear en bici estática. Históricamente, esta prueba ha sido y es común entre deportistas de alto rendimiento porque permite conocer con precisión cuales son los límites de una persona para, así, orientar su preparación física. Afortunadamente, desde hace tiempo, este diagnóstico ya está al alcance de la mayoría de las personas, especialmente si han sufrido algún accidente cardiovascular y se trabaja en su rehabilitación. También, por supuesto, este tipo de pruebas ayudan a los especialistas a descubrir dolencias latentes que muchas veces permanecen ocultas.
Pulsómetro
Dejando a un lado la ergometría, el mejor compañero de cualquier corredor es el pulsómetro. Como su nombre indica, este dispositivo registra nuestra actividad cardíaca de la forma más básica que existe, es decir, llevando la cuenta de las pulsaciones por minuto.
La primera compañía que desarrolló un pulsómetro compacto fue la finlandesa Polar, quien, a finales de los años 70, presentó un dispositivo con el que era posible conocer la actividad cardíaca. Más adelante, avanzada la siguiente década, comercializaron el PE3000 en formato reloj. Junto a este pulsómetro se suministraba una banda elástica que tenía que ser situada alrededor del tórax y medía los impulsos eléctricos cardíacos a través de unos electrodos. A continuación, a través del envío de pulsos de radiofrecuencia, la banda informaba al reloj de la actividad cardíaca. En este sentido es preciso recordar que la naturaleza de la comunicación inalámbrica entre sensor y reloj es unidireccional y que carece de cualquier técnica de codificación, emparejamiento o enlace y, como anécdota, comentaré que cuando estaba fotografiando los pulsómetros PE3000 y Tunturi, estos registraban un latido cardíaco con cada destello luminoso del flash. Por último mencionar que, como complemento al pulsómetro, era posible adquirir una impresora que se conectaba al reloj a través de un adaptador y permitía extraer las lecturas y comprobar así la evolución de la actividad cardíaca.
En aquellos años disponer de un pulsómetro Polar no estaba al alcance de cualquiera y solo era posible verlos en equipos y clubs de alto rendimiento, la mayoría de las veces compartido por varios atletas.
A diferencia del podómetro, cuya aplicación es claramente motivadora y ayuda a fijar pequeñas metas y comprobar progresos, el pulsómetro nos permite conocer la respuesta de nuestro corazón y, de acuerdo con ella, fijar el entrenamiento y grado de esfuerzo que más nos conviene. Evidentemente, según avancemos en nuestra forma física, estos umbrales se moverán y seremos capaces de mayores retos. Esto significa que, para sacar partido al pulsómetro, hay que estar comprometido y no caer en el error (común) de pensar que este gadget solo sirve para ver, mientras corro, el número de pulsaciones por minuto y pensar que si mi corazón va más rápido soy más machote. Al contrario.
Este “compromiso” con el uso del pulsómetro y en general con una actividad deportiva, se refleja en que algunos pulsómetros de antaño venían acompañados de un completo manual de instrucciones donde se comentaban algunos principios de fisiología deportiva como la diferencia entre un ejercicio aeróbico y otro anaeróbico, además de requerirnos que anotáramos nuestras pulsaciones en reposo, peso, edad, sexo, pulsaciones máximas recomendadas… y pulsaciones máximas registradas, tiempo dedicado a la actividad física, formulas, etc… En fin, se perdían las ganas de ponerlo en marcha y solo l@s muy entregad@s le sacaban partido. Los más perezosos teníamos la excusa perfecta para no hacer deporte: – ¡Es que no termino de entender al pulsómetro, me tiene confundido y claro, correr por correr…!
Global Positioning System (GPS)
Como vimos en el texto dedicado al podómetro, conocer la distancia recorrida tiene su encanto y, para un principiante, suele ser más efectivo y menos tedioso que realizar contabilidad cardíaca. De esto eran conscientes los fabricantes de dispositivos y, a la forma tradicional de contar pasos para conocer la distancia recorrida, se añadieron las capacidades GPS.
Al comienzo de los 2000 la tecnología GPS empieza a formar parte de la vida de los usuarios a través de dispositivos de navegación para coche como el Garmin StreetPilot (1998). Este equipo era consecuencia de la disminución de tamaño y de la integración cartográfica. Recordemos que, tan solo unos años atrás, los GPS solo informan de las coordenadas de localización y la altitud junto a una referencia horaria.
Unos años después Garmin presentó el que sería el primer GPS que podía ser llevado en la muñeca: el Forerunner 101 (2003). Con una precisión de aproximadamente 10m, un tiempo de refresco de la posición de 1 segundo y, a pesar de que tras el arranque inicial este GPS podía tardar un minuto en sincronizar con hasta 12 satélites, era juguete muy cool. Estaba dirigido a ciclistas, corredores y amantes de las caminatas a los que les hacía ilusión conocer cuantos kilómetros habían recorrido, el tiempo empleado, velocidad y calorías -estimadas- consumidas. Además, el Forerunner permitía almacenar hasta 5000 trayectos para así tener una vista de la evolución histórica y, aunque carecía de mapas, tenía un modo de navegación consistente en memorizar la longitud y latitud de un punto y el GPS señalizaba la ruta, independientemente de que ésta fuera transitable o no. Por último, hay que recordar que el 101 no permitía exportar los datos a una plataforma o extraerlos para tratarlos posteriormente, esto lo dejamos para el siguiente texto. Continuará.
Colección | Actividad física y podómetro (1) | Wearables (y 3)
Actividad física y podómetro (1)
septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | 3 CommentsAdolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.
Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.
Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…
Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.
El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.
Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.
En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías. Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.
En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.
Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.
En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.
En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Micropacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro basado en un sensor electromecánico y un circuito integrado diseñado a medida o ASIC. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.
En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.
Emisión Termoiónica y Lee De Forest
agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.
La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.
Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.
Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.
Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.
Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.
El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.
Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).
De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.
A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).
A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.
Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.
Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.
A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado. Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.
Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.
A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.
Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | Relés, válvulas y transistores
Restructuración de la Colección
agosto 1, 2023 on 5:59 pm | In colección | No CommentsAhora, coincidiendo que el número de piezas y documentos de la colección se aproxima a los 2000, ha sido necesaria una importante restructuración para facilitar su clasificación. Por esta razón, la galería ha pasado de las 12 áreas temáticas de las que constaba a 18. Éstas han sido situadas siguiendo un orden cronológico donde las calculadoras ocuparían la primera “sala” y la llegada de los PCs el último espacio.
Visto en perspectiva da vértigo lo que la tecnología electrónica ha evolucionado en los últimos 100 años. Apenas hace un siglo los ingenios se basaban en ruedas dentadas, mecanismos de relojería y electroimanes, mientras que los tubos termoiónicos y la radiodifusión daban sus primeros pasos.
Telegrafía, telefonía, radiodifusión, cine, televisión, informática, Internet… Tendríamos que remontarnos a la invención de la rueda o la imprenta para identificar algún paralelismo de lo que han supuesto estos avances tecnológicos en la humanidad por eso, creo que somos afortunados de haber asistido al nacimiento y desarrollo de alguno de ellos.
Disfrutad y no olvidéis que estamos en deuda con tod@s los que antes que nosotros contribuyeron a construir este paisaje. Muchos de ell@s ya no están aquí y seguro que se sentirían maravillados al hablar con un familiar por un teléfono móvil o navegar por Internet. Pensemos que, sobre sus sueños, ilusiones y esfuerzo se ha construido lo que hoy tenemos.
(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress