Wearables (y 3)

noviembre 12, 2023 on 6:53 pm | In análisis de datos, colección, m2m, iot | Comentarios desactivados en Wearables (y 3)

Adolfo García Yagüe | En estas líneas comentaremos como el uso de sensores ópticos, junto a otros de tecnología MEMS (Microelectromechanical Systems) y el empleo de microcontroladores, está permitiendo el desarrollo de una nueva generación de productos conocidos como Wearables (por aquello de que van entre nuestra indumentaria) especializados en recoger datos biométricos y de nuestra actividad física.

Microcontroladores
Los microcontroladores llevan entre nosotros desde los años 70. En ellos, compartiendo el mismo silicio, se reúnen los principales elementos que constituyen un ordenador: microprocesador, memoria ROM y RAM, puertos de entrada y salida e, incluso, etapas de conversión AD (Analógico-Digital) y DA. El espectro de aplicación de estos componentes es amplísimo al simplificar un diseño electrónico y abaratar costes. Otra cualidad que hace especialmente atractivos a ciertos microcontroladores es su bajo consumo eléctrico, razón por la cual son ampliamente usados en dispositivos integrados o embebidos.

Como podéis intuir, el clip de actividad Fitbit One (2012) cumple con la definición de dispositivo embebido y fue uno de los primeros de la generación Wearable. En él, además de su bajo perfil eléctrico, se observa un diseño compacto optimizado para realizar una funcionalidad con una necesidad de cómputo limitada y predecible. En este podómetro se emplea el microcontrolador STM32L de ST Microelectronics, que se basa en la arquitectura ARM 7 perfil M, o Cortex M3. Este componente, a través a sus buses digitales I2C, SPI o analógicos, puede recoger las lecturas procedentes sensores externos.

MEMS (Microelectromechanical Systems)
A pesar de que las micromáquinas están permitiendo el desarrollo de cientos de dispositivos y soluciones, la tecnología que rodea a estos ingenios es poco conocida. La idea de partida se basa en el desarrollo a escala micrométrica de máquinas mediante técnicas de fabricación similares a las empleadas en los circuitos integrados, es decir, a través de la deposición sobre un sustrato de silicio de distintas capas de materiales y la posterior fotolitografía para “esculpir” microscópicamente un sencillo proceso mecánico junto a otro electrónico. Esta unión entre mecánica y electrónica ha hecho posible, por ejemplo, la miniaturización de sensores de presión, de gases, acelerómetros y giróscopos. Otros componentes desarrollados gracias a la tecnología MEMS tienen que ver con las comunicaciones ópticas, la radiofrecuencia o algo tan común como los inyectores de tinta de algunas impresoras. Por último, y no menos importante, son aquellas aplicaciones MEMS en el campo de la medicina como medidores del nivel de glucosa en sangre, parches para dosificar una sustancia a un paciente o las bombas de insulina, entre otras.

(a). Mecanismo ultraplanar construido con tecnología MEMS en Sandia National Laboratories. (b). Patas de un ácaro sobre los engranajes de un micromotor construido en Sandia National Laboratories. (c). Detalle de ejes y x de un acelerómetro capacitivo MEMS de ST Microelectronics.

La historia de los MEMS la podemos resumir en los siguientes hitos. En primer lugar, en 1954, se descubrió la existencia de propiedades piezo-resistivas en el silicio y germanio. La piezo-resistividad es el cambio de resistencia eléctrica que experimentan algunos materiales cuando se los somete a un esfuerzo o estrés mecánico de tracción o compresión. Durante década de los ’60 se harán las primeras demostraciones de sensores de presión y aceleración, ambos construidos con silicio. En 1977, a diferencia del sensor presentado años atrás, que se apoyaba la citada piezo-resistividad, se mostrará un sensor de presión basado en la variación de capacidad. En 1988 se presentarán los primeros prototipos de (micro) máquinas rotativas construidas con esta tecnología. Por último, al principio de la década de los ’90, Analog Devices pone a la venta el primer acelerómetro capacitivo de un eje con tecnología MEMS: el ADXL50.

Podómetro y calidad del sueño
En el caso del clip Fitbit One, para el medir el número de pasos, el citado microcontrolador STM32L realiza un promediado de los datos procedentes del sensor acelerómetro capacitivo MEMS C3H de tres ejes con el fin de identificar y eliminar aquellas muestras que, por su valor, exceden los valores normales de funcionamiento. Tras esta “limpieza” de las señales leídas en cada eje, los pasos del usuario se corresponderán con la repetición periódica de ciertos valores que destacan entre el resto. Sin abandonar este microcontrolador, tras reconocer los eventos asociados a un paso, se llevará la cuenta de estos y se realizarán los cálculos matemáticos para deducir, entre otros, la distancia recorrida, velocidad y calorías quemadas. Por último, guardará todos estos datos en una memoria pudiendo ser presentados en un display para ser consultados por el usuario o, enviados por radio bluetooth al Smartphone y de ahí a la nube de Google en el caso de un dispositivo Fitbit. Y vuelta a empezar.

Otra capacidad que se ha vuelto muy popular entre algunos usuarios de Wearables es la “medida” de la calidad del sueño. Como sabéis, gran parte de la población dormimos menos de lo que necesitamos y esto, lamentablemente, se puede manifestar en nuestra salud física y mental. Esta necesidad por conocer la calidad de nuestro descanso ha llevado a los fabricantes de Wearables a implementar algoritmos con los que registrar los movimientos de nuestro cuerpo mientras dormimos. Es bien conocido que durante este periodo de descanso se producen varias etapas y que el sueño reparador o, de más calidad, se desarrolla durante las fases III, IV o Delta y V REM (Rapid Eye Movement). Durante estas etapas, nuestra actividad motora va cesando hasta permanecer inmóviles. La duración de estos periodos de reposo son los que registran los Wearables. Es decir, al contrario que con los pasos, en la medida de calidad del sueño se lleva un control del tiempo en la que acelerómetro apenas registra movimientos.

Medición de escalones subidos
En el clip Fitbit One también se identifica el sensor de presión barométrica MS5607 de MEAS Switzerland. Gracias a este sensor de tecnología MEMS, este Wearable lleva la cuenta de los escalones que subimos añadiendo así más riqueza a los datos que describen nuestra actividad.

El MS5607 basa su funcionamiento en el efecto piezo-resistivo y, a través de éste, es capaz de medir la presión atmosférica en un rango que va desde los 10 a 1200 mbar (milibares). No olvidemos que, a nivel del mar, la presión atmosférica es de 1013 milibares y que, a medida que aumenta la altura, la presión disminuye en, aproximadamente, 1 mbar por cada 9 metros, o 110 mbar por cada 1.000 metros. No obstante, como deduciréis, la Fitbit One no pretende ser un barómetro y se apoya en la precisión de 20cm que ofrece el MS5607 para identificar los incrementos de altura que se producen cuando subimos las escaleras. Por último, al estar calibrado por MEAS durante el proceso de fabricación, este sensor entregará al microcontrolador STM32L sus lecturas listas para ser empleadas a través de un bus I2C o SPI y solo será necesario hacer -en el microcontrolador- la conversión de milibares a metros de altitud y cruzar estos datos incrementales con los que está registrando el acelerómetro en el movimiento que hace nuestro cuerpo mientras subimos la escalera.

Frecuencia cardíaca y oxígeno en sangre
En el texto dedicado al pulsómetro vimos cómo es posible conocer la frecuencia cardíaca a través de unos electrodos con los que se registra -en la superficie de nuestro pecho- los impulsos eléctricos que estimulan cada latido. Aunque esta técnica ha demostrado su efectividad y es usada por algunos deportistas, presenta ciertos inconvenientes como la colocación apropiada del sensor y su incomodidad. Estas dificultades son la consecuencia de que su uso no esté extendido más allá del círculo deportivo, siendo inviable en el día a día de una persona. Por este motivo, desde hace algunos años, ciertos Wearables emplean para este propósito la fotopletismografía (PPG) que es, como todos sabéis, la aproximación usada en fines médicos para la medición del nivel de saturación de oxígeno en sangre (SpO2).

Sin ser un entendido en fisiología, diré que la fotopletismografía se apoya en la medida del cambio de volumen del flujo sanguíneo durante la actividad cardíaca. Este cambio de volumen, que coincide con los latidos del corazón, también coincide con cambios en la coloración de la hemoglobina mientras ésta transporta oxígeno confiriendo a la sangre ese color rojo intenso y, en cambio, un color rojo oscuro cuando porta dióxido de carbono.

Como decíamos anteriormente, esta técnica de medida se viene utilizando en el mundo médico desde finales de los ’80 y, en los últimos años, está disponible en medidores de uso personal para comprobar la saturación de oxígeno en sangre y el pulso cardíaco: son los conocidos oxímetros y pulsímetros que se colocan en el dedo. Si analizamos uno de estos dispositivos observaremos que, en la parte que toca con la yema del dedo, se identifica un receptor de luz mientras que, en el lado contrario, hay una fuente de luz de tonos rojos. Mas concretamente, el oxímetro emite dos fuentes de luz: en la región infrarroja con un LED de 940nm y con otro LED rojo a 660nm, ambas lambdas tienen un grado de absorción diferente en función del contenido de oxígeno en la sangre. Es decir, se produce una transmisión luminosa a través del dedo y, a continuación, se mide la señal recibida para deducir el nivel de oxígeno e identificar una pulsación.

El primer Wearable donde se trasladó el principio de funcionamiento descrito a un formato pulsera fue en el Mio LINK (2014). En este dispositivo los elementos de emisión óptica y de lectura se encuentran adyacentes y, en lugar transmitir luz a través del dedo, se registra la reflexión de está a través del interior de la muñeca. Además, en vez de trabajar con fuentes de luz roja e infrarroja, se emplea un LED de color verde junto con un sensor óptico.

La técnica fotopletismográfica, tal y como se aplica en la mayoría de los Wareables, no está exenta de lecturas imprecisas y funcionamientos anómalos producto de la inadecuada colocación de la pulsera y el ajuste de esta, el movimiento de la muñeca, la pigmentación de la piel y sudoración de cada individuo o la temperatura de sus extremidades. Otro aspecto que hace inadecuada esta técnica es la existencia de una patología previa asociada a niveles bajos de hemoglobina. Por último, como se ha comentado, la PPG lleva tiempo facilitando al personal sanitario información fiable sobre el SpO2 y el pulso de un paciente, pero no ha demostrado ser totalmente efectiva en la medición de otros niveles, y es aquí donde la mayoría de los fabricantes están intentando desarrollar algoritmos más capaces y precisos para sus Wearables.

Hacia la completa monitorización de la información biométrica
Como podéis comprobar estamos asistiendo a una evolución tecnológica que intenta condensar en gadgets -de bajo coste- parte de la experiencia tecnológica del mundo médico. El objetivo no es otro que llegar a conocer, de manera fiable y no invasiva, las constantes vitales y ciertos marcadores de un individuo. En este sentido hay que recordar la capacidad que ya se tiene, a partir del Apple Watch 4 (2018), de hacer un sencillo electrocardiograma a través del electrodo existente en la corona de este reloj, o los planes declarados de esta compañía de ir incorporando nuevos sensores a su familia de relojes inteligentes para conocer, por ejemplo, el nivel de glucosa en sangre junto a otras capacidades de inteligencia artificial -desde su Cloud- para ayudar en la interpretación y seguimiento de los datos biométricos de un usuario.

Lamentablemente, esta rápida evolución también genera confusión entre los usuarios cuando se nos ofrecen ciertas capacidades a través de la contratación de servicios Premium o se escribe, por ejemplo, sobre los peligros de la apnea del sueño y el análisis de los ronquidos que pueden hacer los relojes Fitbit Versa 3 (2020) y Fitbit Sense (2021), o el registro del estrés y el estado de ánimo que, supuestamente, hace el Fitbit Sense 2 (2022)

Colección | Actividad física y podómetro (1) | Pulsómetro y posición GPS (2)

 

GTP y la seguridad en redes 4G y 5G NSA

octubre 18, 2023 on 8:10 pm | In ciberseguridad, colección, descarga textos pdf, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | En el Fortinet Security Day de hace unos días, con la idea de presentar alguna de las áreas Cyber en las que trabajamos en Axians, hice esta pequeña presentación repasando las amenazas a las que han estado expuestas las redes telefonía de móvil: desde la denegación de servicio en el acceso radio hasta llegar a los ataques contra GPRS Tunneling Protocol.

Colección | Los Móviles | 1G o primera generación de telefonía móvil | HarmonyOS y los Sistemas Operativos Móviles | Ciberseguridad e IoT

Pulsómetro y posición GPS (2)

octubre 3, 2023 on 6:01 pm | In análisis de datos, colección | No Comments

Adolfo García Yagüe | En el texto anterior vimos como el podómetro nos permite conocer la distancia recorrida y, aproximadamente, estimar las calorías empleadas. Estos datos, aunque útiles, tienen poco valor para cuantificar el esfuerzo real que hace un individuo, determinar la respuesta de su cuerpo y entender su evolución física. Esto solo es posible a través de una prueba de esfuerzo, o ergometría, donde se monitoriza la actividad cardíaca y la capacidad respiratoria mientras se realiza un esfuerzo físico, como correr sobre una cinta o pedalear en bici estática. Históricamente, esta prueba ha sido y es común entre deportistas de alto rendimiento porque permite conocer con precisión cuales son los límites de una persona para, así, orientar su preparación física. Afortunadamente, desde hace tiempo, este diagnóstico ya está al alcance de la mayoría de las personas, especialmente si han sufrido algún accidente cardiovascular y se trabaja en su rehabilitación. También, por supuesto, este tipo de pruebas ayudan a los especialistas a descubrir dolencias latentes que muchas veces permanecen ocultas.

Pulsómetro
Dejando a un lado la ergometría, el mejor compañero de cualquier corredor es el pulsómetro. Como su nombre indica, este dispositivo registra nuestra actividad cardíaca de la forma más básica que existe, es decir, llevando la cuenta de las pulsaciones por minuto.

La primera compañía que desarrolló un pulsómetro compacto fue la finlandesa Polar, quien, a finales de los años 70, presentó un dispositivo con el que era posible conocer la actividad cardíaca. Más adelante, avanzada la siguiente década, comercializaron el PE3000 en formato reloj. Junto a este pulsómetro se suministraba una banda elástica que tenía que ser situada alrededor del tórax y medía los impulsos eléctricos cardíacos a través de unos electrodos. A continuación, a través del envío de pulsos de radiofrecuencia, la banda informaba al reloj de la actividad cardíaca. En este sentido es preciso recordar que la naturaleza de la comunicación inalámbrica entre sensor y reloj es unidireccional y que carece de cualquier técnica de codificación, emparejamiento o enlace y, como anécdota, comentaré que cuando estaba fotografiando los pulsómetros PE3000 y Tunturi, estos registraban un latido cardíaco con cada destello luminoso del flash. Por último mencionar que, como complemento al pulsómetro, era posible adquirir una impresora que se conectaba al reloj a través de un adaptador y permitía extraer las lecturas y comprobar así la evolución de la actividad cardíaca.

En aquellos años disponer de un pulsómetro Polar no estaba al alcance de cualquiera y solo era posible verlos en equipos y clubs de alto rendimiento, la mayoría de las veces compartido por varios atletas.

A diferencia del podómetro, cuya aplicación es claramente motivadora y ayuda a fijar pequeñas metas y comprobar progresos, el pulsómetro nos permite conocer la respuesta de nuestro corazón y, de acuerdo con ella, fijar el entrenamiento y grado de esfuerzo que más nos conviene. Evidentemente, según avancemos en nuestra forma física, estos umbrales se moverán y seremos capaces de mayores retos. Esto significa que, para sacar partido al pulsómetro, hay que estar comprometido y no caer en el error (común) de pensar que este gadget solo sirve para ver, mientras corro, el número de pulsaciones por minuto y pensar que si mi corazón va más rápido soy más machote. Al contrario.

Este “compromiso” con el uso del pulsómetro y en general con una actividad deportiva, se refleja en que algunos pulsómetros de antaño venían acompañados de un completo manual de instrucciones donde se comentaban algunos principios de fisiología deportiva como la diferencia entre un ejercicio aeróbico y otro anaeróbico, además de requerirnos que anotáramos nuestras pulsaciones en reposo, peso, edad, sexo, pulsaciones máximas recomendadas… y pulsaciones máximas registradas, tiempo dedicado a la actividad física, formulas, etc… En fin, se perdían las ganas de ponerlo en marcha y solo l@s muy entregad@s le sacaban partido. Los más perezosos teníamos la excusa perfecta para no hacer deporte: – ¡Es que no termino de entender al pulsómetro, me tiene confundido y claro, correr por correr…!

Global Positioning System (GPS)
Como vimos en el texto dedicado al podómetro, conocer la distancia recorrida tiene su encanto y, para un principiante, suele ser más efectivo y menos tedioso que realizar contabilidad cardíaca. De esto eran conscientes los fabricantes de dispositivos y, a la forma tradicional de contar pasos para conocer la distancia recorrida, se añadieron las capacidades GPS.

Al comienzo de los 2000 la tecnología GPS empieza a formar parte de la vida de los usuarios a través de dispositivos de navegación para coche como el Garmin StreetPilot (1998). Este equipo era consecuencia de la disminución de tamaño y de la integración cartográfica. Recordemos que, tan solo unos años atrás, los GPS solo informan de las coordenadas de localización y la altitud junto a una referencia horaria.

Unos años después Garmin presentó el que sería el primer GPS que podía ser llevado en la muñeca: el Forerunner 101 (2003). Con una precisión de aproximadamente 10m, un tiempo de refresco de la posición de 1 segundo y, a pesar de que tras el arranque inicial este GPS podía tardar un minuto en sincronizar con hasta 12 satélites, era juguete muy cool. Estaba dirigido a ciclistas, corredores y amantes de las caminatas a los que les hacía ilusión conocer cuantos kilómetros habían recorrido, el tiempo empleado, velocidad y calorías -estimadas- consumidas. Además, el Forerunner permitía almacenar hasta 5000 trayectos para así tener una vista de la evolución histórica y, aunque carecía de mapas, tenía un modo de navegación consistente en memorizar la longitud y latitud de un punto y el GPS señalizaba la ruta, independientemente de que ésta fuera transitable o no. Por último, hay que recordar que el 101 no permitía exportar los datos a una plataforma o extraerlos para tratarlos posteriormente, esto lo dejamos para el siguiente texto. Continuará.

Colección | Actividad física y podómetro (1) | Wearables (y 3)

Actividad física y podómetro (1)

septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | 1 Comment

Adolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.

Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.

Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…

Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.

El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.

Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.

En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías.  Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.

En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.

Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.

En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.

En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Micropacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro basado en un sensor electromecánico y un circuito integrado diseñado a medida o ASIC. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.

En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.

Colección | Pulsómetro y posición GPS (2) | Wearables (y 3)

Emisión Termoiónica y Lee De Forest

agosto 9, 2023 on 5:20 pm | In colección, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.

La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.

Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.

Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.

Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.

Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.

El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.

Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).

De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.

A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).

A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.

Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.

Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.

A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado.  Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.

Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.

A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.

Colección | Marconi y el Día Internacional de la Radio | Relés, válvulas y transistores

Restructuración de la Colección

agosto 1, 2023 on 5:59 pm | In colección | No Comments

Ahora, coincidiendo que el número de piezas y documentos de la colección se aproxima a los 2000, ha sido necesaria una importante restructuración para facilitar su clasificación. Por esta razón, la galería ha pasado de las 12 áreas temáticas de las que constaba a 18. Éstas han sido situadas siguiendo un orden cronológico donde las calculadoras ocuparían la primera “sala” y la llegada de los PCs el último espacio.

Visto en perspectiva da vértigo lo que la tecnología electrónica ha evolucionado en los últimos 100 años. Apenas hace un siglo los ingenios se basaban en ruedas dentadas, mecanismos de relojería y electroimanes, mientras que los tubos termoiónicos y la radiodifusión daban sus primeros pasos.

Telegrafía, telefonía, radiodifusión, cine, televisión, informática, Internet… Tendríamos que remontarnos a la invención de la rueda o la imprenta para identificar algún paralelismo de lo que han supuesto estos avances tecnológicos en la humanidad por eso, creo que somos afortunados de haber asistido al nacimiento y desarrollo de alguno de ellos.

Disfrutad y no olvidéis que estamos en deuda con tod@s los que antes que nosotros contribuyeron a construir este paisaje. Muchos de ell@s ya no están aquí y seguro que se sentirían maravillados al hablar con un familiar por un teléfono móvil o navegar por Internet. Pensemos que, sobre sus sueños, ilusiones y esfuerzo se ha construido lo que hoy tenemos.

Colección

Sonikas 20 – 14 y 15 de Enero 2023

diciembre 26, 2022 on 6:27 pm | In arte sonoro, música electrónica, sonikas | Comentarios desactivados en Sonikas 20 – 14 y 15 de Enero 2023

Durante los días 14 y 15 de enero del inminente 2023 se celebrará la vigésima edición de Sonikas. Un hito que, seguramente, pasará discretamente por el panorama cultural madrileño aunque llevamos dos décadas en activo. A pesar de este anonimato, durante los últimos 20 años la Asociación Cultural CRC, con el apoyo de la Asociación Vallecas Todocultura, el Excmo. Ayuntamiento de Madrid y la Comunidad de Madrid hemos hecho posible este festival internacional que, sin duda, se ha convertido en un referente del Arte Sonoro y la Música Experimental.

Gracias a todo el equipo humano de los Centros Culturales Lope de Vega, Pilar Miró y Paco Rabal por acogernos y prestarnos todo tipo de facilidades. También queremos extender este agradecimiento a los más de 200 artistas que han confiado en nosotros y han hecho de Sonikas un pequeño milagro y, por último, Gracias a tod@s vosotr@s por acompañarnos durante todo este tiempo.

Sábado, 14 de Enero:
20h. Susana López aka Susana Drone.
21h. Nilo Gallego.

Domingo, 15 de Enero:
20h. A.Q.V.
21h. Sergio Luque presenta «It’s Happening Again» (12m) y será el responsable de la difusión sonora de las obras de Iannis Xenakis, Concret PH (1958), Bohor (1962), GENDY3 (1991).

Fotos de su participación | Artículo en Scherzowww.ccapitalia.net/crc

Centro Cultural Lope de Vega, c/ Concejo de Teverga – Madrid.

Acceso gratuito.

Primera Generación de Videoconsolas (y 2)

noviembre 1, 2022 on 8:41 am | In colección, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | En el texto anterior recordábamos como en 1972, gracias a Ralph Baer, apareció la Odyssey de Magnavox. Además de comentar su funcionamiento describimos cómo eran los primeros videojuegos y, aunque citamos algunos antecedentes, fue el lanzamiento de esta videoconsola el detonante que hizo que empresas como Atari, Nintendo y Coleco buscaran hacerse un hueco en el nuevo mercado.

Atari
A mediados de los años 60, mientras cursaba su Licenciatura en Electrónica en la Universidad de Utah, el joven Nolan Bushnell (1943) también descubrió Spacewar! y no tardó en comprender el potencial de los videojuegos en el futuro del entretenimiento electrónico. Aquello fue como una revelación y junto a su amigo Ted Dabney (1937-2018) crearon Syzygy Company para embarcarse en el diseño de una máquina recreativa que sería instalada en espacios púbicos, como un bar o un salón de juegos. Evidentemente, el coste de adquisición de esta máquina debía garantizar a su propietario el retorno de inversión en un tiempo razonable y, con aquella premisa, desecharan la idea de emplear un costosísimo ordenador y optaron por desarrollar en electrónica digital TTL una adaptación de Spacewar!. Para industrializar y comercializar esta máquina alcanzaron un acuerdo de licenciamiento con Nutting Associates y así, en 1971, llegaría al mercado Computer Space. De esta consola de monedas apenas se vendieron más de mil quinientas máquinas y su acogida fue tibia, pero, en contra de lo que cabría esperar, Bunshell y Dabney se reafirmaron en su empeño de avanzar en el mundo de los videojuegos y así, al año siguiente, fundaron Atari para absorber a Syzygy y lanzar PONG, su primer título, cuyo desarrollo fue obra de Allan Alcorn (1948).

A pesar del fulgurante crecimiento que experimento Atari durante sus primeros años, la presión de la competencia junto a unos errores contables y el fracaso de su filial japonesa la dejaron cerca de la quiebra. Para sortear aquel bache en 1973 se tomó la decisión, poco ética pero efectiva, de crear una empresa pantalla llamada Kee Games a través de la cual vender clones de sus propios juegos, y así esquivar los acuerdos de exclusividad firmados con sus distribuidores. Por otro lado, en aquel cúmulo de adversidades, en 1974 Magnavox inició una demanda contra Atari demostrando que Bushnell conoció en una presentación de la Odyssey la existencia del juego Tennis, antes de que empezase el desarrollo de Atari PONG.

Sin lugar a dudas, Atari era un reflejo del espíritu audaz y emprendedor de Nolan Bushnell a quién no le importaba transitar sobre terrenos de dudosa legalidad, contratar a empleados que estaban en el límite de la sociedad o aquellos que tenían una visión diferente de la vida, entre los que se encontraba Steve Jobs (1955-2011). Aquel ímpetu fue el que les impulsó en 1974 a poner en marcha el proyecto Darlene con el que aspiraban a conquistar los hogares.

Al frente de Darlene se colocó a Al Alcorn con el objetivo de abaratar el futuro producto a través de la integración de toda la electrónica de PONG en un único circuito integrado LSI (Large Scale Integration) y que este pudiese funcionar con baterías. Tras este hito, era necesario diseñar una atractiva envolvente para que la videoconsola destacara en el hogar y, por último, había que introducir el producto en una red de distribución que tuviese suficiente capilaridad para llegar a cualquier a cualquier rincón del país, como almacenes Sears, y ser capaces de atender la demanda de semejante cliente… Gracias a Donald “Don” Thomas Valentine (1932-2019) y su firma Sequoia Capital, Atari contó con el apoyo financiero necesario para alcanzar las citadas metas y así transformar la compañía. En este punto quiero recordar que Don Valentine es una las figuras más legendarias de Silicon Valley e hizo posible numerosos proyectos que allí han nacido.

En las navidades de 1975 se puso a la venta en todos los almacenes Sears la consola Tele-Games PONG y unas semanas más tarde Atari comercializó su videoconsola PONG C-100, que era exactamente igual, logrando así que todos los usuarios reconocieran esta marca e, inevitablemente, ser identificados con los videojuegos. Nacía así un mito universal que años después transformaría el mercado en la Segunda Generación.

Coleco
Como vimos anteriormente, el uso de componentes discretos fue abandonado en favor de circuitos integrados LSI (IC) de compañias como Texas Instruments, National Semiconductor, Mostek, Mitsubishi o General Instruments. Estas firmas pusieron a disposición de cualquier fabricante de videoconsolas un chip que reunía uno o más juegos en lo que se conoció como PONG-on-a-Chip.

De aquellos IC el más importante fue el AY-3-8500 de General Instruments (1976) y las versiones que le sucedieron. Este circuito integrado sería el corazón de miles de consolas entre la que destaca la Telstar de Coleco, no por ser la mejor sino por ser la primera que empleó el mencionado chip.

Sobre lo que quiero llamar la atención en estas líneas es sobre el efecto llamada que tuvieron estos IC para cualquiera fabricante que deseaba vender una videoconsola. La mayoría de estas firmas carecían de conocimientos y no tenían una estrategia en el mundo de los videojuegos, salvo esperar el lanzamiento de un nuevo modelo de chip y competir en precio. Así paso. Desaparecieron todas excepto aquellas, como Coleco, que fueron capaces de programar algo original años después.

Nintendo
Los orígenes de esta centenaria empresa se sitúan a finales del siglo XIX y, hasta 1974, su negocio principal fue la fabricación de juegos de mesa y cartas. En los años 70 del siglo pasado empezaron a comercializar sencillos juguetes electrónicos con los que intentaban trasformar su negocio histórico. Uno de aquellos productos era una línea de armas de juguete, los Kôsenjû Guns, que disparaban un haz de luz contra una diana de sensores ópticos para así probar la puntería del jugador. La apariencia de su rifle de juguete hizo que Magnavox contara con ellos para la fabricación del rifle que acompañaba a sus juegos Shooting Gallery. Aquello permitió a Nintendo conocer en primicia el potencial de los videojuegos y animó a los japoneses a llegar a un acuerdo de licenciamiento con Magnavox, a la vez que, de la mano de Mitsubishi, comenzaban el desarrollo del circuito integrado M58816P con los juegos -a color- de Tenis, Hockey y Voleibol.  Así es como aparecería en 1977 la videoconsola Color TV-Game 6.

 

Resulta curioso recordar los orígenes de Nintendo a la vez que es admirable contemplar su capacidad de adaptación hasta convertirse en una de las empresas más relevantes de esta industria. Para ellos no fue suficiente hacer una consola con un chip, Nintendo supo entender la trascendencia del mercado que nacía, logrando sobrevivir a Magnavox, Atari y a muchas otras compañías de la primera generación.

… y España no fue diferente
En contra de lo que cabría pensar en España también se fabricaron consolas de la Primera Generación y, aunque el recuerdo de estas iniciativas sean un poco difuso, los productos están ahí atestiguando que algo pasó.

La primera de ellas fue Overkal, una videoconsola de la que es difícil encontrar información y lo poco que conocemos es fruto del empeño de algunos aficionados por desentrañar su pasado. Sabemos que esta máquina fue fabricada en Barcelona por la conocida firma Inter Electrónica S. A. y que llegó al mercado en la primavera de 1974. También conocemos que se vendieron unidades a través de El Corte Ingles a un precio de 9.000 pesetas. Quizás, parte del oscurantismo que rodea a este producto, se deba a que fue una atrevida copia de la Magnavox Odyssey que infringe cualquier patente y modelo de utilidad. Sabemos que Ralph Baer tenía identificada esta consola, pero, desconocemos, si Magnavox emprendió algún tipo acción legal o advertencia al titular de la fabricación o aquellos que la vendían. Poco sabemos si el desarrollo de Overkal fue producto de la iniciativa de Inter Electrónica o, un intermediario poco escrupuloso, les “vendió” la idea ya que, por las mismas fechas, en Argentina se puso a la venta una consola similar. Es fácil llegar a esta idea porque, no parece muy pruedente, que empresas del prestigio de Inter Electrónica (recordemos que en los setenta fue comprada por Grundig) y El Corte Inglés se embarcasen en desarrollar y comercializar una novedosa videoconsola que rozaba la ilegalidad. Por eso es de suponer qué, tras constatar que era un producto sobre el que podía pesar algún litigio e indemnización, la hiciesen desaparecer sin apenas dejar rastro.

Mas cercano a lo que se hacía en otros países fue la fabricación a partir de 1976 de diversas videoconsolas basadas en el IC AY-3-8500 en su versión europea o PAL. De ellas recordamos la Teletenis de Togisa (1976) y la Tele-Juego B/N-4 de Talleres Radioeléctricos Querol, TRQ (1978). Ambas consolas no presentaban ninguna novedad pero acercaron los videojuegos a los hogares españoles. Estas iniciativas ilustran bien algo que más adelante sería evidente y era que, en este ecosistema, solo tenían alguna posibilidad de sobrevivir aquellas empresas que fabricaran un hardware innovador o aquellos estudios que fuesen capaces de producir grandes títulos.

Colección | Primera Generación de Videoconsolas (1) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación

Primera Generación de Videoconsolas (1)

octubre 16, 2022 on 5:53 pm | In colección, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | En este recuerdo de efemérides no podemos olvidar que hace medio siglo llegó al mercado doméstico la primera videoconsola. A pesar de tan significativo aniversario, la historia de los juegos y los ordenadores es tan antigua como la propia tecnología informática, e incluso anterior. Esto quiere decir que hay multitud de hechos que se pueden atribuir el mérito de haber realizado la primera experiencia lúdica. Por ejemplo, gracias a las capacidades lógicas de un autómata, el español Leonardo Torres Quevedo (1852-1936) construyó en 1912 su primera versión de El Ajedrecista. También cabe destacar que, tras la Segunda Guerra Mundial y fruto de la experiencia adquirida en el cálculo de trayectorias balísticas, Thomas T. Goldsmith Jr. y Estle Ray Mann solicitaron en 1947 la patente de un juego donde, haciendo uso de una pantalla de rayos catódicos, se representaba y controlaba el disparo de un misil contra un punto móvil. Por otra parte, en la siguiente década, encontramos numerosos ejemplos de juegos Tic-tac-toe (tres en raya) desarrollados de manera experimental en centros informáticos de todo el mundo. Incluso, este conocido pasatiempo podía ser “programado” en ciertos juguetes didácticos de los ‘50 para que un aficionado entendiera el comportamiento lógico de una computadora. También es obligado recordar Tennis For Two (1958), de William Higginbotham (1910-1994), donde se empleaba un ordenador analógico y un osciloscopio para recrear una partida de tenis.

Estas experiencias merecen ser recordadas, al igual que la protagonizada por Steve Russell y los estudiantes del MIT que programaron en 1961 el influyente Spacewar!. Recordemos que aquel juego fue desarrollado en un DEC PDP-1 y se distribuyó libremente entre numerosas universidades de EE.UU. poniendo el foco en la importancia de la programación de juegos. Por ejemplo, este programa sirvió de inspiración a Bill Pitts y Hugh Tuck para construir 1971, en la Universidad de Stanford, una prueba de concepto de una máquina recreativa llamada Galaxy Game cuyo funcionamiento reposaba en un ordenador DEC PDP-11. No obstante, el texto que nos ocupa se centrará en el inicio del videojuego doméstico y como se dieron los primeros pasos de la conocida Primera Generación de videoconsolas.

Ralph Baer y la Magnavox Odyssey
Permitirme entonces que establezca el punto de partida haciendo referencia a Ralph Baer (1922-2014) quien, en 1951, mientras trabajaba en Loral Electronics y tras recibir el encargo de diseñar un receptor de televisión de prestaciones avanzadas, empezó a desarrollar el concepto. Sus ideas no prosperaron en aquel momento y tuvo que esperar hasta 1966 para retomarlas en Sanders Associates, una empresa contratista del ejército norteamericano.

A pesar de que entre los negocios de Sanders no estaba el desarrollo de soluciones orientadas al mundo doméstico, apostaron por la idea de Baer y pusieron a su disposición los recursos materiales necesarios y se unieron al proyecto Bill Harrison y Bill Rusch. Así, tras varios prototipos y la consiguiente solicitud de patente, en 1969 se contaba con una versión denominada Brown Box que podía ser la base de un producto comercial. El equipo directivo de Sanders vio claro que no tenía sentido ponerse a fabricar consolas y que, lo más acertado, sería aproximarse a los principales fabricantes de televisores entre los que se encontraban RCA, Zenith, Philco, Sylvania, Motorola, General Electric y Magnavox. La idea era darles a conocer el producto y ofrecerles los derechos de fabricación a cambio de royalties. Todas las empresas citadas, junto a alguna más, conocieron el prototipo de Ralph Baer y ninguna supo ver el potencial que tenía “jugar frente al televisor”. Afortunadamente, Bill Enders, un ejecutivo de RCA que conoció la capacidad de la Brown Box en aquellas rondas, fichó más tarde por Magnavox y lo primero que hizo fue persuadir a su nueva firma para que dieran una oportunidad al invento de Baer. Así fue como en 1971 Magnavox firmó un acuerdo con Sanders que le autorizaba a fabricar y comercializar una videoconsola denominada Odyssey según el diseño de Ralph y su equipo.

La Odyssey llegó al mercado en septiembre de 1972 a través de la cadena de tiendas de Magnavox y permaneció a la venta hasta 1975. Durante este tiempo logró una cifra cercana a las 350.000 unidades vendidas.  No se puede decir que fuese un fracaso, pero, Ralph Baer no estaba satisfecho y criticaba que la consola solo se vendiera a través de los franquiciados de Magnavox y que la publicidad estuviese estrechamente vinculada a este fabricante y sus televisores, dando la sensación de que no era compatible con el resto de las marcas. Por otra parte, Baer pensaba que la Odyssey llegaba a las tiendas con un sobrecoste y que Magnavox había hinchado el precio provocando que muchos clientes no la compraran.

Otra de las inquietudes que mantuvo ocupado a Baer fue la copia indiscriminada de su idea ya que, al poco tiempo, empezaron a aparecer por todo el mundo decenas de compañías que comercializaban juegos similares a los que la Odyssey ofrecía. Curiosamente, y es un caso de estudio en algunas Escuelas de Negocios, la decidida defensa que hizo Magnavox de las patentes de Baer le granjeo más beneficios que la venta de sus consolas. Haciendo números redondos y considerando el PVP oficial de 99$, con la Odyssey se facturaron 35 millones de dólares, de donde hay que descontar costes de fabricación, marketing, distribución, margen del vendedor, etc… Mientras que en indemnizaciones ganó alrededor de 100 millones, sin descontar abogados.

Funcionamiento de la Odyssey
Es importante destacar que la propuesta de Baer se basaba en el uso de un televisor convencional, algo que empezaba a ser normal en los años 50 y 60. En cambio, nada tiene que ver con el empleo de un ordenador o ingenio similar que, en aquellos años, eran un tema poco conocido y totalmente inaccesible para un hogar. Por otro lado, desde el punto de vista de diseño, Baer tampoco consideró el uso de circuitos integrados por tratarse de una tecnología novedosa: recordemos que componentes como el Fairchild uL903 o los circuitos empleados en el ordenador IBM/360 datan de principios de los ’60. Con estos condicionantes había que ingeniárselas para que la videoconsola actuase sobre la señal de televisión recreando en ella los objetos y eventos del juego empleando solo componentes electrónicos discretos, es decir, resistencias, condensadores, diodos y transistores.

Como he comentado la Magnavox Odyssey recrea en la señal de vídeo los objetos del juego. Sobre este tema es importante aclarar que es considerado “objeto” en la Primera Generación. Objeto o personaje era, en aquellos años, un simple punto a modo de pelota o un pequeño cuadrado que hacía las veces de raqueta. También podía ser considerado como un objeto una línea vertical que delimita o define el perímetro de juego. Por lo tanto, los diseñadores de un juego de aquellos años debían idear modalidades de juego introduciendo pequeñas variaciones en la aparición de estos objetos y en su movimiento en pantalla. Para ese fin la Odyssey contaba con 6 tarjetas insertables por el usuario con las que se reconfiguraba el circuito electrónico y se seleccionaba una modalidad de juego entre 12 variantes, donde destacaban los títulos Tennis, Hockey y Sky.

La Odyssey dispone de dos mandos, uno para jugador. Cada uno de estos controles cuenta con dos potenciómetros con los que se consigue el movimiento horizontal y vertical de la raqueta. Junto a los potenciómetros recién mencionados existe un tercero denominado English para alterar la trayectoria de la pelota e intentar confundir al rival. Además, opcionalmente, los usuarios podían adquirir un rifle óptico en cuyo cañón había un fotodiodo que permitía identificar donde se encontraba el haz de electrones del tubo de imagen mientras se está representando el objeto al que disparamos. Si la señalización del rifle coincidía con la ubicación de la víctima, habías acertado el tiro. Por otra parte, se incluían unas trasparencias que se superponían sobre la pantalla del televisor para intentar recrear un escenario y así dar realismo al entorno. Por último, la Magnavox Odyssey disponía de una serie de accesorios propios de un juego de mesa como dados, cartas de preguntas o billetes de dinero con los que se enriquecía la experiencia lúdica.

En un vistazo al interior de la Magnavox Odyssey se identifican diez pequeños módulos constituidos por los componentes discretos mencionados: Dos de estos módulos son los encargados de generar los sincronismos horizontal y vertical y son usados para crear una señal de televisión analógica y son la referencia temporal que hace que el resto de módulos sepan cuando han de funcionar; los siguientes dos módulos generan a cada jugador (raquetas) y su posición, modificando el nivel de luminancia de la señal de video; otro módulo genera la pelota también como una señal de luminancia; el siguiente de los módulos es el responsable de generar una línea vertical para delimitar el campo que es, una vez más, generado a partir de la luminancia; el siguiente módulo está encargado del movimiento de izquierda a derecha y viceversa de la pelota (Ball Flip-Flop); el módulo English Flip-Flop también está relacionado con el control de la pelota y es capaz de cambiar su trayectoria haciendo que suba o baje súbitamente; con siguiente módulo, llamado Gate Matrix, se identifica una colisión entre jugador y pelota y también se señaliza un cambio de trayectoria; por último, el módulo Summer es el responsable de integrar las señales anteriores de luminancia junto a los citados sincronismos vertical y horizontal. A la salida de Summer ya contamos con una señal de video compuesto en blanco y negro que, tras pasar por un modulador de radiofrecuencia VHF, puede ser visualizada en un televisor antiguo.

Magnavox Odyssey 100
Trascurridos los primeros años de la Odyssey, Ralph Baer y Magnavox eran conscientes que el diseño electrónico con componentes discretos no era el más apropiado por costes y fiabilidad de la propia videoconsola. Por otra parte, también se dieron cuenta que los usuarios de un entretenimiento electrónico no querían perder el tiempo leyendo complicadas reglas de juego, pegar trasparencias en la tele o entretenerse con mil cachivaches como los que acompañaban a la Odyssey, es decir, querían inmediatez: enchufar y jugar.

Con estas consideraciones apareció la Magnavox Odyssey 100. En esta videoconsola solo se podía jugar al Tenis y al Hockey y, en una única estructura, se integraban los controles para dos jugadores junto a unos cursores deslizantes con los que se llevaba un control de las partidas ganadas. La Odyssey 100, que llegó al mercado hacia octubre de 1975, también sustituía el uso de componentes discretos reuniendo sus capacidades en cuatro circuitos integrados de Texas Instruments e introduciendo, como novedad, un sonido muy básico.

Tras el modelo 100 aparecieron otros, pero se notaba que Magnavox hacía, más o menos, lo mismo que el resto de los competidores. En 1975 Philips se hizo con el control de esta legendaria compañía (recordemos que Magnavox fue fundada en 1915 y fueron los precursores del altavoz electrodinámico) y, entre sus prioridades, estuvo el desarrollo y lanzamiento en 1978 de DiscoVision. Aquel mismo año haría otra presentación importante: la Odyssey 2, también conocida como Philips Videopac G7000… pero eso es otra historia y pertenece a la siguiente generación de videoconsolas.

Hasta aquí este breve recuerdo a la Magnavox Odyssey. En la siguiente entrada presentaré la aproximación que siguieron en aquellos años empresas como Atari, Nintendo y Coleco.

Colección | Primera Generación de Videoconsolas (y 2) | Home Computer y Retroinformática | Aficionados a la Electrónica (1) | En los límites de la innovación

40 años del Compact Disc

septiembre 2, 2022 on 5:04 pm | In colección, hist. sonido y música electrónica | No Comments

Adolfo García Yagüe | El tiempo pasa y la tecnología cambia, y si alguien no lo sabe, dentro de unas semanas se cumplirán 40 años desde que se puso a la venta el primer reproductor de Compact Disc (CD). Fue el 1 de octubre de 1982 cuando Sony comercializó en Japón el CDP 101 y semanas después le siguió el CD 100 de Philips. Con ambos equipos, y con los que llegaron después, nos introdujimos en el Universo Digital.

La codificación con ceros y unos (PCM, Pulse Code Modulation) se concibió décadas atrás, en 1937, por Alec Reeves (1902-1971). Posteriormente, en 1948, los Bell Labs publicarían el imprescindible The Philosophy of PCM donde Bernard M. Oliver (1916-1995), John Robinson Pierce (1910-2002) y Claude Shannon (1916-2001) describen esta codificación y los beneficios de la transmisión digital de la voz en redes telefónicas. La trascendencia de estos trabajos en las Telecomunicaciones es inmensa, pero quedaba un poco alejado de nuestra cotidianidad. Fue con la llegada del CD cuando comprobamos que todo podía ser digitalizado y que, en la dimensión binaria, el sonido era perfecto e inmune a la presencia de polvo en el disco, un arañazo y duradero tras un uso continuado. Por fin desaparecían aquellos molestos clics y otros ruidos, y nos ponía tras la pista de algo más importante como es la posibilidad de procesar un contenido digital, trasmitirlo, almacenarlo o copiarlo indefinidamente. Esto que digo, que hoy parece evidente, en el aquel momento no lo era para muchos de nosotros que estábamos acostumbrados a tratar con soportes analógicos como discos de vinilo, casetes, vídeos VHS o la trasmisión de la televisión.

Sony y Philips
Durante la década de los setenta del siglo pasado la codificación PCM y las aplicaciones comerciales para digitalizar sonido e imagen eran temas punteros. Por ejemplo, en 1977 Sony comercializó el PCM-1, un módulo con el que era posible digitalizar audio y generar a partir de él una señal de vídeo que podía ser grabada en un video Betamax. A continuación, al reproducir esa cinta Beta y entregar la señal de vídeo al módulo PCM-1, se hacía la conversión de digital a analógico para proceder a su escucha.

Por otra parte, es difícil entender el Compact Disc sin recordar el DiscoVision de Philips (posteriormente renombrado como LaserDisc por Pioneer). Aunque difieren en el tamaño de sus respectivos discos y el LaserDisc era analógico, ambas tecnologías comparten soporte óptico y una técnica similar de lectura mediante un haz láser. Evidentemente, aquella experiencia de Philips le permitía avanzar por un terreno conocido.

No obstante, para tener éxito en el desarrollo de nuevo formato de disco, había que tener el respaldo del resto de mercado y cambiar una dinámica establecida desde hace casi 100 años por las compañías discográficas. Por este motivo, la clave del éxito, fue que Philips y Sony unieron sus fuerzas para trabajar en unas especificaciones comunes y no intentar imponer una solución propietaria. Aquello significó que dejaron a un lado sus rivalidades comerciales y sacaron lo mejor de cada casa para lograr persuadir al resto y así conseguir la ansiada adopción universal.

En Internet podéis encontrar cientos de textos contando los pormenores del desarrollo, alguno con un toque de leyenda urbana, como en aquel donde se afirma que el tamaño de los discos compactos está relacionado con la duración de la 9ª Sinfonía de Beethoven. También, y más real, leeréis como el prestigioso Herbert von Karajan (1908-1989) se involucró en la promoción del Compact Disc avalando la calidad de su sonido.

CDP 101 vs. CD 100
Ambos equipos cumplen con las especificaciones pero en su interior hay un matiz importante. En el CD 100 de Philips cada canal de audio (izquierdo y derecho) cuenta con un circuito independiente para la conversión digital-analógico (DAC) de 14 bits con sobremuestreo. En cambio, en el reproductor CPD 101 de Sony, solo se dispone de un DAC de 16 bits con el que se hace alternativamente la conversión de cada canal, existiendo una diferencia -no apreciable- de 11µs. Es decir, el audio derecho y el izquierdo no están sincronizados. Externamente, y a pesar de ser contemporáneos, sus diferencias son más evidentes y nos hace reflexionar sobre la evolución posterior que ha sufrido cada compañía.

El reproductor CD 100 de Philips es un equipo acabado en aluminio de diseño espartano. Sus diminutos pulsadores, el uso que se hace de los leds para indicar el número de pista de audio o el receptáculo del disco denotan que fue creado según el estilo imperante en los ’70. En cambio, el Sony CPD 101 es un equipo que delata que fue desarrollado por una empresa con ímpetu innovador y con ambición de destacar frente a la competencia: su color negro y el llamativo distintivo de color naranja “It’s a Sony”, pulsadores amplios y bien definidos, el display VFD (Vacuum Fluorescent Display), el mando a distancia, la salida de auriculares, el timer o la bandeja porta CDs… Estaba claro que los años 80 serían de Sony mientras que la línea de electrónica de consumo de Philips daba señales de agotamiento.

Tras el CD 100 y CDP 101 llegararían cientos de reproductores de CD entre los que cabe destacar en 1984 el Discman D-5 de Sony. Dos años después Philips puso en el mercado el reproductor CM 100 para discos CD-ROM y con ellos se inició la revolución multimedia.

Hoy, tras cuarenta años, el uso de los CDs está en retroceso y la única justificación que nos impulsa a comprar uno es la querencia que algunos tenemos por mantener la música en un soporte material.

Colección | Primeros pasos del fonógrafo Edison en España | Re-inventando la grabación en vinilo…  | Walkman de Sony, un hito de la cultura pop | Grabación Magnética | Grabación magnética de vídeo | El Videodisco

Página siguiente »


(c) 1999-2023 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress