Wearables (y 3)

noviembre 12, 2023 on 6:53 pm | In análisis de datos, colección, m2m, iot | Comentarios desactivados en Wearables (y 3)

Adolfo García Yagüe | En estas líneas comentaremos como el uso de sensores ópticos, junto a otros de tecnología MEMS (Microelectromechanical Systems) y el empleo de microcontroladores, está permitiendo el desarrollo de una nueva generación de productos conocidos como Wearables (por aquello de que van entre nuestra indumentaria) especializados en recoger datos biométricos y de nuestra actividad física.

Microcontroladores
Los microcontroladores llevan entre nosotros desde los años 70. En ellos, compartiendo el mismo silicio, se reúnen los principales elementos que constituyen un ordenador: microprocesador, memoria ROM y RAM, puertos de entrada y salida e, incluso, etapas de conversión AD (Analógico-Digital) y DA. El espectro de aplicación de estos componentes es amplísimo al simplificar un diseño electrónico y abaratar costes. Otra cualidad que hace especialmente atractivos a ciertos microcontroladores es su bajo consumo eléctrico, razón por la cual son ampliamente usados en dispositivos integrados o embebidos.

Como podéis intuir, el clip de actividad Fitbit One (2012) cumple con la definición de dispositivo embebido y fue uno de los primeros de la generación Wearable. En él, además de su bajo perfil eléctrico, se observa un diseño compacto optimizado para realizar una funcionalidad con una necesidad de cómputo limitada y predecible. En este podómetro se emplea el microcontrolador STM32L de ST Microelectronics, que se basa en la arquitectura ARM 7 perfil M, o Cortex M3. Este componente, a través a sus buses digitales I2C, SPI o analógicos, puede recoger las lecturas procedentes sensores externos.

MEMS (Microelectromechanical Systems)
A pesar de que las micromáquinas están permitiendo el desarrollo de cientos de dispositivos y soluciones, la tecnología que rodea a estos ingenios es poco conocida. La idea de partida se basa en el desarrollo a escala nano y micrométrica de máquinas mediante técnicas de fabricación similares a las empleadas en los circuitos integrados, es decir, a través de la deposición sobre un sustrato de silicio de distintas capas de materiales y la posterior fotolitografía para “esculpir” microscópicamente un sencillo proceso mecánico junto a otro electrónico. Esta unión entre mecánica y electrónica ha hecho posible, por ejemplo, la miniaturización de sensores de presión, de gases, acelerómetros y giróscopos. Otros componentes desarrollados gracias a la tecnología MEMS tienen que ver con las comunicaciones ópticas, la radiofrecuencia o algo tan común como los inyectores de tinta de algunas impresoras. Por último, y no menos importante, son aquellas aplicaciones MEMS en el campo de la medicina como medidores del nivel de glucosa en sangre, parches para dosificar una sustancia a un paciente o las bombas de insulina, entre otras.

(a). Mecanismo ultraplanar construido con tecnología MEMS en Sandia National Laboratories. (b). Patas de un ácaro sobre los engranajes de un micromotor construido en Sandia National Laboratories. (c). Detalle de ejes y x de un acelerómetro capacitivo MEMS de ST Microelectronics.

La historia de los MEMS la podemos resumir en los siguientes hitos. En primer lugar, en 1954, se descubrió la existencia de propiedades piezo-resistivas en el silicio y germanio. La piezo-resistividad es el cambio de resistencia eléctrica que experimentan algunos materiales cuando se los somete a un esfuerzo o estrés mecánico de tracción o compresión. Durante década de los ’60 se harán las primeras demostraciones de sensores de presión y aceleración, ambos construidos con silicio. En 1977, a diferencia del sensor presentado años atrás, que se apoyaba la citada piezo-resistividad, se mostrará un sensor de presión basado en la variación de capacidad. En 1988 se presentarán los primeros prototipos de (micro) máquinas rotativas construidas con esta tecnología. Por último, al principio de la década de los ’90, Analog Devices pone a la venta el primer acelerómetro capacitivo de un eje con tecnología MEMS: el ADXL50.

Podómetro y calidad del sueño
En el caso del clip Fitbit One, para el medir el número de pasos, el citado microcontrolador STM32L realiza un promediado de los datos procedentes del sensor acelerómetro capacitivo MEMS C3H de tres ejes con el fin de identificar y eliminar aquellas muestras que, por su valor, exceden los valores normales de funcionamiento. Tras esta “limpieza” de las señales leídas en cada eje, los pasos del usuario se corresponderán con la repetición periódica de ciertos valores que destacan entre el resto. Sin abandonar este microcontrolador, tras reconocer los eventos asociados a un paso, se llevará la cuenta de estos y se realizarán los cálculos matemáticos para deducir, entre otros, la distancia recorrida, velocidad y calorías quemadas. Por último, guardará todos estos datos en una memoria pudiendo ser presentados en un display para ser consultados por el usuario o, enviados por radio bluetooth al Smartphone y de ahí a la nube de Google en el caso de un dispositivo Fitbit. Y vuelta a empezar.

Otra capacidad que se ha vuelto muy popular entre algunos usuarios de Wearables es la “medida” de la calidad del sueño. Como sabéis, gran parte de la población dormimos menos de lo que necesitamos y esto, lamentablemente, se puede manifestar en nuestra salud física y mental. Esta necesidad por conocer la calidad de nuestro descanso ha llevado a los fabricantes de Wearables a implementar algoritmos con los que registrar los movimientos de nuestro cuerpo mientras dormimos. Es bien conocido que durante este periodo de descanso se producen varias etapas y que el sueño reparador o, de más calidad, se desarrolla durante las fases III, IV o Delta y V REM (Rapid Eye Movement). Durante estas etapas, nuestra actividad motora va cesando hasta permanecer inmóviles. La duración de estos periodos de reposo son los que registran los Wearables. Es decir, al contrario que con los pasos, en la medida de calidad del sueño se lleva un control del tiempo en la que acelerómetro apenas registra movimientos.

Medición de escalones subidos
En el clip Fitbit One también se identifica el sensor de presión barométrica MS5607 de MEAS Switzerland. Gracias a este sensor de tecnología MEMS, este Wearable lleva la cuenta de los escalones que subimos añadiendo así más riqueza a los datos que describen nuestra actividad.

El MS5607 basa su funcionamiento en el efecto piezo-resistivo y, a través de éste, es capaz de medir la presión atmosférica en un rango que va desde los 10 a 1200 mbar (milibares). No olvidemos que, a nivel del mar, la presión atmosférica es de 1013 milibares y que, a medida que aumenta la altura, la presión disminuye en, aproximadamente, 1 mbar por cada 9 metros, o 110 mbar por cada 1.000 metros. No obstante, como deduciréis, la Fitbit One no pretende ser un barómetro y se apoya en la precisión de 20cm que ofrece el MS5607 para identificar los incrementos de altura que se producen cuando subimos las escaleras. Por último, al estar calibrado por MEAS durante el proceso de fabricación, este sensor entregará al microcontrolador STM32L sus lecturas listas para ser empleadas a través de un bus I2C o SPI y solo será necesario hacer -en el microcontrolador- la conversión de milibares a metros de altitud y cruzar estos datos incrementales con los que está registrando el acelerómetro en el movimiento que hace nuestro cuerpo mientras subimos la escalera.

Frecuencia cardíaca y oxígeno en sangre
En el texto dedicado al pulsómetro vimos cómo es posible conocer la frecuencia cardíaca a través de unos electrodos con los que se registra -en la superficie de nuestro pecho- los impulsos eléctricos que estimulan cada latido. Aunque esta técnica ha demostrado su efectividad y es usada por algunos deportistas, presenta ciertos inconvenientes como la colocación apropiada del sensor y su incomodidad. Estas dificultades son la consecuencia de que su uso no esté extendido más allá del círculo deportivo, siendo inviable en el día a día de una persona. Por este motivo, desde hace algunos años, ciertos Wearables emplean para este propósito la fotopletismografía (PPG) que es, como todos sabéis, la aproximación usada en fines médicos para la medición del nivel de saturación de oxígeno en sangre (SpO2).

Sin ser un entendido en fisiología, diré que la fotopletismografía se apoya en la medida del cambio de volumen del flujo sanguíneo durante la actividad cardíaca. Este cambio de volumen, que coincide con los latidos del corazón, también coincide con cambios en la coloración de la hemoglobina mientras ésta transporta oxígeno confiriendo a la sangre ese color rojo intenso y, en cambio, un color rojo oscuro cuando porta dióxido de carbono.

Como decíamos anteriormente, esta técnica de medida se viene utilizando en el mundo médico desde finales de los ’80 y, en los últimos años, está disponible en medidores de uso personal para comprobar la saturación de oxígeno en sangre y el pulso cardíaco: son los conocidos oxímetros y pulsímetros que se colocan en el dedo. Si analizamos uno de estos dispositivos observaremos que, en la parte que toca con la yema del dedo, se identifica un receptor de luz mientras que, en el lado contrario, hay una fuente de luz de tonos rojos. Mas concretamente, el oxímetro emite dos fuentes de luz: en la región infrarroja con un LED de 940nm y con otro LED rojo a 660nm, ambas lambdas tienen un grado de absorción diferente en función del contenido de oxígeno en la sangre. Es decir, se produce una transmisión luminosa a través del dedo y, a continuación, se mide la señal recibida para deducir el nivel de oxígeno e identificar una pulsación.

El primer Wearable donde se trasladó el principio de funcionamiento descrito a un formato pulsera fue en el Mio LINK (2014). En este dispositivo los elementos de emisión óptica y de lectura se encuentran adyacentes y, en lugar transmitir luz a través del dedo, se registra la reflexión de está a través del interior de la muñeca. Además, en vez de trabajar con fuentes de luz roja e infrarroja, se emplea un LED de color verde junto con un sensor óptico.

La técnica fotopletismográfica, tal y como se aplica en la mayoría de los Wareables, no está exenta de lecturas imprecisas y funcionamientos anómalos producto de la inadecuada colocación de la pulsera y el ajuste de esta, el movimiento de la muñeca, la pigmentación de la piel y sudoración de cada individuo o la temperatura de sus extremidades. Otro aspecto que hace inadecuada esta técnica es la existencia de una patología previa asociada a niveles bajos de hemoglobina. Por último, como se ha comentado, la PPG lleva tiempo facilitando al personal sanitario información fiable sobre el SpO2 y el pulso de un paciente, pero no ha demostrado ser totalmente efectiva en la medición de otros niveles, y es aquí donde la mayoría de los fabricantes están intentando desarrollar algoritmos más capaces y precisos para sus Wearables.

Hacia la completa monitorización de la información biométrica
Como podéis comprobar estamos asistiendo a una evolución tecnológica que intenta condensar en gadgets -de bajo coste- parte de la experiencia tecnológica del mundo médico. El objetivo no es otro que llegar a conocer, de manera fiable y no invasiva, las constantes vitales y ciertos marcadores de un individuo. En este sentido hay que recordar la capacidad que ya se tiene, a partir del Apple Watch 4 (2018), de hacer un sencillo electrocardiograma a través del electrodo existente en la corona de este reloj, o los planes declarados de esta compañía de ir incorporando nuevos sensores a su familia de relojes inteligentes para conocer, por ejemplo, el nivel de glucosa en sangre junto a otras capacidades de inteligencia artificial -desde su Cloud- para ayudar en la interpretación y seguimiento de los datos biométricos de un usuario.

Lamentablemente, esta rápida evolución también genera confusión entre los usuarios cuando se nos ofrecen ciertas capacidades a través de la contratación de servicios Premium o se escribe, por ejemplo, sobre los peligros de la apnea del sueño y el análisis de los ronquidos que pueden hacer los relojes Fitbit Versa 3 (2020) y Fitbit Sense (2021), o el registro del estrés y el estado de ánimo que, supuestamente, hace el Fitbit Sense 2 (2022)

Colección | Actividad física y podómetro (1) | Pulsómetro y posición GPS (2)

 

Pulsómetro y posición GPS (2)

octubre 3, 2023 on 6:01 pm | In análisis de datos, colección | No Comments

Adolfo García Yagüe | En el texto anterior vimos como el podómetro nos permite conocer la distancia recorrida y, aproximadamente, estimar las calorías empleadas. Estos datos, aunque útiles, tienen poco valor para cuantificar el esfuerzo real que hace un individuo, determinar la respuesta de su cuerpo y entender su evolución física. Esto solo es posible a través de una prueba de esfuerzo, o ergometría, donde se monitoriza la actividad cardíaca y la capacidad respiratoria mientras se realiza un esfuerzo físico, como correr sobre una cinta o pedalear en bici estática. Históricamente, esta prueba ha sido y es común entre deportistas de alto rendimiento porque permite conocer con precisión cuales son los límites de una persona para, así, orientar su preparación física. Afortunadamente, desde hace tiempo, este diagnóstico ya está al alcance de la mayoría de las personas, especialmente si han sufrido algún accidente cardiovascular y se trabaja en su rehabilitación. También, por supuesto, este tipo de pruebas ayudan a los especialistas a descubrir dolencias latentes que muchas veces permanecen ocultas.

Pulsómetro
Dejando a un lado la ergometría, el mejor compañero de cualquier corredor es el pulsómetro. Como su nombre indica, este dispositivo registra nuestra actividad cardíaca de la forma más básica que existe, es decir, llevando la cuenta de las pulsaciones por minuto.

La primera compañía que desarrolló un pulsómetro compacto fue la finlandesa Polar, quien, a finales de los años 70, presentó un dispositivo con el que era posible conocer la actividad cardíaca. Más adelante, avanzada la siguiente década, comercializaron el PE3000 en formato reloj. Junto a este pulsómetro se suministraba una banda elástica que tenía que ser situada alrededor del tórax y medía los impulsos eléctricos cardíacos a través de unos electrodos. A continuación, a través del envío de pulsos de radiofrecuencia, la banda informaba al reloj de la actividad cardíaca. En este sentido es preciso recordar que la naturaleza de la comunicación inalámbrica entre sensor y reloj es unidireccional y que carece de cualquier técnica de codificación, emparejamiento o enlace y, como anécdota, comentaré que cuando estaba fotografiando los pulsómetros PE3000 y Tunturi, estos registraban un latido cardíaco con cada destello luminoso del flash. Por último mencionar que, como complemento al pulsómetro, era posible adquirir una impresora que se conectaba al reloj a través de un adaptador y permitía extraer las lecturas y comprobar así la evolución de la actividad cardíaca.

En aquellos años disponer de un pulsómetro Polar no estaba al alcance de cualquiera y solo era posible verlos en equipos y clubs de alto rendimiento, la mayoría de las veces compartido por varios atletas.

A diferencia del podómetro, cuya aplicación es claramente motivadora y ayuda a fijar pequeñas metas y comprobar progresos, el pulsómetro nos permite conocer la respuesta de nuestro corazón y, de acuerdo con ella, fijar el entrenamiento y grado de esfuerzo que más nos conviene. Evidentemente, según avancemos en nuestra forma física, estos umbrales se moverán y seremos capaces de mayores retos. Esto significa que, para sacar partido al pulsómetro, hay que estar comprometido y no caer en el error (común) de pensar que este gadget solo sirve para ver, mientras corro, el número de pulsaciones por minuto y pensar que si mi corazón va más rápido soy más machote. Al contrario.

Este “compromiso” con el uso del pulsómetro y en general con una actividad deportiva, se refleja en que algunos pulsómetros de antaño venían acompañados de un completo manual de instrucciones donde se comentaban algunos principios de fisiología deportiva como la diferencia entre un ejercicio aeróbico y otro anaeróbico, además de requerirnos que anotáramos nuestras pulsaciones en reposo, peso, edad, sexo, pulsaciones máximas recomendadas… y pulsaciones máximas registradas, tiempo dedicado a la actividad física, formulas, etc… En fin, se perdían las ganas de ponerlo en marcha y solo l@s muy entregad@s le sacaban partido. Los más perezosos teníamos la excusa perfecta para no hacer deporte: – ¡Es que no termino de entender al pulsómetro, me tiene confundido y claro, correr por correr…!

Global Positioning System (GPS)
Como vimos en el texto dedicado al podómetro, conocer la distancia recorrida tiene su encanto y, para un principiante, suele ser más efectivo y menos tedioso que realizar contabilidad cardíaca. De esto eran conscientes los fabricantes de dispositivos y, a la forma tradicional de contar pasos para conocer la distancia recorrida, se añadieron las capacidades GPS.

Al comienzo de los 2000 la tecnología GPS empieza a formar parte de la vida de los usuarios a través de dispositivos de navegación para coche como el Garmin StreetPilot (1998). Este equipo era consecuencia de la disminución de tamaño y de la integración cartográfica. Recordemos que, tan solo unos años atrás, los GPS solo informan de las coordenadas de localización y la altitud junto a una referencia horaria.

Unos años después Garmin presentó el que sería el primer GPS que podía ser llevado en la muñeca: el Forerunner 101 (2003). Con una precisión de aproximadamente 10m, un tiempo de refresco de la posición de 1 segundo y, a pesar de que tras el arranque inicial este GPS podía tardar un minuto en sincronizar con hasta 12 satélites, era juguete muy cool. Estaba dirigido a ciclistas, corredores y amantes de las caminatas a los que les hacía ilusión conocer cuantos kilómetros habían recorrido, el tiempo empleado, velocidad y calorías -estimadas- consumidas. Además, el Forerunner permitía almacenar hasta 5000 trayectos para así tener una vista de la evolución histórica y, aunque carecía de mapas, tenía un modo de navegación consistente en memorizar la longitud y latitud de un punto y el GPS señalizaba la ruta, independientemente de que ésta fuera transitable o no. Por último, hay que recordar que el 101 no permitía exportar los datos a una plataforma o extraerlos para tratarlos posteriormente, esto lo dejamos para el siguiente texto. Continuará.

Colección | Actividad física y podómetro (1) | Wearables (y 3)

Actividad física y podómetro (1)

septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | 3 Comments

Adolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.

Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.

Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…

Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.

El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.

Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.

En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías.  Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.

En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.

Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.

En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.

En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Micropacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro basado en un sensor electromecánico y un circuito integrado diseñado a medida o ASIC. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.

En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.

Colección | Pulsómetro y posición GPS (2) | Wearables (y 3)

Energía Eléctrica y Análisis de Datos

junio 18, 2019 on 5:36 pm | In análisis de datos, descarga textos pdf, m2m, iot | No Comments

Adolfo García Yagüe | En esta presentación se estudia una aplicación real del análisis de datos e IoT: El uso de la Energía Eléctrica y EMIOS de Energy Minus+. Sin pretender ser un curso de electrotecnia, en la primera parte he intentado resumir alguno de los conceptos relativos a la corriente alterna y al mercado eléctrico español. Soy consciente de que por ciertos temas paso de puntillas, e incluso alguna diapositiva puede no resultar 100% precisa para un experto. Pido disculpas por ello. He intentado rebajar el nivel de los conceptos expuestos para acercarlo al día a día de cualquier persona interesada en estos temas.

Agenda

Energía y Datos

  • La importancia del análisis de datos
  • Datos de consumo
  • Consumo eléctrico
  • La importancia del contexto
  • ¿Qué nos pueden ofrecer los datos?

Conceptos básicos

  • Corriente alterna
  • Magnitudes vectoriales
  • Monofásico y trifásico
  • Voltaje y corriente
  • Potencia
  • Energía activa
  • Energía reactiva
  • Factor de potencia y coseno de φ

Laboratorio

  • Buscapolos y pinza amperimétrica
  • Midiendo en un cuadro eléctrico
  • El osciloscopio
  • Laboratorio de recogida de datos
  • Medidor ModBus
  • Sonda de temperatura y luminosidad
  • Pasarela TELNET BabelGate G5002
  • Node-RED

Mercado eléctrico

  • Actores del mercado eléctrico
  • La importancia del Sistema
  • Perfil energético y tarifas
  • Tarifa 2.0A
  • Tarifa 2.0DHA y 2.1DHA
  • Tarifa 3.0
  • Termina de energía reactiva
  • Maxímetro
  • Ejemplo de una factura 3.0A
  • Tarifa 3.1
  • Tarifas 6.x

Monitorización eléctrica

  • Red de Monitorización
  • Datalogger, Medidor, Modem
  • Monitorización de contador fiscal
  • Medidor Trifásico
  • Transformador de corriente de 50A
  • Temperatura, humedad y luminosidad

Casos Prácticos con EMIOS

  • Configuración de tarifa
  • Simulación de una factura
  • Evolución del consumo
  • Ajuste de potencia
  • Energía reactiva
  • Configuración de Widgets
  • Consumo general y temperatura
  • Consumo alumbrado y luminosidad
  • Detección consumo anómalo
  • Estudio de cambio de iluminación

[Descargar ponencia]

Ciberseguridad e IoT

marzo 28, 2019 on 6:15 pm | In academia, análisis de datos, cibercultura, ciberseguridad, descarga textos pdf, internet, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Estos días estoy dando un curso sobre Ciberseguridad e IoT en Fuenlabrada. Se enmarca en un proyecto impulsado por el propio Ayuntamiento y la Unión Europea. Se pretende formar a los asistentes en nuevas capacidades con el fin de reforzar y actualizar su curriculum. Es una iniciativa admirable que ayuda a crear sociedad y, sobre todo, porque me está permitiendo conocer la realidad de otras personas. En este módulo denominado “IoT” comparto el papel de formador junto a otros profesionales de Flexbot, la Fundación Telefónica y la Fundación Santa Maria la Real. Como digo es un privilegio estar ahí.

Os dejo la presentación del curso que estoy dando por si os resulta de interés. Como digo va sobre IoT, economía de datos, comunicaciones y seguridad. Muchas de las cosas que aquí trato son totalmente trasladables a nuestra cotidianeidad como usuarios de un equipo informático o un Smartphone. También, como no, se aclaran conceptos acerca de la importancia de los datos o 5G y como puede cambiar el entorno en el que vivimos. Milma Fuenlabrada. Laboratorio IoT

Agenda

Acerca del TELNET
Conceptos de IoT y Sistemas Embebidos

  • Telemetría y telecontrol
  • Smartphones
  • Internet de las Cosas
  • Tratamiento y economía de datos, Big Data
  • Dispositivos basados en Microcontrolador y Microprocesador
  • Arduino
  • Raspberry PI
  • TELNET BabelGate
  • Riesgos Amenazas y Ataques

Software y Hardware

  • Seguridad Física
  • Identificación de vulnerabilidades
  • Bootloader, Kernel, drivers y librerias
  • Aplicaciones
  • Cifrado
  • Repositorios de claves
  • Puertos Abiertos, Banners y Port-Knocking
  • API (Application Program Interface)
  • Ejemplo de instalación y mantenimiento desatendido
  • Electrónica y Buses
  • Memorias SD
  • SIM (Subscriber Identity Module)
  • TPM (Trusted Planform Module)

Conectividad Inalámbrica de un dispositivo IoT

  • Conectividad Radio
  • Frecuencias
  • Topología, seguridad y radio
  • Servicios M2M de Operador
  • Sigfox
  • LoRa
  • Zigbee
  • Z-Wave
  • Bluetooth
  • IEEE 802.11

Buses y Redes Industriales

  • Seguridad lógica en Redes Industriales
  • PRIME/COSEM

[Descargar ponencia]

El Futuro de Internet

noviembre 28, 2018 on 6:59 pm | In análisis de datos, colección, internet | 2 Comments

Parece que el futuro de Internet está en manos de compañías como Facebook, Google y otras tantas… y que la gratuidad de las aplicaciones y redes sociales que estos y otros ofrecen es porque se hacen de oro con nuestros datos… y qué decir del riesgo que corremos expuestos a tanto acoso, narcisismo, vacuidad, odio y noticias falsas… En un golpe de nostalgia, miramos a los años noventa y estamos convencidos de que allí se encontraban las esencias, creyendo que se hace necesario refundar Internet y planteamos un mecanismo de comunicación sin servidores, basado en P2P y Blockchain… Este era el tema central del reciente encuentro de Lisboa en el que participaba gente como Tim Berners-Lee entre otros destacados ponentes.

Tristemente, el tiempo en el que nació Internet en las Universidades y Centros de Investigación impulsado por gente como Berners-Lee pasó. Hicieron aportaciones fundamentales y usaron Internet para lo más básico, que era comunicarse con otros colegas a través de un correo, una news o una web. Aquello debe ser recordado y merece todo tipo de reconocimientos pero hoy, difícilmente, puede competir con el impulso dado por multitud de empresas privadas que han inventado cientos de aplicaciones y formas de comunicarse en Internet, algunas fallidas y ruinosas. Como no, no puedo olvidar a todas esas comunidades que desarrollan software abierto, sin restricciones de uso que operan gracias a Internet. Es evidente su aportación pero casi siempre hay una empresa o iniciativa privada que empuja su desarrollo o incluso termina adoptándolo, cuando no absorbiéndolo: MySQL y Oracle, Microsoft y GitHub, Red Hat e IBM, Hadoop, etc.

Aun así, uno puede seguir siendo «auténtico» en su uso de Internet: Perfectamente puede mantener una página web y escribir artículos de no-se-que. Pero, no lo olvidemos, no se puede pretender que al resto de internautas (expresión anacrónica, de los ´90) le interese lo que estas contando. Es decir, para cierta gente Internet sigue siendo un sitio donde aprender, buscar información y compartir ideas; mientras que para otros, es solo una forma de comprar o mantenerse conectado a través de mensajes cortos, proyectar su vida o curiosear en la de otros. Para entendernos, puedes construir bibliotecas pero no puedes obligar que la gente lea sus libros.

Es lamentable que alguien se comporte mal en Internet o, interesadamente, difunda información envenenada. Desgraciadamente, las personas proyectamos lo que somos a nuestro alrededor. Solo hay que leer los foros de muchos periódicos respetables y te darás cuenta de la cantidad de radicales y odiadores que hay entre sus lectores. En Twitter o en Facebook pasa lo mismo. Por supuesto, puedes ser víctima de información sesgada y formarte una opinión equivocada y ser dirigido. El problema es que técnicamente resulta difícil analizar en tiempo real, interpretar y filtrar todo lo que se publica, sin mencionar a qué Gran Hermano o Censor le damos esta atribución.

Por otra parte, si quiero saber cómo va el tráfico de Madrid a Sevilla consulto Google. Ya sabemos que para que Google pronostique la duración de ese trayecto está recogiendo datos de localización de los móviles Android de todas las personas que están viajando antes que yo. Así estima que el trayecto durará más de 5 horas. Es decir, mis datos de localización y los de otra mucha gente hacen posible esto. Hoy vivimos en una época en que la se cuenta con capacidades técnicas para recoger y procesar -en un instante- miles de millones de datos de todo tipo. Es importante asumir esto y entender por qué se habla de las oportunidades de negocio que puede ofrecer la Economía de Datos. Ante esto, si queremos vivir y relacionarnos en el Siglo XXI, resulta difícil prescindir de nuestro plan de datos y no instalar ninguna App, pero es posible.

Acabo preguntándome por las implicaciones de Red Neutral. Para alguien puede ser no filtrar aplicaciones P2P, incluso si el propósito es el intercambio ilegal de archivos… Por supuesto, no cerrar una web, aunque desde sus páginas se publiquen mentiras o se incite al odio… Otros pueden pensar que neutral significa no ralentizar el tráfico VoIP de WhatsApp, aunque nos quejemos del riesgo de poner nuestros datos y hábitos a su alcance… Aquellos pueden pensar que esto de la Red Neutral es una cosa buena, a pesar de Tor y navegación anónima con fines ilícitos por la Internet Profunda… Y ¿Qué pasa con Bitcoin y los ciberdelitos?… En fin, que no sé muy bien que se pretende ni cómo se hace para que todos nos sintamos tranquilos.

Con estas reflexiones solo pretendo compartir algunas dudas sobre los límites y la posible solución de los problemas a través de la tecnología amparándonos en una supuesta «decadencia» social (o de Internet). Estoy seguro que aparecerán nuevas soluciones como Blockchain, pero esto no resuelve lo más básico que es lo que cada uno de nosotros tenemos en la cabeza y como lo exteriorizamos. Bien distinta es la adecuación de nuestras leyes a este nuevo escenario que es Internet. Poco a poco se empieza a regular el uso de los datos, las actitudes en Internet, se persigue el uso fraudulento y se intenta proteger la propiedad intelectual… Creo que vamos en el camino acertado y cada día los gobiernos, jueces y policía son más sensibles a esto y se adaptan. Cosa que no es fácil ni rápida.

5G, no todo se reduce a una rivalidad entre EE.UU, China y Europa

septiembre 24, 2018 on 6:25 pm | In análisis de datos, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Esta mañana leía un interesante artículo de Ignacio del Castillo a quien habitualmente sigo. He de decir que me gustan sus análisis aunque en este caso eché en falta más ángulos desde los que comentar la cuestión. Digo esto porque su último texto sobre 5G se plantea en términos competitivos entre Europa, EE.UU. y China, o fabricantes como Qualcomm y Broadcom. Tras la lectura de estas líneas da la sensación de que la rápida implantación de esta tecnología es una cuestión de Estado en donde “ganará” el País que antes tenga disponible el servicio.

Para llegar a esta conclusión se recurre incluso a una referencia publicada en The Wall Street Journal donde se dice que el éxito digital de EE.UU. es consecuencia de la rápida adopción de 4G. No sé ¿y qué ha sucedido con Amazon siendo contemporánea de la telefonía GSM? ¿Y Google y su Android no son de la época 3G? ¿GPRS?… De Apple no hablemos pues su iPhone y la eclosión de las Apps reposaban sobre la humilde conectividad que ofrecía GPRS y 3G.

Es cierto que 5G permitirá el desarrollo de servicios que hoy parecen inalcanzables con las actuales tecnologías radio. Fundamentalmente me refiero al coche conectado autónomo y el desarrollo de IoT en miles de dispositivos. Más allá de esto, creo que las actuales tecnologías LTE 4G satisfacen las necesidades de navegación y conectividad de millones de usuarios. Qué nadie me interprete mal: no quiero decir que 5G no sea importante y un gran salto, únicamente que detrás de su adopción hay innumerables cuestiones que escapan al texto de Ignacio.

Me parece un poco exagerado plantear solo el análisis solo en términos de rivalidad entre países, aunque pueda llamar mucho la atención el subtítulo que subyace: Oriente vs. Occidente. Aquí no solo hablamos de la tecnología radio y la estación base o BTS. Diría que esto ya está superado y está “atado y bien atado” por las patentes de cada fabricante y los estándares del 3GPP. Ahora la pelota está en el tejado de los Operadores de Telecomunicaciones y no parece claro que tengan la misma urgencia de desplegar 5G salvo que quieran publicar una nota de prensa y así llamar la atención de accionistas, usuarios y periodistas.

Empecemos por el plan de frecuencias. No está claro la idoneidad de las frecuencias asignadas a este servicio y la naturaleza del despliegue actual. Quiero decir que si queremos usar 3500MHz tenemos que poner muchas más estaciones base porque, desde las actuales, hay dificultad para dar cobertura a todos los usuarios y objetos. Aunque sea una opción viable, instalar Small Cells (estaciones muy pequeñas) en cada esquina de una ciudad cuesta mucho dinero, por lo tanto el problema no se reduce solo a comprar el 5G de un determinado fabricante. También podemos optar al segundo dividendo digital y usar la frecuencia la baja de 700MHz, incluso esperar a los 1500 MHz pero esto no será algo rápido. Por cierto, dan escalofríos cuando el Gobierno sondea el mercado sobre el uso de la banda de 26GHz. Por esta razón, parece lógico pensar que, más tarde o más temprano, se debería producir un desacople del actual binomio frecuencia-servicio y las actuales frecuencias bajas (700, 850 y 900 MHz), de mayor propagación y menor ancho de banda, se reserven para aplicaciones IoT y coches en 5G, y las frecuencias altas (1800, 1900, 2100 y 2600MHz) se destinen a la navegación y Apps, también en 5G, e incluso 4G. Pero todos sabemos que estas cosas, los apagones y los reframing, van despacio y suelen estar regulados y, de la noche a la mañana, un operador no se puede “cargar” un servicio.

Capacidad. Plantear o dar a entender que el 5G supera la capacidad de las actuales comunicaciones por fibra es equivocado o al menos incompleto o inexacto. Lo cierto es que a la fibra instalada le queda recorrido para crecer durante décadas con tecnologías como XGSPON o NGPON 2. Esto, a priori, es tan fácil como actualizar con pequeñas modificaciones las actuales OLT GPON y las redes de fibra. En el mundo radio esto no es nada fácil porque exige una minuciosa planificación, contratación de emplazamientos e instalación de nuevas antenas. Por eso, cualquier cambio en la red de acceso radio se hace con mucha cautela y pies de plomo.

En este sentido una vez más me viene bien el comentario que hace The Wall Street Journal. En él se dice que el éxito de Netflix ha sido gracias a que EE.UU. ha liderado la tecnología 4G. En fin, no soy capaz de ver esta relación cuando está demostrado que el éxito de esta plataforma de TV se basa en producir sus propios contenidos y en distribuirlos “devorando” ancho de banda de las redes de fibra y sus tarifas planas. Dicho de otro modo: si dependiéramos del ancho de banda que tenemos en nuestro plan de datos móvil me temo que no veríamos tantas series… Pensemos que mucho antes de cualquier tecnología móvil ya existía en EE.UU. una industria cinematográfica potentísima que solo tenía de trabajar para el dueño que mejor pague…

Servicios y coche conectado. Es cierto que la adopción de 5G abrirá el mercado a nuevos actores que aún no existen. Seguramente estos vengan a través del mundo IoT porque, en el mundo del coche conectado-autónomo, me temo que “el pescado ya está vendido”. Examinado la posible cadena de valor, a menos que alguien invente algo totalmente novedoso, los actores ya están y dudo que se dejen robar una porción del pastel. Empezando por el vehículo: dudo que BMW, el grupo Volkswagen, PSA, Toyota o Daimler dejen de vender coches. Ellos saben fabricar un coche y todos confiamos en alguna de estas y otras marcas (sin olvidar los puestos de trabajo que generan en Europa), tienen sus líneas de producción acostumbradas a cambiar, redes de distribución, proveedores auxiliares, logística, dominan los entresijos políticos, etc. Un caso a destacar sería el de Tesla que tantas pasiones despierta pero realmente cuál es su diferencial ¿Un coche lujoso, su sistema de navegación, sus baterías, puntos de carga que han sido subvencionados?

Por otro lado está el sistema de navegación de a bordo y detección de obstáculos. Aquí puede existir sitio para la innovación, no lo sé. Ahora se están probando muchos sistemos que convergerán con uno, el mejor, y que terminará siendo integrado durante la fabricación del coche. Una vez más dudo que a gente como Bosch esto le suene raro.

Hablemos de cartografías, planificación de rutas, etc. ¿Quién fue el primero y hoy por hoy es el más preciso? Google. Realmente aquí es donde está uno de los diferenciales. Ellos han cartografiado medio mundo y saben recoger y tratar datos masivamente. Con todos mis respetos, la información del tráfico y rutas facilitada por la DGT o los Ayuntamientos, palidece con la precisión de Google. Por eso, si dependemos de los sistemas públicos para que un coche sea autónomo estamos perdidos…

Otro eslabón que cobra fuerza en esta cadena de valor, especialmente en los últimos años, es el alquiler del servicio de transporte. Parece normal que en el futuro existan empresas ofreciendo este servicio con coches autónomos. Todos conocemos los actores que se han posicionado aquí: desde coches sin conductor donde tú conduces, hasta aquellos que viene a recogerte. En último caso, a la vista de lo que en las últimas semanas está pasando con Uber, Cabify y las licencias VTC, parece poco recomendable meterse aquí sin garantías… Me temo que el impacto social es tan fuerte que pocos gobernantes están dispuestos a quemarse en un conflicto con el mundo del taxi. Este ejemplo también debería servir como “aviso para navegantes” para todos aquellos innovadores que pongan en entredicho la viabilidad económica de un servicio o colectivo tradicional…

Por último y vuelvo a los operadores: Ellos y solamente ellos explotarán las nuevas y futuras redes 5G y por las razones anteriores, actualmente, no tienen tanta urgencia en correr hacia un nuevo despliegue.

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Liderazgo Técnico y Transformación Digital

marzo 9, 2018 on 7:32 pm | In análisis de datos, innovación, internet | 1 Comment

Hace años, muchos años, en una conversación de bar, un colega y yo fantaseábamos con que en el futuro, los más importantes y ricos serían los técnicos. En aquellos años, lo que garantizaba el éxito profesional, era tener estudios de empresariales y económicas, y dedicarse al mundo de las finanzas. Era una época donde el triunfador yuppie exhibía un Porsche y el pelotazo era visto como algo normal. No existía Internet, tampoco teníamos móvil, pero ya se adivinada la revolución que suponía “controlar” de un ordenador.

Como digo, de aquello hace mucho tiempo y hoy, si rescatáramos aquella charla, nos sorprendería lo acertado de nuestro embriagado pronostico. A nadie escapa que, desde hace varias décadas, el freak técnico se ha encaramado a los rankings de los más poderosos, ricos e influyentes del mundo, y de ahí dudo que descienda. Todo lo contrario.

La revolución de Internet, y en general del ordenador personal, ha hecho posible la democratización de la tecnología. Casi cualquiera, con una buena idea y el suficiente respaldo (por supuesto, también de profesionales financieros), es capaz de proponer algo que de otra forma sería casi imposible. Esto significa que el control de la tecnología es un diferencial para progresar. Ya lo demostraron gente como Steve Wozniak, Bill Gates y Steve Jobs y, más recientemente, Jeff Bezos, Seguéi Brin, Larry Page, Mark Zuckerberg o Elon Musk. Es una constante que se repite.

Realmente, el núcleo diferencial de todas las empresas que comentamos: Apple, Microsoft, Amazon, Google, Facebook y Tesla, entre otros, es el dominio de la tecnología. Ellos inventan tecnología que les permite ser diferentes, mejores que el resto. En cambio, ese resto, empleamos la tecnología que ellos han inventado y que permiten que usemos. Podemos encontrar muchos ejemplos pero me centraré en el mundo de los datos. Ellos, por su naturaleza global (Internet) y para dar un mejor servicio al usuario, vieron que las todopoderosas bases de datos relacionales y los monolíticos ordenadores centrales, eran poco eficientes. Por esa razón inventaron o apadrinaron el uso de muchas máquinas, baratas y sencillas, conectadas entre sí formando un clúster. Por supuesto, para que esto funcionara había que meter mano en el sistema operativo y tunearlo a tu gusto. Así, el uso de Linux, tenía todo el sentido. Como escribía antes, las bases de datos relacionales han demostrado y demuestran, que son muy eficientes para acumular y recuperar cierto tipo de información muy tabulada. En cambio, en un entorno donde cada dato o atributo que define a un objeto o persona es diferente y estos, las personas, se cuentan por cientos de millones y están repartidos por todo el mundo, el concepto clásico de base de datos no escala bien, es decir, no crece al nivel que se espera.

Así nacieron las bases de datos NoSQL. Todos hemos oído hablar de Cassandra, Redix o MongoDB, por ejemplo. Es cierto que son herramientas accesibles y que cualquiera puede usarlas pero, si rascamos en sus orígenes, nos encontramos que han sido impulsadas por gente como Apache, VMWare, Facebook, Yahoo! o Google. Lo mismo sucede con el famoso Hadoop. Es decir, ya tengo una buena idea de negocio o de cambio “del mundo” pero, para llevarla a la práctica necesito crear una nueva tecnología. O al contrario: he creado una nueva tecnología que puede ser aplicada para este determinado negocio.

Lo anterior me lleva a pensar en el futuro de aquellas empresas, que aun siendo muy grandes y poderosas, intentan Trasformase Digitalmente y dejan la sensación de no conseguirlo plenamente. Sé que es un tema muy complicado y tiene muchos ángulos desde el que ser estudiado pero cabría pensar que, al carecer de ese liderazgo técnico, siempre van a ir un paso por detrás. Por supuesto que las herramientas están ahí, a su alcance, como para ti y para mí. Pero ellos solo usan lo que escapa de las patentes -e incluso del secreto- (de los tecnólogos). Tampoco, por ejemplo, son capaces de impulsar una Comunidad de Desarrolladores, un nuevo algoritmo para el análisis de datos, o un estándar y, carecen de la visión, espíritu y dinero para apostar en ideas que puedan parecer alocadas.

Datos, datos y más datos

marzo 8, 2018 on 3:45 pm | In análisis de datos, ciberseguridad, innovación, internet | No Comments

Hace unos días, en una intervención de Dimas Gimeno, presidente de El Corte Inglés, hablaba de la necesidad de equiparar a todos con las mismas reglas de juego, se refería, como es de suponer, a las empresas que están dando pequeños mordiscos al negocio tradicional de esta marca. También dejaba ver la necesidad de cambiar porque, queramos o no, los hábitos de los consumidores cambian y, como no, también se refirió al manido tema de los datos. Nos recordaba los 75 años de historia de ECI y de la experiencia que ello le confiere en “ese conocimiento del cliente”. Casi de igual forma se manifestaba Chema Alonso en la víspera del MWC, cuando desveló el significado de Aura. Nos contaba que ellos, Telefónica, tienen acceso a muchos datos porque llevan casi 100 años prestando servicio. Está claro que cada uno comenta cosas muy diferentes pero ambos hablaban de una realidad que está ahí, los datos.

Comerciar con los datos no es nuevo para nadie. Recordar cuando nos sentíamos importantes por ver nuestro nombre en las mastodónticas guías telefónicas… Menos ilusión hacía cuando empezábamos a recibir en nuestro domicilio publicidad no solicitada. ¿Cómo llega nuestro número de teléfono a una empresa de telemarketing? Mejor ni pensarlo… ¿De dónde salen nuestros datos? Si hablamos de empresas como ECI es similar: Cuando te haces una tarjeta de cliente o fidelización sueles estar «controlado». Aquellas tarjetas, que nacieron con el sano propósito de financiar la compra, pronto se usaron como un medio más de conocer nuestro patrón de consumo. Me olvidaba: Otros que saben mucho de datos son los bancos. Ellos conocen, de primera mano, cuales son nuestros  ingresos y gastos.

¿Qué ha cambiado?
Estos datos estaban antes de que naciéramos: Nuestro DNI, teléfono, dirección, ingresos, gastos y, como veíamos, la cesta de la compra. La aparición de Internet y el uso masivo del correo electrónico hizo que a esta lista de datos (digamos básica) se añadieran otros. Recordar, no tardamos en ser castigados con el molesto spam… Por otra parte, las comunicaciones en Internet, para que funcionen, requiere de una dirección IP única y, con todo el sentido, un administrador de un servidor web está interesado en conocer cuántos visitantes se cuelgan de su página. Así las cosas, irrumpen los buscadores cuya misión principal es hacernos la vida más cómoda en Internet. Ellos actúan de intermediarios entre nosotros e Internet. Conocen todo lo que buscamos y lo guardan en sus bases de datos. En un principio solo conocen nuestra dirección IP, que puede cambiar en cada acceso que hacemos, pero se cuidan de enviarnos una silenciosa piececita de software -o cookie- con la que nos identificamos (sin saberlo). Recordar que el uso de estas cookies es generalizado y no es exclusivo de un buscador. Ya nos tiene controlados y pueden modelar o dirigir nuestra navegación y atención como quieran. Más tarde nos regalaron direcciones de correo y espacio de almacenamiento y, lógicamente, nos teníamos que registrar y aportarles más detalles sobre nuestra identidad. Por último, se les ocurrió montar una red de conocidos dentro de Internet con la que podríamos compartir imágenes, textos o cualquier archivo multimedia. Esa red, para que funcione y sea eficiente, tiene que almacenar todo lo que queremos compartir. Es decir, son más datos vinculados con nosotros.

En modo alguno pretendo criticar o dirigirme contra esta industria pues, esta forma de funcionar, ha demostrado mejorar nuestra experiencia en Internet. También ha permitido innovar en campos donde parecía que todo estaba inventado y está iniciando una fuerte Trasformación, Digital por supuesto. Es cierto que esta Transformación está provocando que muchos sectores vean amenazada su posición o puestos de trabajo, y que el uso de cierta tecnología haga aumentar, exponencialmente, la riqueza de unos pocos en contra del desempleo de muchos. Creo que esta situación no nos conviene en una sociedad pues, a la larga, es mala para todos y tendremos o tenderemos a remediarla.

Tampoco nos conviene, como individuos, perder nuestra privacidad. Aunque nuestros datos estén ahí, no creo que a nadie de Google o Facebook le interese quien soy. A ellos les interesa el conjunto del que formo parte. Ellos usan nuestros datos analizándolos para entender o predecir que hacemos o que queremos. Parece ser que, incluso, pueden conocer un resultado electoral analizando la actividad previa en Twitter… En fin, para nuestro consuelo, hay que decir que muchas de las decisiones clave de estas empresas, incluidas las poner en marcha una nueva iniciativa, se toman analizando estos datos y es importante no olvidar que, aun así, se equivocan y fracasan, y algunos proyectos acaban en la basura por culpa su interpretación.

En cambio, sí me preocupa el uso criminal de esta información. Si los datos que almacena Facebook, LinkedIn, Apple o cualquier otro, caen en manos inadecuadas podemos encontrarnos con situaciones incomodas. Es importante recordar esto para que la próxima vez que nos suscribamos a una nueva plataforma o tarjeta de fidelización pensemos: ¿Si me doy de alta aquí y alguien “malicioso” se entera, en que me vuelvo vulnerable? ¿Alguien me puede atacar sabiendo el tipo de café que tomo?

Página siguiente »


© 1999-2025 A.G.YAGÜE - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress