Datos, censo y tabuladoras
enero 27, 2018 on 8:44 pm | In análisis de datos, colección, hist. informática | No CommentsAdolfo García Yagüe | El tratamiento de los datos no es algo reciente, ni siquiera es una disciplina nacida a la luz de los progresos de la Edad Moderna. Las civilizaciones de la antigüedad ya gestionaban datos. En las tablillas cuneiformes de Mesopotamia podemos encontrar datos de producción agrícola e impuestos. Los romanos, por su parte, ya eran conscientes de la importancia del empadronamiento de la población; y los chinos de hace miles de años mantenían un preciso registro astronómico. No obstante el punto de inflexión se produce a finales del Siglo XIX cuando se automatiza el cálculo y tratamiento de los datos.
En el Siglo XVII aparecen las máquinas de cálculo de Blaise Pascal (1623-1662) y Gottfried Leibniz (1646-1716). Estos ingenios permitían operaciones aritméticas de suma, resta, multiplicación y división. Será durante la siguiente centuria cuando el cálculo mecánico alcance su madurez de la mano de Charles Xavier Thomas de Colmar (1785-1870) y su aritmómetro aparecido el año 1822. Sin abandonar el XIX, gracias al infatigable Charles Babbage (1791-1871) y su inacabada obra, aparece el concepto de máquina programable. En este siglo también aparecerán las máquinas especializadas en cálculo algebraico como las de Leonardo Torres Quevedo (1852-1936). En este escenario de mecanización del cálculo, falta el complemento de los datos. La gestión mecánica de éstos fue consecuencia de la necesidad de acelerar el tratamiento del undécimo censo de EE.UU, en 1890. Con este fin fue convocado un concurso de ideas al que acudió Herman Hollerith (1860-1929), un empleado de la propia institución censal. Inspirándose en el telar programable con tarjetas perforadas de Joseph Marie Jacquard (1752-1834) y en la máquina de Babbage (también programable con tarjetas perforadas), propuso automatizar el recuento censal con una máquina a la que llamó tabuladora. La tabuladora se alimentaba de tarjetas perforadas en las que previamente un empleado del censo había transcrito a pequeños agujeros la información de las encuestas censales. De esta forma, cada tarjeta reunía los datos de un ciudadano: su sexo, procedencia, edad y estado civil, entre otros, e incluso algo impensable -y políticamente incorrecto- en nuestros días como la raza y las congregaciones religiosas. La tabuladora procesaba cada tarjeta detectando la presencia o no de un agujero y llevaba la cuenta de los perfiles del conjunto de ciudadanos.
Aquellas máquinas dieron paso un paso evolutivo al ser “fácilmente programables”. Esta programación aportaba flexibilidad para permitir usar la máquina para la tarea que deseáramos, por ejemplo en control de la producción, la planificación de horarios de trabajo o las nóminas. Es lo que conocemos como lógica cableada y en la colección podemos observar un módulo que permite la programación de una de estas máquinas. Rápidamente, las tabuladoras también se emplearon para realizar operaciones aritméticas convirtiéndose en el centro de cálculo de las grandes compañías.
Las tabuladoras dieron otro salto evolutivo con la introducción de la tubo de vacío. Aquel componente de cristal era frágil, pero muy silencioso en comparación con los resortes y ruedas dentadas. La era electrónica acaba de comenzar. Lógicamente, las tabuladoras no tardaron en ser totalmente electrónicas siendo más rápidas, fiables y protagonizando el punto final de la era mecánica.
En este momento, hacia la segunda mitad de los años cuarenta y principio de los cincuenta, aparecen los primeros ordenadores y con ellos el concepto de programa descrito años atrás por Babbage y Ada Lovelace (1815-1852), sin olvidar a Alan Turing (1912-1945). Es decir, sobre una máquina de propósito general, escribimos un programa donde se indica que hacer con los datos que vamos a introducir. Lógicamente, esta entrada de datos lleva implícita una salida de datos. Es lo que conocemos como Entrada y Salida (Input-Output o I/O). En aquellos primeros años, y hasta el comienzo de los años ’80, ese proceso de Entrada y Salida de datos se apoya en tabuladoras. En efecto, como podemos comprobar en alguna pieza de la colección, durante este (gran) periodo las tabuladoras se utilizan, por ejemplo, para imprimir recibos de impuestos. Por supuesto, también se utilizan para introducir programas en aquellos ordenadores. Este uso y método de I/O conformará una jerga que se ha venido utilizando durante años en informática, y se ha utilizado durante mucho tiempo para definir perfiles profesionales: Perforador (de tarjetas), grabador, programador, analista… Ahora, con lo rápido que va todo, sorprende comprobar que las tabuladoras hayan aguantado tanto.
La proliferación de los tubos de imagen (monitores), teclados y los soportes magnéticos hizo que careciera de sentido seguir usado máquinas de tarjetas o de tabular. Poco a poco se fueron desconectando y pasando a la historia, pero no olvidemos que se concibieron para automatizar y sacar conclusiones de toda la masa de datos que hay dentro de un censo. Es, en definitiva, el Big Data del siglo XIX.
Colección | Máquinas de Cálculo | El Aritmómetro | Inicios de la Industria Informática
Pasarela IoT de Telefónica Globalrider
julio 19, 2016 on 3:38 pm | In análisis de datos, globalrider, m2m, iot | 5 CommentsAdolfo García Yagüe | Afrontar el desarrollo y fabricación -en menos de 4 meses- de un dispositivo IoT en el que se integran 20 sensores es un pequeño reto. Si a este desafío añadimos la necesidad de que este elemento satisfaga los exigentes requerimientos que supone dar una vuelta al mundo sobre una moto de trail, rozamos la proeza. En este artículo queremos compartir con vosotros las claves de diseño que han hecho posible la conexión de la moto de Hugo Scagnetti.
Potencia y capacidad de proceso
Ante el reto de Telefónica Globalrider, el primer paso fue seleccionar un núcleo de proceso lo suficientemente potente para absorber el caudal de datos y contenidos multimedia que se generarían a lo largo de 37.000 kilómetros. Este micro también tenía que ser capaz de gestionar “holgadamente” los sensores y líneas de comunicación que de él dependen. Por último, la plataforma elegida, nos tenía que ofrecer un marco sencillo y flexible para poder desarrollar diferentes aplicaciones software. Estas y otras cuestiones han sido atajadas mediante el empleo de un SoC (System on chip) E3845 de la firma Intel Corporation. Este chip es el hermano mayor de una familia de procesadores basados en Atom pensados para su uso en dispositivos móviles y equipos IoT. El E3845 cuenta con cuatro núcleos trabajando a una frecuencia de 1,91GHz. En él también se integran los periféricos auxiliares para la gestión de entradas y salidas, gestión de memoria y tratamiento de vídeo. Es una pequeña bestia que nos aporta capacidad de proceso facilitando el objetivo de hacer inteligente a la moto.
Por poner un ejemplo de la inteligencia de la Pasarela IoT cabe destacar el análisis en tiempo real que hace de la velocidad e inclinación de la moto para predecir accidentes. Es decir, si la Pasarela identifica un patrón de caída, nos enviará un mensaje de alta prioridad alertándonos de un accidente inminente. Otro signo de inteligencia y capacidad es el tratamiento que se hace de todos los datos que captan los sensores, aplicando a cada dato muestreado una referencia temporal y posición GPS. Por último, es importante recordar, el importante esfuerzo de proceso que supone la adquisición de vídeos y fotos, su transcodificación, y posterior envío a través de redes de telefonía móvil de baja capacidad.
Como hemos dicho, el SoC Intel E3845 forma parte de una familia que integra como núcleo el microprocesador Atom. Como no podía ser de otra forma, este micro es heredero de la arquitectura x86 de Intel lo que facilita enormemente la portabilidad de desarrollos software previos. TELNET, como miembro de la IoT Solutions Alliance de Intel, ya fabrica y comercializa otras Pasarelas IoT para aplicaciones Industriales y Hogar Digital. Para ambos casos hemos recurrido al Atom E3815, menos potente pero 100% compatible a nivel software e incluso huella de pines.
Arquitectura Software
Los mayores quebraderos de cabeza de un sistema embebido están relacionados con el software, concretamente con el sistema operativo y los controladores o drivers. Si no se tiene pleno control sobre todo lo que está “corriendo” dentro de un sistema embebido, lo que en apariencia puede funcionarnos a la primera puede traicionarnos en cualquier momento y desencadenar una catástrofe, sin mencionar inadvertidos agujeros de seguridad. Esta es una de las razones por la que en TELNET nos gusta armar nuestra propia distribución de Linux a través de Buildroot o Yocto.
Sobre el kernel de la Pasarela IoT de Globalrider están ejecutándose seis gestores principales. Estos gestores administran agentes especializados en diferentes tareas: desde analizar la información que recogen los sensores hasta mantener la conectividad de Hugo o interactuar con la pasarela.
El Gestor de Supervisión o Supervisor Manager se responsabiliza de la administración del resto de Gestores y, a través de él, accedemos e interactuamos con la Pasarela. Este Gestor tiene competencia sobre el Display y los pulsadores de a bordo que representan la vía más cómoda y segura para interactuar con la Pasarela mientras la moto se encuentra en marcha. También nos ofrece un interfaz Web para facilitar la configuración avanzada desde un móvil o tablet. De igual manera este Gestor de Supervisión es la puerta de entrada remota a todo el sistema.
GPS Manager tiene responsabilidad sobre la citada conexión para conocer el posicionamiento de la motocicleta en todo momento. Este Gestor tiene que entregar al resto de gestores (Supervisor, Sensor y Camera) una referencia horaria UTC (Universal Time Coordinate) junto con la posición de longitud, latitud y altitud. Esta información será la referencia temporal y espacial que acompañará a los datos adquiridos por los sensores.
Los datos recogidos a través de los sensores son procesados por Sensor Manager. Dentro de este Gestor identificamos un agente especializado en cada sensor (bio, ambiental, giroscopio, acelerómetro, etc). Además de los datos reportados por los propios sensores, también será responsabilidad de este Gestor calcular la velocidad de la moto a partir de la información de posición GPS. Sobre todos los datos captados o calculados, Sensor Manager estampará una marca de tiempo y localización para “posicionar” cada muestra. Otra de las atribuciones de este Gestor tiene que ver con el análisis en tiempo real de los datos recogidos. Como comentábamos anteriormente, la Pasarela IoT de Globalrider dispone de un motor de reglas o políticas que nos permite identificar un patrón y desencadenar una alerta ante la inminencia de un accidente o cualquier otro evento. Por último Sensor Manager es el responsable de empaquetar los datos recogidos en archivos CSV (comma-separated values) para su posterior envío.
La naturaleza de los contenidos recogidos a través de la cámara de aventura nos obligó a programar un gestor específico para la gestión de la cámara y el tratamiento de fotos y vídeos: Camera Manager. En primera instancia este Gestor, a través del Camera Agent, se encarga del control remoto de la cámara. A continuación, a los contenidos captados, se les aplica la marca de tiempo y posición que establece GPS Manager. Más tarde, gracias a Transcoding Agent, podemos recodificar y comprimir los contenidos multimedia para adaptarlos al ancho de banda disponible. Con esta estrategia podríamos incluso recodificar para ofrecer un bitrate suficiente para hacer streaming a través de una conexión de bajo ancho de banda. Por último, dentro de Camera Manager también hemos habilitado un agente denominado Secure Loop. Éste, al entrar en servicio, funciona en modo bucle capturando pequeños fragmentos de vídeo y enviándolos inmediatamente a los servicios Cloud de Telefónica.
Upload Manager es un repositorio temporal donde se van almacenando los archivos CSV generados en Sensor Manager y los contenidos multimedia de Camera Manager. Además de esta atribución de almacenamiento, Upload Manager también se responsabiliza del correcto envío de todos los datos a través de una conexión segura lo que significa que tiene, entre otros atributos, capacidad para detectar errores de transferencia, gestionar reintentos, envíos parciales y cifrado. De igual forma, Upload Manager es capaz de priorizar envíos de alertas y vídeos de seguridad.
Para finalizar, mediante WAN Manager se administra la conectividad de la Pasarela IoT. Este gestor tiene competencia sobre la conexión M2M Global de Telefónica siendo capaz de conectarse a través de cualquier tecnología y servicio de telefonía móvil. Además, este gestor de conexión WAN, es capaz de establecer conexiones de respaldo a través de redes Wifi.
Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org
Análisis del clima, 10.000 kilómetros después
julio 5, 2016 on 1:57 pm | In análisis de datos, globalrider, m2m, iot | No CommentsAdolfo García Yagüe | Quienes estáis siguiendo el día a día de esta aventura, habréis apreciado que hace unas semanas se produjeron pequeños saltos en el itinerario de Hugo. Esto obedece a que tuvimos cortes esporádicos en la comunicación de la Pasarela IoT. Como sabéis la pasarela está permanentemente conectada y envía datos cada pocos segundos.
A partir del análisis de los datos recogidos por la Pasarela tenemos la sospecha de que existe cierta relación entre estas pérdidas de conexión con una deficiente cobertura móvil y un fuerte incremento de la temperatura. Los problemas se manifestaron en el momento en el que Hugo llegó a Kazajistán y Uzbekistán. Analizando los datos de temperatura recogidos en el interior de la Pasarela (microprocesador, etapa radio y un sensor en placa) hemos descubierto que cuando se alcanza una temperatura próxima a 65ºC, la exterior sobrepasa 43ºC, y además la cobertura es muy baja acontece el fallo. Trabajamos sobre la hipótesis de que la baja cobertura hace que la radio de la pasarela IoT eleve la ganancia de sus amplificadores para garantizar la comunicación. Como es normal, esta amplificación eleva la temperatura del conjunto de radio afectando a la tarjeta SIM. Todavía no lo sabemos con certeza, sólo han sido tres fallos y no hemos podido identificar un patrón claro.
Ante esta situación -que tiene difícil análisis a más de 10.000 kilómetros de distancia y en ruta- estamos coordinando con Hugo la sustitución de la Pasarela IoT a su llegada a San Francisco. Entretanto confiamos que durante su periplo ruso la climatología y la cobertura móvil sean más benévolas.
Aprovechando que hemos tenido que enfrentarnos a datos climáticos, ¿por qué no hacer un repaso del primer mes de Globalrider desde la perspectiva meteorológica?
Evolución de la temperatura
En el siguiente gráfico queda reflejada la evolución térmica durante los primeros 32 días. Para esta representación gráfica hemos recurrido a un mapa de calor. En este tipo de gráficos se asocia un color al valor de un dato o, como en nuestro caso, a la media aritmética de la temperatura registrada durante una hora. En este mapa destaca con gran claridad el cambio de temperatura que sufrió Scagnetti en su paso por Turquía (días 12 y 13 de junio) hacia Asia Central (a partir del día 20 de junio). A partir de aquí hubo días que registramos temperaturas por encima de 40 grados a la sombra. Es decir, el sol no incidía directamente sobre el sensor.
El mapa de calor también revela los momentos donde nuestra Pasarela IoT sufrió los efectos antes comentados: 13h del día 20, 11h del día 25 y 9h del día 26. Por último, los huecos en blanco, corresponden a momentos en los que la pasarela ha permanecido apagada sin registrar datos.
Humedad relativa y presión atmosférica, además de temperatura
El análisis anterior podemos enriquecerlo añadiendo los datos de humedad y presión atmosférica. Si además fuéramos capaces de medir la velocidad del viento y registrar las precipitaciones estaríamos a un paso de convertir a Hugo en “el señor del tiempo”. En efecto, estos cinco elementos definen el clima y su análisis es la esencia de la predicción del tiempo. Aunque nos gustaría, nosotros no somos capaces de llegar tan lejos y solo nos limitaremos a realizar algún razonamiento sobre climatología a partir de los datos que vamos recogiendo y procesando.
En la siguiente tabla hemos reunido los registros de temperatura, humedad relativa del aire y presión atmosférica. Para hacernos una idea del perfil del clima por cada día de travesía, presentamos el valor mínimo, máximo y calculamos la media.
Con permiso de los lectores más adelantados, antes de pasar a la interpretación de datos, haremos un pequeño repaso del concepto humedad relativa y presión atmosférica.
La humedad relativa del aire, como su nombre indica, es una variable con la que medimos la humedad del aire, ahora bien, esta medida es relativa a la temperatura. Esto significa que no podemos medir correctamente un dato de humedad relativa sin conocer la temperatura a la que se ha tomado la muestra. Para comprender esta relación debemos recurrir a la Física. Esta nos dice que una masa de aire a una temperatura alta es capaz de contener más agua en estado gaseoso que la misma masa de aire a una temperatura inferior. Por lo tanto la capacidad de “almacenar” vapor de agua (o humedad) en un volumen de aire viene determinado por la temperatura. Cuando esta masa de aire no puede almacenar más vapor decimos que se satura porque alcanza el 100% de su capacidad, produciéndose a continuación el fenómeno de condensación que se manifiesta en forma de lluvia, nieve, granizo, niebla, rocío o escarcha.
La presión atmosférica indica la fuerza que ejerce la atmosfera sobre la superficie terrestre. Se mide en milibares. Esta presión no es uniforme a lo largo y ancho de nuestro planeta y depende de factores como la altitud, latitud y la temperatura. Esto quiere decir que, en condiciones atmosféricas iguales, si estamos en lo alto de una montaña mediremos menos presión atmosférica que si nos encontramos a nivel del mar. De manera inversa la relación entre temperatura y presión demuestra que, a menor temperatura, la presión atmosférica se incrementa. Esto provoca que el aire tenga más densidad y tiende a descender hacia la superficie provocando una zona de alta presión o anticiclón. Por el contrario, el aire caliente, al tener menor densidad, se eleva lo que provoca que baje la presión generando una zona de borrasca. El viento es un fenómeno atmosférico que se origina por la diferencias de presión entre anticiclón y borrasca. Éste circula desde la zona anticiclónica hacia la borrasca.
Análisis descriptivo de tormentas
Con los datos recogidos por Hugo vamos a intentar identificar el desarrollo de una tormenta. Si revisamos la tabla anterior notaremos que la humedad relativa máxima de los días 27, 28 y 29 de mayo, así como la de los días 2, 5, 7, 12 y 27 de junio superan el 70%. Con mucha cautela vamos a tomar estos datos como un indicio de que esos días pudo suceder algo especial. Quiero insistir en la prudencia ya que una subida de la humedad relativa no tiene por qué estar exclusivamente relacionado con la lluvia. Como no somos meteorólogos necesitamos tener un elemento que constate si nuestras sospechas son correctas o no. Para lograr esta certificación hemos recurrido a la bitácora que mantiene Scagnetti en Facebook y en Twitter donde recoge los instantes más relevantes de cada día.
En efecto, parece que vamos por buen camino. Como podéis comprobar en el resumen anterior, a excepción del día 12, los días citados fueron lluviosos. Para profundizar en el análisis echemos un vistazo a alguno de esos días de lluvia. En este caso lo que queremos representar es la evolución de la temperatura y la humedad y, si existe, algún cambio apreciable en la presión atmosférica.
En día 5 de junio Hugo nos contaba que se detenía porque empezaba a llover. En el siguiente gráfico podemos ver que sobre las 16:30h detiene la moto (línea verde). La moverá un poco hacia las 17:10 y pasadas las 18h. Durante ese este tiempo de espera podemos apreciar como la temperatura (línea azul) experimenta un descenso pronunciado desde los 30ºC hasta los 20ºC en aproximadamente 30 minutos. Este descenso de temperatura coincide con un brusco incremento de la humedad relativa (línea naranja) que arranca en el 39% hasta alcanzar el 75%. Si afinamos un poco en el análisis nos damos cuenta que durante estos 30 minutos la presión atmosférica (línea gris) disminuye ligeramente 4mbr, desde los 984 a 980. Pasado este tiempo vuelve a 984mbr. En nuestra opinión se produce una tormenta que provoca el descenso de la temperatura unos grados. Parte del agua recién precipitada se convierte el vapor incrementando así la humedad relativa registrada.
Veamos ahora el registro del día 7.
Como evidencia el diagrama anterior, a partir de las 16:30h y en la media hora siguiente, se manifiestan fluctuaciones en la presión atmosférica que oscilan desde 1015 milibares hasta 980 (17h). El final de este ciclo de inestabilidad en la presión coincide con un fuerte incremento de la humedad relativa, subiendo desde 49% (17:08h) hasta 78%(17:24h). En paralelo a este fuerte ascenso de la humedad identificamos un descenso de la temperatura desde 25ºC a 21ºC.
Por último tomemos el día 27 de junio. Una vez más apreciamos la pauta descrita en días anteriores: Al final de un ciclo de inestabilidad atmosférica (de 13:30 a 14:40) destaca un fuerte incremento de la humedad relativa hasta alcanzar 97%. Simultáneamente a este ascenso de la humedad se produce un descenso de la temperatura desde 23 a 19ºC.
Como hemos podido comprobar, tras conocer los máximos de humedad relativa, hemos intuido en qué días se produjeron tormentas. A continuación, con la información facilitada por Hugo, hemos sido capaces de comprobar la veracidad de nuestras sospechas. El siguiente paso era conocer el desarrollo de la tormenta y como se expresaba ésta a través de los datos de temperatura, humedad relativa y presión atmosférica.
El desarrollo anterior encaja a la perfección en el estudio de los días 27, 28 y 29 de mayo y 2, 5, 7, 27 de junio. En cambio, el día 12 junio, donde la humedad máxima alcanzó el 70%, Hugo no dejó constancia de precipitaciones. Puede ser que este umbral no implique necesariamente lluvia, incluso es posible que Scagnetti no indicara que llovía.
Como no nos podemos quedar con esta duda, echemos un vistazo al día 12 (diagrama anterior). Salta a la vista que el momento de máxima humedad es a primera hora de la mañana, a las 9:30h, poco después de ponerse en marcha la Pasarela IoT. Esa humedad matinal y su relación con la temperatura corroboran que Hugo se encuentra en la orilla del Mar Negro y que lo que estamos “viendo” puede ser alguna neblina que levanta con la mañana.
Análisis predictivo de presión atmosférica y altura
Hasta ahora hemos visto algunos ejemplos de estadística descriptiva. Esta rama de la estadística, a partir del análisis de datos conocidos, nos ayuda a entender cómo funciona un fenómeno. Por su parte, la estadística predictiva, nos permite elaborar predicciones sobre datos desconocidos a partir de datos que conocemos. Como paso previo a la predicción necesitamos hacer un análisis de regresión sobre un amplio histórico de datos conocidos para descubrir si existe una relación matemática entre datos de diferente naturaleza (por ejemplo altura y presión atmosférica). A través de este análisis conoceremos cuál es el tipo de función de regresión o relación matemática entre estas dos variables: una independiente (altura) y otra dependiente (presión atmosférica). Por lo tanto, si existe esta relación matemática, estaríamos en condiciones de predecir el valor de la presión atmosférica cuando enfrentemos la variable altura a una función de regresión. Veamos un pequeño ejemplo.
En el diagrama superior, en el eje horizontal x, queda representada la altura. Esta será la variable independiente. En el eje vertical y indicamos la presión atmosférica, variable dependiente. Podemos distinguir, en forma de cuadrado azul, los datos conocidos de altura-presión recogidos por Hugo durante los primeros 10.000 kilómetros. Realmente la Pasarela IoT ha registrado muchos más datos de los que hay representados pero, por motivos prácticos de visualización, solo hemos presentado uno por hora. En total hay 780 cuadrados azules. Con ellos hemos confeccionado un gráfico de dispersión. El paso siguiente es enfrentar este gráfico de dispersión a diferentes funciones matemáticas (lineal, polinómica, logarítmica, exponencial, parabólica, etc) para ver cuál de ellas ofrece el modelo más preciso, es decir, con menor error. En nuestro caso vemos que una sencilla función lineal (línea naranja) expresa razonablemente bien la relación existente entre altura y presión: Menor altura, más presión. Nuestra herramienta de análisis nos ofrece la siguiente función para, en el futuro, predecir la presión atmosférica con solo conocer la altura. También nos advierte de un margen de error del 0,89% que, traducido en milibares, son 8,75656.
y = 1015,4861 – (0,1131 * x)
Somos conscientes de la obviedad del ejercicio anterior. Solo pretendíamos introducir de manera divulgativa el concepto de análisis predictivo a partir de los datos que estamos recogiendo en Globalrider. También nos ha permitido constatar que la presión atmosférica no solo depende de la variable altura, de ahí el error de la función.
Como podéis sospechar la predicción meteorológica recurre a este tipo de análisis para adelantarnos el tiempo que hará en los próximos días. Evidentemente, los meteorólogos manejan millones de datos recogidos de cientos de fuentes y cuentan con superordenadores para realizar los cálculos rápidamente. A pesar de todo, la naturaleza caótica de la atmosfera, reduce la fiabilidad de los modelos matemáticos más allá de una semana.
Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org
Monitorización de partículas contaminantes
junio 16, 2016 on 11:40 am | In análisis de datos, globalrider, m2m, iot | 1 CommentAdolfo García Yagüe | No todos los días alguien te ofrece un sitio en su moto para dar la vuelta al mundo. Cuando te enfrentas a una aventura como Globalrider, una de las cuestiones más difíciles es encontrar un punto de equilibrio entre el entusiasmo técnico por hacer algo insuperable y lo que es materialmente realizable, con garantía de éxito. En el caso de las funcionalidades y atribuciones que debía tener la Pasarela IoT este dilema nos ha acompañado hasta una semana antes de que Hugo partiera desde Distrito Telefónica. Como comentaremos en próximos post, esta es la razón por la que, a última hora, descartamos mantener la conexión CAN Bus con la centralita de la moto o, como es el caso que nos ocupa, incluir sensores para detectar el grado de contaminación.
En las especificaciones iniciales no se contempló monitorizar los niveles de Dióxido de Carbono (CO2) y Compuestos Orgánicos Volátiles (VOC). La idea surgió sobre la marcha, en los últimos días de desarrollo. El planteamiento fue el siguiente: La motocicleta, como vehículo a gasolina, es contaminante. Además circulará en carreteras de medio mundo y atravesará ciudades y zonas industriales ¿Por qué no medir la huella de estas sustancias? En este punto es importante matizar que tomaremos registros de CO2 y VOC en el entorno de la motocicleta, circulando próxima a otros vehículos. Es decir, lo que vamos a ver es la estela de contaminación que existe a lo largo de carreteras y autopistas. Esto quiere decir que si Hugo circula en un atasco, tiene delante un camión “quemando” aceite o, incluso, la moto está parada pero con el motor encendido apreciaremos niveles (muy) altos de las citadas sustancias.
Sobre CO2 y VOC
El CO2 es un gas esencial para la vida en la tierra y antes de la primera Revolución Industrial el ciclo del dióxido de carbono se encontraba en equilibrio. A grosso modo, los animales inspiramos oxígeno y exhalamos CO2, mientras que las plantas, a través de la fotosíntesis, absorben CO2 y generan oxígeno. Como decimos, el equilibrio era perfecto hasta que entró en escena la industrialización que, como todos sabéis, era dependiente de la combustión del carbón y el consumo de madera. Por un lado generábamos toneladas de CO2 “no presupuestadas” por Gaia y, si esto no fuera suficiente, el desarrollo industrial y urbano demandaba miles de toneladas de madera dando origen a una deforestación sin precedentes. Así las cosas, este exceso de CO2 en nuestra atmosfera origina el famoso efecto invernadero que tiene, como consecuencia directa, el cambio climático.
Al igual que vinculamos la Revolución Industrial con el inicio del desequilibrio en el CO2, el momento en el que empiezan a despuntar los niveles de VOC se sitúa en la incorporación de procesos químicos a nivel industrial. Más concretamente en aquellos procesos industriales donde se utilizan disolventes orgánicos como el benceno, etanol, acetona, anilinas o el tetracloruro de carbono, entre otros. Por otro lado también se producen VOC durante la combustión de gasolina, gasoil, gas natural, carbón y madera. El tercer grupo generador de VOC tiene un carácter “más natural” pero no menos perjudicial, ahí aparece el gas metano generado en los procesos naturales de descomposición de materia orgánica, en particular en las “emisiones” de las vacas. El hecho es que hay más de mil Compuestos Orgánicos Volátiles y algunos de ellos son realmente malos para la salud, además de que son precursores del ozono troposférico (un potente oxidante) y destructores de la capa de ozono (si, esa que nos protege de la radiación ultravioleta). El sensor VOC que hemos incorporado a esta aventura detecta las siguientes sustancias:
- Hidrocarburos aromáticos
- Hidrocarburos alifáticos
- Gases licuados del petróleo
- Monóxido de carbono
- Aminas
- Alcoholes
- Aldehídos
- Cetonas
- Metano
- Ácidos orgánicos
Manos (y datos) a la obra
Al igual que en ejercicios anteriores vamos a visualizar cual ha sido de presencia de CO2 y VOC el pasado 27 de mayo. Para los recién llegados recordar que ese día Hugo partió desde Madrid y llegó a la frontera francesa. En este primer análisis vamos a identificar ciertos patrones de comportamiento relacionados con la velocidad de la moto, el arranque de esta y la relación de las partículas en estudio en la proximidad de ciudades.
En el gráfico anterior se aprecia con claridad cierta correspondencia entre ciudades importantes y los niveles de CO2. Tras correlar estas “crecidas” de CO2 con la ruta que siguió Hugo hemos identificado sin dificultad las localidades de Tres Cantos, Colmenar Viejo, Aranda de Duero, Burgos, Miranda del Ebro y Vitoria. Hay que decir que Scagnetti no ha visitado ninguna de estas ciudades, únicamente ha circulado por la periferia. Normalmente, en la periferia de los núcleos urbanos, hay mayor densidad de tráfico pesado y están situadas las zonas industriales.
Otro evento que ha quedado registrado en el diagrama de arriba es la parada que hizo Hugo en el puerto de Canencia. Ahí vemos un “pico” de VOC y CO2 que está relacionado con el arranque de la moto. El conjunto sensor de VOC y CO2 se ha situado de tal forma que no esté expuesto al tubo de escape de la Super Tenere, no obstante, cuando Hugo arranca, antes de soltar el embrague una nube de partículas de CO2 y VOC son detectadas por el sensor. Tras Canencia, en las siguientes dos horas y media, se vuelven a apreciar cinco “picos” con un aspecto similar. Algo parecido sucede cuando la moto circula a baja velocidad. Esto sucede cuando Hugo se encaminó hacia la Ayllón. En este periplo fotográfico Hugo rodó a baja velocidad e hizo varias paradas. En este espacio de tiempo, cuando la moto va despacio, el sensor no se ventila lo suficiente y detecta las propias emisiones.
A la altura de Aranda de Duero vemos que los totales de partículas experimentan un incremento. Esta progresión se repite en las proximidades de Burgos, Miranda del Ebro y Vitoria. En este tramo del viaje nos ha llamado la atención otro pico de CO2 antes de las 18h. Este evento coincide con una parada que hizo Scagnetti en la estación de servicio de Oquillas. En el siguiente diagrama se aprecia que poco antes de las 17:20, Hugo desaceleró hasta prácticamente detenerse (línea marrón). Rodó a muy baja velocidad por la estación de servicio y estiró las piernas hasta que a las 17:57 (flecha roja señalizando nivel CO2 en línea azul) metió gas y soltó embrague.
En los diagramas previos hemos comprobado el ciclo de emisiones del primer día superpuesto a la ruta seguida. También hemos identificado como afecta la velocidad de la motocicleta a la detección de partículas. Ahora bien, hay un dato más importante que subyace en este análisis y tiene que ver con los niveles mínimos de CO2 y VOC. Estos niveles mínimos o línea base siempre están ahí, independientemente de que la moto esté apagada, parada con el motor en marcha o circulado a toda velocidad, o que incluso hayamos registrado medidas erróneas o espurios. En la siguiente representación gráfica hemos querido destacar esos niveles mínimos de CO2 y VOC.
Desde el año 2013, los niveles de CO2 han rebasado la barrera de las 400 partes por millón. Teniendo en cuenta que estas emisiones están creciendo anualmente, lamentablemente, los datos recogidos no van desencaminados. Respecto a las partículas VOC, podréis comprobar que a lo largo del itinerario del día 27 se aprecia cierta relación con los niveles CO2, especialmente en las arrancadas de la moto. No obstante, en el diagrama anterior también se aprecia una línea base de los niveles VOC que no desciende de las 450 ppm. Recordar que esta es la suma de las distintas partículas que es capaz de medir el sensor. Siendo este el análisis más detallado al que podemos llegar.
Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org
Humblodt, Scagnetti y la Meseta Ibérica
junio 15, 2016 on 10:48 am | In análisis de datos, globalrider, m2m, iot | No CommentsAdolfo García Yagüe | Actualmente pocos sabrían decir quién fue Alexander von Humblodt (1769-1859). Menos aún que durante su estancia en España en 1799 descubrió la meseta de la Península Ibérica. En aquel año Humblodt iba camino de Barcelona para embarcarse rumbo a la costa argelina. Esta era su intención inicial al adentrarse en tierras españolas pero, en su inquieta cabeza, también le rondaba la idea de cambiar de destino, dirigir sus pasos al continente americano y allí hacer un gran estudio científico sobre el clima, la geografía, fauna y flora. Para esta vasta misión necesitaba la obtención de un salvoconducto de la Corona Española, lo cual a su vez exigía un nivel de contactos nada fáciles de conseguir. Pues bien, nuestro admirado Humblodt se valió de su prestigio como inspector de minas, contactos con el mundo de la ciencia y una hábil gestión de las relaciones personales para abrirse camino hasta el mismísimo Rey Carlos IV.
Humblodt, además de viajero infatigable, fue un individuo con un dominio extraordinario de numerosos campos del saber entre los que se encuentran la botánica, zoología, geología, geografía y astronomía. Esta actitud científica la combinó con un profundo espíritu humanista y dotes diplomáticas. Quizás el mejor resumen de la grandeza de Humblodt queda reflejado en la carta que escribió con 65 años a su amigo Karl August Varnhagen. En ella afirmaba “Tengo la disparatada idea de plasmar en una sola obra todo el universo material, todo lo que hoy en día sabemos de los fenómenos de los espacios celestes y de la vida terrestre, desde las nebulosas estelares hasta la geografía de los musgos en las rocas de granito, con un estilo vivo que causará deleite y cautivará la sensibilidad […] Ahora mi título es Cosmos”.
La citada estancia en España apenas duró 6 meses, de enero a junio del 1799. Tras descartar el viaje a África su prioridad fue la obtención de los salvoconductos. En esos meses Humblodt no descuidó su curiosidad científica y fue recopilando datos barométricos de toda la Península para establecer el perfil topográfico de esta. Solo se limitó a reunir datos y a tratarlos, obviamente no tuvo tiempo de realizar trabajo de campo a lo largo y ancho de la Península para el registro de medidas. No obstante, cuando aquellos datos fueron transformándose en imágenes, Humblodt no tardó en llegar a la conclusión de que en España existía un fenómeno topográfico singular que describió con estas palabras “En el extremo más occidental de Europa, bañado por el mar por tres lados, se eleva el altiplano de España, una verdadera meseta, de 2.200 pies parisienses de altitud casi ininterrumpida y que abarca 4.200 leguas cuadradas geográfica. Tal fenómeno geognóstico es extremadamente raro en nuestro continente, pues, aunque también en el sur de Alemania las mesetas bávaras y suaba alcanzan 1560 y 900 respectivamente, esas regiones alemanas no forman un todo cerrado y están parcialmente surcadas por anchas depresiones y cuencas fluviales”
Transcurridos más de 200 años desde la estancia de Humblodt en tierras españolas, nuestro “viajero monitorizado”, Hugo Scagnetti, nos ofrece otra instantánea de la meseta ibérica en su recorrido desde Madrid hasta más allá de la frontera de Irún.
Gracias a los datos de altitud proporcionados por su GPS es fácil trazar la ruta que ha seguido. Una vez que tenemos los datos, además de una representación sobre un mapa es interesante conocer el perfil topográfico del itinerario de ese día para identificar singularidades o corroborar que todo está funcionando como se espera. Aquí es donde viene lo divertido de trabajar con los datos…
En la representación topográfica anterior se evidencia con toda claridad una parte de la meseta que tanto llamó la atención de Humblodt. De igual forma salta a la vista el paso de Hugo por el puerto de Canencia (primera flecha del gráfico) que está a una altura sobre el nivel del mar por encima de los 1500m, en la Sierra de Guadarrama. Su travesía a través del Canencia dura 15 minutos aproximadamente. Desde ahí, Scagnetti desciende por la carretera M-629 y la M-604 hasta Lozoyuela donde se incorpora a la autovía del Norte.
La siguiente subida importante es el paso de Somosierra que está por encima de los 1400 metros y queda reflejado a las 13:19h con toda claridad en el segundo pico de la gráfica.
Sin gran esfuerzo deductivo la representación gráfica de los datos de altitud ilustra a la perfección que el descenso de la meseta se produce tras cruzar Burgos. Hasta aquí todo discurre según lo esperado hasta que a las 20:35h topamos con una llamativa singularidad. En ese instante el GPS nos indica una altitud de 137 metros por debajo del nivel del mar. Es decir, una depresión geográfica. Desde luego existen depresiones geográficas (ver enlace en Wikipedia) pero no es algo común, y menos de 137 metros. Algo está fallando.
No hay problema. Como podemos jugar con los datos a nuestro antojo, lo que vamos a investigar es en qué punto del viaje está esa “magnífica” depresión digna de ser registrada en Wikipedia…
Oh, sorpresa. No se trata de una depresión geográfica, es una estación de servicio cubierta a la altura de Hernani donde Hugo se detuvo a repostar y a estirar las piernas. Aquella parada hizo que nuestra unidad GPS perdiera precisión durante unos minutos.
Nos despedimos recordando que Humblodt partió hacia América el 5 de junio de 1799. En este viaje visitó Caracas, La Habana, Bogotá, Guayaquil, Lima, Quito, México, Filadelfia y Washington. En su visita a EE.UU. llegó a ser huésped del presidente Thomas Jefferson; y Simón Bolivar se refería a él como «el descubridor científico del Nuevo Mundo, cuyo estudio ha dado a América algo mejor que todos los conquistadores juntos».
Humblodt trabajó en Cosmos como si se tratara de una carrera contra la muerte. El primer volumen llegó en 1845, cuando tenía 76 años de edad, el segundo a los 78. La tercera entrega la terminó a la edad de 81, y la cuarta cuando tenía 89. En el último año de su vida solo pudo completar la mitad del quinto volumen, que sería finalizado a partir de las notas que dejó escritas. Cosmos pasaría a la historia con el subtítulo “Ensayo de una descripción física del mundo”.
Por su parte, mientras discurre su viaje, Hugo Scagnetti también está reuniendo todas sus experiencias con las que producirá una serie de documental que, sin lugar a dudas, también pasará a la historia.
Os recordamos que este proyecto tiene un fin solidario; obtener fondos para la investigación de la enfermedad de Perthes en niños. Os animamos a hacer una pequeña donación desde la web de Globalrider para que el esfuerzo de todos tenga el resultado esperado.
Puedes hacer el seguimiento de esta aventura en: https://telefonica.yamaha.globalrider.org
Una misteriosa parada con susto incluido
junio 10, 2016 on 10:03 am | In análisis de datos, globalrider, m2m, iot | No CommentsAdolfo García Yagüe | Tras dos semanas en las que Hugo Scagnetti ha cruzado Europa y está a punto de internarse en otro continente, es un buen momento para iniciar el repaso de algunos eventos de su travesía a través del análisis de datos. Como sabéis la moto de Hugo va equipada con una Pasarela IoT desarrollada por la empresa aragonesa TELNET Redes Inteligentes.
Este “dispositivo embarcado” ha sido diseñado para soportar el duro entorno de trabajo que supone ir a lomos de una moto de trail alrededor del mundo. La Pasarela IoT, como su nombre indica, hace la intermediación entre las medidas que toman distintos sensores con los que se ha equipado la motocicleta (y a Hugo) y los servidores de Telefónica. Para esta comunicación la pasarela se vale de las redes de telefonía móvil que encuentra en su itinerario. En condiciones normales de cobertura móvil la pasarela envía un paquete de datos cada pocos segundos a través de los servicios de conectividad global M2M de Telefónica. Además de las medidas de los sensores, la Pasarela IoT también almacena, procesa y envía fotografías y clips de vídeo que Scagnetti va tomado durante la marcha. Por último, la pasarela tiene configurado un conjunto de alertas que nos permiten conocer si la moto, por su velocidad y grado de inclinación, está a punto caer. Si desgraciadamente se produce la caída y Hugo no logra o no se encuentra en condiciones de levantar la moto, recibimos otra alarma que activa los protocolos de asistencia.
Antes de continuar permitirnos enumerar los datos que está registrando la Pasarela fabricada por TELNET. Hemos agrupado estas medidas por su tipología y/o dispositivo encargado de su registro:
- GPS
Velocidad
Altitud
Ángulo de acenso - Giróscopo y acelerómetro
Rumbo
Aceleraciones en x, y, z
Ángulo de inclinación
Magnetómetro - Meteorológico
Temperatura
Presión atmosférica
Humedad relativa - Ambientales
Dióxido de carbono (CO2)
Compuestos orgánicos volátiles (VOC) - Biométrico
Pulsómetro
Monitorización atención y estado emocional - Conectividad móvil
Calidad de cobertura
Tipo de red móvil
Datos cursados subida y bajada
Como decíamos al comienzo de este texto, a través de este blog y en sucesivas entradas vamos a ir analizando algunos datos que nos han parecido interesantes, curiosos y, en algún caso, simpáticos. Queremos dejar claro que este análisis lo hacemos con la única pretensión de divulgar circunstancias o fenómenos (muchos de ellos obvios) a través de los datos. No somos expertos en geografía ni medioambiente. Tampoco controlamos de electrofisiología o meteorología. Solo somos gente curiosa que se enfrenta a unos datos a través de unas herramientas de análisis. Para este propósito tomaremos prestadas las herramientas de análisis desarrolladas por nuestros compañeros de Energy Minus +. Ellos han desarrollado una plataforma de análisis llamada EMIOS que en origen ha sido concebida -y es utilizada- para analizar el consumo eléctrico pero que es capaz de tratar cualquier dato. Manos a la obra.
Vamos a empezar con la misteriosa parada que Hugo realizo a las pocas horas de partir desde Madrid. Esta parada no estaba planificada. En la siguiente representación gráfica vemos que hacia las 15:42 la velocidad de la moto desciende hasta detenerse (línea azul). En los siguientes minutos se aprecia como el grado de atención de Hugo crece (línea naranja). En ese momento su ritmo cardiaco (línea marrón) presenta pequeños altibajos oscilando entre las 120 ppm y las 100 ppm hasta las 15:57, donde se dispara a 142 pulsaciones por minuto (la flecha roja señala el momento exacto del susto que le pegan al pobre Hugo).
Segundos después su ritmo cardiaco baja gradualmente hasta situarse ligeramente por encima de las 100 ppm. Vemos que esa bajada de sus pulsaciones coincide con un periodo “emocional” en el que se aprecian importantes variaciones (línea naranja). Está tranquilo pero algo está captando toda la atención de Hugo. ¿Habrá pinchado? ¿Una avería inesperada? ¿Una mala noticia? Todos tranquilos porque a las 16:24 vuelve a la carretera.
Aquel evento inesperado no fue grave pero si importante y emocionante: Hugo recibió la llamada de Su Majestad el Rey Don Felipe VI. Solo quería desearle mucha suerte, mostrarle todo su apoyo y desearle buen viaje.
En este pequeño análisis hemos recurrido a los datos biométricos de Hugo así como de velocidad de la motocicleta. Si eres aficionado al running tecnológico estarás familiarizado con aplicaciones que presentan velocidad y ritmo cardiaco juntos. Hasta aquí no hay nada nuevo. Lo más relevante es la integración de estos dos datos junto con el nivel de atención y emoción. Para este propósito Scagnetti cuenta con un guante desarrollado por la firma palentina Sociograph Neuromarketing que mide la respuesta galvánica o conductancia de la piel. En la cultura popular tenemos un ejemplo de un dispositivo que utiliza el mismo principio de funcionamiento: El detector de mentiras.
Puedes hacer el seguimiento de esta aventura en: https://telefonica.yamaha.globalrider.org
Globalraider. Comienza la aventura
mayo 25, 2016 on 6:20 pm | In análisis de datos, globalrider, m2m, iot | No CommentsHoy se ha presentado Globalrider ante los medios. Cuando apenas quedan unas horas para que comience la aventura, Hugo Scagnetti ha compartido los detalles y motivaciones de su vuelta al mundo. Además de periodistas, a su lado estaba parte del equipo de Telefónica implicado en el proyecto. También acompañó a Hugo una representación del personal médico que le ha tratado durante estos años.
Por delante tiene más de 37.000 kilómetros. El viaje se inicia en Madrid, el 27 de mayo, desde la sede de Telefónica. De ahí hasta el sur de Francia. A continuación Hugo recorrerá la costa francesa hasta Italia. En Roma hará una parada donde tendrá una audiencia con el Papa. Proseguirá su camino hasta Bari para embarcarse rumbo a la costa Griega. De Grecia a Turquía. A partir de este país comenzará la etapa más dura y delicada del viaje: Georgia, Azerbaiyán, Kazajistán y Uzbekistán y un largo recorrido por Rusia hasta llegar a Vladivostok.
Cuando llegue al lejano oriente ruso todos respiraremos tranquilos, habrá pasado lo peor. El siguiente salto es Corea del Sur. Desde el país asiático volará a San Francisco. Su periplo por Estados Unidos incluye, por supuesto, rodar por la Ruta 66. Será un buen momento para disfrutar y saborear los buenos recuerdos acumulados durante el viaje. En este punto Hugo tendrá más kilómetros a sus espaldas que camino por delante. Scagnetti tiene previsto salir de EE.UU. desde Florida con dirección al Reino Unido. Desde allí Francia, Barcelona y Madrid.
En la retaguardia velaremos noche y día para conocer el estado de Hugo y asegurarnos de que todo va bien. Recordar que viaja solo. Desde TELNET tendremos conexión permanente con la Pasarela IoT que hemos desarrollado para este proyecto. Además de conocer su posición exacta, tendremos información precisa de las constantes vitales de Scagnetti. También recibiremos cualquier evento relacionado con la dinámica de la conducción, incluyendo accidentes. Todo en tiempo real.
Podéis seguir el desarrollo de la aventura en Telefonica.Yamaha.Globalrider.org
¡Suerte Hugo!
Globalrider, la vuelta al mundo en 80 días de una moto conectada
febrero 15, 2016 on 1:15 pm | In análisis de datos, globalrider, m2m, iot | No CommentsAventura y tecnología, con estos dos ingredientes Julio Verne creó un universo de historias que aun hoy, más de 100 años después, siguen emocionándonos. Verne nació en Francia, en 1828, cuando la primera Revolución Industrial empezaba a concluir. Aquella Revolución demostró como tecnología y ciencia impulsan el progreso de la humanidad. Para Verne aquello que estaba sucediendo no pasaba desapercibido y con su imaginación fue un paso más allá, llevando al límite las posibilidades tecnológicas y científicas, y los dilemas que de ello derivan. Así nació el género literario de la ciencia ficción. Aunque la novela La vuelta al mundo en 80 días no encajaría el citado género, en ella se pone de manifiesto el avance de los medios de transporte, en particular en ferrocarril y el barco de vapor; el telégrafo como medio de comunicación y, como no, la medición del tiempo con precisión. Tecnología al servicio de algo que en otro tiempo resultaría imposible imaginar: dar la vuelta al mundo en menos de 3 meses.
Con el mismo espíritu aventurero y tecnológico, Hugo Scagnetti, empleado de Telefónica, pretender dar la vuelta al mundo en 80 días a bordo de una motocicleta. La novedad reside en que en esta moto se han integrado, por primera vez en la historia, un conjunto de tecnologías IoT que nos van a permitir hacer un seguimiento en tiempo real de la aventura y el entorno que rodea a esta, así como el estado del piloto. Para ello en TELNET Redes Inteligentes hemos desarrollado una Pasarela IoT provista de más de 20 sensores y un sistema de comunicaciones que nos mantendrá conectados a Hugo en todo momento.
Un proyecto solidario
Scagnetti, tras sufrir una importante lesión en ambas piernas hace dos años provocada por una necrosis avascular, prometió que, si conseguía volver a caminar sin muletas, daría la vuelta al mundo con un objetivo: recaudar fondos para apoyar la labor de los centros de investigación científica en el campo de la regeneración de tejidos en niños con células madre. Estos fondos procederán de donaciones particulares, el patrocinio del proyecto y los derechos generados por una serie documental que Movistar + producirá sobre la aventura de Hugo y Globalrider.
Puedes seguir la aventura de Hugo en Telefonica.Yamaha.Globalrider.org
Las tecnologías IoT dentro de la industria conectada 4.0
noviembre 20, 2015 on 5:38 pm | In análisis de datos, innovación, m2m, iot | 1 CommentEs un orgullo haber participado, aunque sea de refilón, en el estudio que ha elaborado Price Waterhouse Cooper por encargo de la prestigiosa Escuela de Organización Industrial, EOI, sobre el estado actual y proyección de la Industria 4.0 e Internet de las Cosas. Desde Energy Minus +, una compañía del Grupo Telnet, estamos convencidos de la necesidad de modernizar y “digitalizar” el tejido industrial para lograr ser más productivos y competitivos. A nadie escapa que Europa necesita reindustrializarse como vía para generar empleo, y proteger el existente. No es una tarea fácil ni exenta de polémica. Hay respetables expertos que opinan que la adopción e implantación de la Industria 4.0 provocará la destrucción de empleos. Quizás, en parte, estén en lo cierto. En todo caso, de lo que sí podemos estar seguros, es que nuestros competidores no dudarán en avanzar en esa dirección. La Industria 4.0, como toda revolución, ha venido para quedarse y desplazar a lo actual, nos guste o no.
El gran reto, más allá de hablar de dispositivos conectados o robótica colaborativa, es preparar a la sociedad para lo que se nos viene encima. Puede sonar dramático pero para muchos trabajadores ya no hay posibilidad de adaptación. Quizás, con suerte, su vida laboral no se vea muy alterada por la irrupción de los cambios que se avecinan. La gran responsabilidad la tenemos con la gente joven. Tenemos el deber de prepararles YA. Las Administraciones Púbicas, el estamento político en general y las instituciones docentes tienen el deber de modernizar los planes de estudio y destinar fondos económicos para dotar de los medios de estudio adecuados a los jóvenes de hoy.
La Industria 4.0 es un apéndice más de la famosa Transformación Digital que estamos viviendo en todos los sectores de nuestra sociedad. Tiene cosas buenas y malas, y como decía antes tenemos pocas opciones para decidir. No seamos ingenuos. No vamos a tener una Transformación Digital a la carta. Tampoco malgastemos fuerzas en revelarnos. Si nuestra generación no puede adaptarse tenemos que destinar todos nuestros esfuerzos y recursos en ayudar a que las generaciones venideras lleguen adaptados al mercado laboral y aprovechen las nuevas oportunidades, que las hay y las habrá.
Volviendo al estudio, en él encontrarás un amplio repaso de conceptos y tecnologías sobre el tema, poniendo el acento en Internet de las Cosas. Este estudio complementa y va un paso más allá del publicado por PwC en 2013 con el título Claves de la competitividad de la industria española. En mi opinión, para completar la foto, sería necesario un estudio profundizando en los aspectos robotización, colaboración hombre-máquina e inteligencia artificial. Ahí lo dejo…
Participación en el estudio Industria 4.0 de PwC
julio 12, 2015 on 4:42 pm | In análisis de datos, m2m, iot | 1 CommentAdolfo García Yagüe | En la elaboración del estudio sobre Industria 4.0 de PwC por encargo de la EOI, tuve la oportunidad de colaborar trasladando mi opinión algunas interesantes cuestiones. Os las dejo por si a alguien le sirven de algo.
¿Cómo ve a España posicionada en IoT e Industria 4.0? ¿Qué roles han de adquirir grandes empresas, operadores, centros de investigación, administraciones y pequeña empresa para llegar al éxito?
Considero que fuera de los grandes grupos industriales que están presentes en nuestro país (automóvil, principalmente) el concepto Industria 4.0 aún está lejos de ser entendido y, por supuesto, adoptado por la PYME industrial española. A mi entender las razones son varias y tienen que ver con la “estanqueidad digital” existente entre los diferentes actores presentes en la cadena de valor. No hay que olvidar que la mayor parte de las veces estos actores pertenecen a la misma organización. A continuación desarrollo esta idea.
Hoy en día la mayor parte de la industria tiene automatizados sus procesos de producción. Desde hace años los autómatas y scadas están en primera línea del proceso fabril, existe por lo tanto cierto grado de digitalización de la fábrica. Ahora bien, rara vez esta isla digital está interconectada con otros procesos más allá del puramente productivo y de mantenimiento. A su vez la gestión de materias primas implicadas en la fabricación, entre las que no hay que olvidar la electricidad, el gas y el agua representan un archipiélago de procesos poco interconectados y monitorizados. Por último, por simplificar, nos encontramos el área más “avanzada en la digitalización” que podría ser la gestión del negocio. Allí, por pura necesidad, saben mucho de bases de datos de clientes, pedidos y stock pero poco de todo lo demás. Desde mi experiencia profesional, cuando hablo con clientes de estos temas les pregunto lo siguiente: ¿En su coste de fabricación sabría decirme cual es el coste energético de producto A, B o C? Esta pregunta tan sencilla de formular solo puede ser respondida -con precisión- si somos capaces de monitorizar el consumo eléctrico de cada máquina implicada en la fabricación del producto A y relacionar esta información con los datos de producción procedentes de los autómatas. Existen decenas de ejemplos similares a este pero este, quizás, es el más evidente y fácil de entender.
A la “estanquidad digital” citada anteriormente hay que añadir otros factores relacionados con el mercado y la oferta tecnología: Sensores, dispositivos de pasarela, tecnologías de comunicación, seguridad y motores para el tratamiento de datos son elementos esenciales en el desarrollo de proyectos IoT e Industria 4.0. (Intencionadamente -por simplificar- no cito todo lo relativo a robotización) pero ¿Cuál elijo? ¿Cómo lo integro en mis procesos producción y negocio? ¿En qué estándares me apoyaré? Hoy en día hay sensores para medir casi de todo. De igual forma tenemos a nuestro alcance decenas de protocolos de comunicación para conectarnos a ellos y, como no, podemos -si queremos- desarrollar nuestro propio motor de análisis o recurrir a servicios de terceros como Microsoft Azure y AWS. Dicho lo anterior ¿cómo traslado esta oferta de tecnologías a algo concreto que aporte valor? Desde mi punto de vista esta es otra de las barreras para la rápida adopción de Industria 4.0: en los clientes hay cierta confusión y es necesario clarificar el itinerario a seguir garantizándoles hitos con beneficios tangibles.
En lo relativo a ¿Qué pueden hacer las grandes empresas, operadores, centros de investigación, administraciones, pequeñas empresas para llegar al éxito? Mi respuesta es que hagan lo saben y les corresponde. Personalmente no creo que una u otra tecnología deba ser tutelada, tampoco tengo la certeza de que esto sea una garantía del éxito. Empezando por el nivel más bajo, las administraciones públicas deben actualizar los planes de estudio (y dotar de medios) desde IES hasta la Universidad para adecuarlos a las nuevas tecnologías. También puede ser interesante que la AA.PP. (Ministerio de Industria) ponga en marcha iniciativas tipo “Observatorio Industria 4.0”. Este espacio, además de Observatorio para conocer la evolución de la tecnología debería ser un Faro que sirva de referencia a Gerentes de las empresas, Ingenieros, Técnicos y sociedad en general. A través de este Faro/Observatorio se podría conocer:
- Tecnologías disponibles
- Atributos para considerar a una empresa Industria 4.0
- Casos de estudio de empresas 4.0
- Grado de adopción de tecnologías Industria 4.0 en España
- Espacio neutral para intercambiar experiencias entre empresas, etc…
Por último, siempre es una ayuda que la AAPP apoye la innovación a través acceso a créditos de bajo interés o incluso subvenciones con control y sentido común.
Por la parte de Operadores, su misión es dotar de las infraestructuras necesarias a la sociedad para facilitar las comunicaciones y albergar centros de datos. Obviamente ellos tienen una implicación directa en la estandarización tecnológica lo que les permite empujar o apostar por ciertas arquitecturas, plataformas IoT o tecnologías como M2M del ETSI, Indra Sofia 2, ThingWorx, Telefónica SBC, FiWARE o SIGFOX.
Los centros investigación tienen que trabajar más pensando en productos finales y menos en proyectos como vía de subvención. Aunque no se trate con clientes hay que pensar en ellos. Con esto quiero decir que se hace mucha investigación -y cierta innovación- en el mundo del M2M e IoT pero apenas hay soluciones maduras y robustas.
Por último, las empresas (grandes y pequeñas) se tienen que preocupar en ser competitivas y productivas. La industria occidental se encuentra en una difícil encrucijada. Si no hacemos cambios vamos a desaparecer. La única salida es liderar una nueva revolución industrial que nos permita coger distancia en términos de competitividad y productividad. Estamos hablando de una “revolución” y esto quiere decir que lo nuevo tiene que entrar con fuerza para desplazar a lo actual… Es hora de sentarse y ver como todas estas nuevas tecnologías, desde IoT hasta la robótica colaborativa, pueden ayudarnos. (Alemania y Ángela Merkel lo tienen muy claro y son conscientes que su futuro como uno de los mayores exportadores del mundo está en juego)
España tiene varias empresas punteras en desarrollo de plataformas y aplicaciones IoT, pero en una parte importante su tamaño es pequeño ¿qué echan en falta para poder dar el gran paso y crecer a un volumen crítico?
Antes de responder a esta pregunta quizás sería importante preguntar ¿Por qué hay tantas empresas pequeñas que ofrecen plataformas y aplicaciones IoT? Creo que la respuesta nos permitirá clarificar lo que está pasando y donde tenemos que actuar para mejorar: En mi opinión el origen de este florecimiento de microempresas con soluciones IoT se debe a que (afortunadamente) apenas hay barreras de acceso para que cualquier Ingeniero Informático, Industrial o de Telecomunicaciones pueda desarrollar soluciones de tratamiento de datos e incluso fabricar un sistema embebido. Por poner ejemplos: hoy en día todos tenemos acceso a librerías para tratamiento estadístico de datos, bases de datos no relacionales o sistemas embebidos basados en Raspberry Pi o Arduino. Esta facilidad hace posible que muchos proyectos de emprendedores y spin-offs de Universidad aborden proyectos IoT. Ahora bien, este fenómeno de (micro) abundancia tiene muchos puntos débiles entre los que citaría la capacidad financiera para abordar nuevos productos, economía de escala y la especialización. A continuación me centraré en el último punto.
La mayor parte de estas empresas desarrollan soluciones verticales: desde el dispositivo y sensor hasta la aplicación. En mi opinión considero que para una pequeña empresa es muy difícil dominar y aportar elementos diferenciales en todos los niveles que componen dicha solución (diseño electrónico, fabricación, integración comunicaciones/red, base de datos, análisis de datos, aplicación). En caso de lograrlo, si no tiene economía de escala, les resultará muy difícil obtener los ingresos necesarios para reinvertirnos en nuevas versiones y mantenimiento de lo instalado. Por esta razón creo que hay que trabajar en la consolidación de fabricantes y proveedores de soluciones en torno a estándares y plataformas. Es decir, tomando como referencia una plataforma, desarrollar una pieza de la solución que puede ser una pasarela que hable con autómatas o una aplicación para analizar un cierto proceso.
Por lo tanto, respondiendo a la pregunta inicial, yo diría que es necesaria la consolidación de plataformas IoT como paso previo a la especialización de las empresas que ofrecen soluciones IoT.
¿Es necesario potenciar y proteger un ecosistema español del IoT?
No. Es importante que ese ecosistema sea visible. Un buen escaparate sería el, anteriormente citado, Observatorio Industria 4.0. Vivimos en un mundo de libre mercado y favorecer a una empresa u otra es un tema espinoso.
¿Cuáles son las apuestas tecnológicas y de mercado de futuro en las que las plataformas y aplicaciones IoT españolas deberían posicionarse?
Creo que lo más urgente es consolidar lo que ya hay. Hay muchas empresas IoT, buenas soluciones e ideas de futuro. Hay que concentrarse en que todo esto cristalice en conjunto a través de acuerdos y fusiones. A continuación, el siguiente objetivo, es trasladar una propuesta de valor a los clientes. Si no somos capaces de entender su negocio o proceso de industrial y aportarle competitividad y productividad mejor quedarse quietecitos.
¿Dispone España de los perfiles profesionales adecuados para desarrollar la Industria 4.0? ¿En el caso que no los tuviera que acciones recomienda deban acometerse para su cualificación?
A nivel Universitario creo que los perfiles están bien definidos. Por nuestra experiencia como grupo empresarial con más de 200 empleados (30% titulados en Teleco, Informática e Industrial) consideramos que la preparación es suficiente. Por la parte de FP, desde hace años, existen ciclos de estudio dirigidos al Mantenimiento Industrial, Electrotécnica e incluso Robótica. Por supuesto todo se puede mejorar. La acción concreta que propondría sería actualizar los planes de estudio y dotarles de medios para pensar y trabajar en la integración de las Islas Digitales que existen en una fábrica.
© 1999-2025 A.G.YAGÜE - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress