Energía Eléctrica y Análisis de Datos

junio 18, 2019 on 5:36 pm | In análisis de datos, descarga textos pdf, m2m, iot | No Comments

Adolfo García Yagüe | En esta presentación se estudia una aplicación real del análisis de datos e IoT: El uso de la Energía Eléctrica y EMIOS de Energy Minus+. Sin pretender ser un curso de electrotecnia, en la primera parte he intentado resumir alguno de los conceptos relativos a la corriente alterna y al mercado eléctrico español. Soy consciente de que por ciertos temas paso de puntillas, e incluso alguna diapositiva puede no resultar 100% precisa para un experto. Pido disculpas por ello. He intentado rebajar el nivel de los conceptos expuestos para acercarlo al día a día de cualquier persona interesada en estos temas.

Agenda

Energía y Datos

  • La importancia del análisis de datos
  • Datos de consumo
  • Consumo eléctrico
  • La importancia del contexto
  • ¿Qué nos pueden ofrecer los datos?

Conceptos básicos

  • Corriente alterna
  • Magnitudes vectoriales
  • Monofásico y trifásico
  • Voltaje y corriente
  • Potencia
  • Energía activa
  • Energía reactiva
  • Factor de potencia y coseno de φ

Laboratorio

  • Buscapolos y pinza amperimétrica
  • Midiendo en un cuadro eléctrico
  • El osciloscopio
  • Laboratorio de recogida de datos
  • Medidor ModBus
  • Sonda de temperatura y luminosidad
  • Pasarela TELNET BabelGate G5002
  • Node-RED

Mercado eléctrico

  • Actores del mercado eléctrico
  • La importancia del Sistema
  • Perfil energético y tarifas
  • Tarifa 2.0A
  • Tarifa 2.0DHA y 2.1DHA
  • Tarifa 3.0
  • Termina de energía reactiva
  • Maxímetro
  • Ejemplo de una factura 3.0A
  • Tarifa 3.1
  • Tarifas 6.x

Monitorización eléctrica

  • Red de Monitorización
  • Datalogger, Medidor, Modem
  • Monitorización de contador fiscal
  • Medidor Trifásico
  • Transformador de corriente de 50A
  • Temperatura, humedad y luminosidad

Casos Prácticos con EMIOS

  • Configuración de tarifa
  • Simulación de una factura
  • Evolución del consumo
  • Ajuste de potencia
  • Energía reactiva
  • Configuración de Widgets
  • Consumo general y temperatura
  • Consumo alumbrado y luminosidad
  • Detección consumo anómalo
  • Estudio de cambio de iluminación

[Descargar ponencia]

Ciberseguridad e IoT

marzo 28, 2019 on 6:15 pm | In academia, análisis de datos, cibercultura, descarga textos pdf, internet, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Estos días estoy dando un curso sobre Ciberseguridad e IoT en Fuenlabrada. Se enmarca en un proyecto impulsado por el propio Ayuntamiento y la Unión Europea. Se pretende formar a los asistentes en nuevas capacidades con el fin de reforzar y actualizar su curriculum. Es una iniciativa admirable que ayuda a crear sociedad y, sobre todo, porque me está permitiendo conocer la realidad de otras personas. En este módulo denominado “IoT” comparto el papel de formador junto a otros profesionales de Flexbot, la Fundación Telefónica y la Fundación Santa Maria la Real. Como digo es un privilegio estar ahí.

Os dejo la presentación del curso que estoy dando por si os resulta de interés. Como digo va sobre IoT, economía de datos, comunicaciones y seguridad. Muchas de las cosas que aquí trato son totalmente trasladables a nuestra cotidianeidad como usuarios de un equipo informático o un Smartphone. También, como no, se aclaran conceptos acerca de la importancia de los datos o 5G y como puede cambiar el entorno en el que vivimos. Milma Fuenlabrada. Laboratorio IoT

Agenda

Acerca del TELNET
Conceptos de IoT y Sistemas Embebidos

  • Telemetría y telecontrol
  • Smartphones
  • Internet de las Cosas
  • Tratamiento y economía de datos, Big Data
  • Dispositivos basados en Microcontrolador y Microprocesador
  • Arduino
  • Raspberry PI
  • TELNET BabelGate
  • Riesgos Amenazas y Ataques

Software y Hardware

  • Seguridad Física
  • Identificación de vulnerabilidades
  • Bootloader, Kernel, drivers y librerias
  • Aplicaciones
  • Cifrado
  • Repositorios de claves
  • Puertos Abiertos, Banners y Port-Knocking
  • API (Application Program Interface)
  • Ejemplo de instalación y mantenimiento desatendido
  • Electrónica y Buses
  • Memorias SD
  • SIM (Subscriber Identity Module)
  • TPM (Trusted Planform Module)

Conectividad Inalámbrica de un dispositivo IoT

  • Conectividad Radio
  • Frecuencias
  • Topología, seguridad y radio
  • Servicios M2M de Operador
  • Sigfox
  • LoRa
  • Zigbee
  • Z-Wave
  • Bluetooth
  • IEEE 802.11

Buses y Redes Industriales

  • Seguridad lógica en Redes Industriales
  • PRIME/COSEM

[Descargar ponencia]

El Futuro de Internet

noviembre 28, 2018 on 6:59 pm | In análisis de datos, colección, internet | 2 Comments

Parece que el futuro de Internet está en manos de compañías como Facebook, Google y otras tantas… y que la gratuidad de las aplicaciones y redes sociales que estos y otros ofrecen es porque se hacen de oro con nuestros datos… y qué decir del riesgo que corremos expuestos a tanto acoso, narcisismo, vacuidad, odio y noticias falsas… En un golpe de nostalgia, miramos a los años noventa y estamos convencidos de que allí se encontraban las esencias, creyendo que se hace necesario refundar Internet y planteamos un mecanismo de comunicación sin servidores, basado en P2P y Blockchain… Este era el tema central del reciente encuentro de Lisboa en el que participaba gente como Tim Berners-Lee entre otros destacados ponentes.

Tristemente, el tiempo en el que nació Internet en las Universidades y Centros de Investigación impulsado por gente como Berners-Lee pasó. Hicieron aportaciones fundamentales y usaron Internet para lo más básico, que era comunicarse con otros colegas a través de un correo, una news o una web. Aquello debe ser recordado y merece todo tipo de reconocimientos pero hoy, difícilmente, puede competir con el impulso dado por multitud de empresas privadas que han inventado cientos de aplicaciones y formas de comunicarse en Internet, algunas fallidas y ruinosas. Como no, no puedo olvidar a todas esas comunidades que desarrollan software abierto, sin restricciones de uso que operan gracias a Internet. Es evidente su aportación pero casi siempre hay una empresa o iniciativa privada que empuja su desarrollo o incluso termina adoptándolo, cuando no absorbiéndolo: MySQL y Oracle, Microsoft y GitHub, Red Hat e IBM, Hadoop, etc.

Aun así, uno puede seguir siendo «auténtico» en su uso de Internet: Perfectamente puede mantener una página web y escribir artículos de no-se-que. Pero, no lo olvidemos, no se puede pretender que al resto de internautas (expresión anacrónica, de los ´90) le interese lo que estas contando. Es decir, para cierta gente Internet sigue siendo un sitio donde aprender, buscar información y compartir ideas; mientras que para otros, es solo una forma de comprar o mantenerse conectado a través de mensajes cortos, proyectar su vida o curiosear en la de otros. Para entendernos, puedes construir bibliotecas pero no puedes obligar que la gente lea sus libros.

Es lamentable que alguien se comporte mal en Internet o, interesadamente, difunda información envenenada. Desgraciadamente, las personas proyectamos lo que somos a nuestro alrededor. Solo hay que leer los foros de muchos periódicos respetables y te darás cuenta de la cantidad de radicales y odiadores que hay entre sus lectores. En Twitter o en Facebook pasa lo mismo. Por supuesto, puedes ser víctima de información sesgada y formarte una opinión equivocada y ser dirigido. El problema es que técnicamente resulta difícil analizar en tiempo real, interpretar y filtrar todo lo que se publica, sin mencionar a qué Gran Hermano o Censor le damos esta atribución.

Por otra parte, si quiero saber cómo va el tráfico de Madrid a Sevilla consulto Google. Ya sabemos que para que Google pronostique la duración de ese trayecto está recogiendo datos de localización de los móviles Android de todas las personas que están viajando antes que yo. Así estima que el trayecto durará más de 5 horas. Es decir, mis datos de localización y los de otra mucha gente hacen posible esto. Hoy vivimos en una época en que la se cuenta con capacidades técnicas para recoger y procesar -en un instante- miles de millones de datos de todo tipo. Es importante asumir esto y entender por qué se habla de las oportunidades de negocio que puede ofrecer la Economía de Datos. Ante esto, si queremos vivir y relacionarnos en el Siglo XXI, resulta difícil prescindir de nuestro plan de datos y no instalar ninguna App, pero es posible.

Acabo preguntándome por las implicaciones de Red Neutral. Para alguien puede ser no filtrar aplicaciones P2P, incluso si el propósito es el intercambio ilegal de archivos… Por supuesto, no cerrar una web, aunque desde sus páginas se publiquen mentiras o se incite al odio… Otros pueden pensar que neutral significa no ralentizar el tráfico VoIP de WhatsApp, aunque nos quejemos del riesgo de poner nuestros datos y hábitos a su alcance… Aquellos pueden pensar que esto de la Red Neutral es una cosa buena, a pesar de Tor y navegación anónima con fines ilícitos por la Internet Profunda… Y ¿Qué pasa con Bitcoin y los ciberdelitos?… En fin, que no sé muy bien que se pretende ni cómo se hace para que todos nos sintamos tranquilos.

Con estas reflexiones solo pretendo compartir algunas dudas sobre los límites y la posible solución de los problemas a través de la tecnología amparándonos en una supuesta «decadencia» social (o de Internet). Estoy seguro que aparecerán nuevas soluciones como Blockchain, pero esto no resuelve lo más básico que es lo que cada uno de nosotros tenemos en la cabeza y como lo exteriorizamos. Bien distinta es la adecuación de nuestras leyes a este nuevo escenario que es Internet. Poco a poco se empieza a regular el uso de los datos, las actitudes en Internet, se persigue el uso fraudulento y se intenta proteger la propiedad intelectual… Creo que vamos en el camino acertado y cada día los gobiernos, jueces y policía son más sensibles a esto y se adaptan. Cosa que no es fácil ni rápida.

5G, no todo se reduce a una rivalidad entre EE.UU, China y Europa

septiembre 24, 2018 on 6:25 pm | In análisis de datos, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Esta mañana leía un interesante artículo de Ignacio del Castillo a quien habitualmente sigo. He de decir que me gustan sus análisis aunque en este caso eché en falta más ángulos desde los que comentar la cuestión. Digo esto porque su último texto sobre 5G se plantea en términos competitivos entre Europa, EE.UU. y China, o fabricantes como Qualcomm y Broadcom. Tras la lectura de estas líneas da la sensación de que la rápida implantación de esta tecnología es una cuestión de Estado en donde “ganará” el País que antes tenga disponible el servicio.

Para llegar a esta conclusión se recurre incluso a una referencia publicada en The Wall Street Journal donde se dice que el éxito digital de EE.UU. es consecuencia de la rápida adopción de 4G. No sé ¿y qué ha sucedido con Amazon siendo contemporánea de la telefonía GSM? ¿Y Google y su Android no son de la época 3G? ¿GPRS?… De Apple no hablemos pues su iPhone y la eclosión de las Apps reposaban sobre la humilde conectividad que ofrecía GPRS y 3G.

Es cierto que 5G permitirá el desarrollo de servicios que hoy parecen inalcanzables con las actuales tecnologías radio. Fundamentalmente me refiero al coche conectado autónomo y el desarrollo de IoT en miles de dispositivos. Más allá de esto, creo que las actuales tecnologías LTE 4G satisfacen las necesidades de navegación y conectividad de millones de usuarios. Qué nadie me interprete mal: no quiero decir que 5G no sea importante y un gran salto, únicamente que detrás de su adopción hay innumerables cuestiones que escapan al texto de Ignacio.

Me parece un poco exagerado plantear solo el análisis solo en términos de rivalidad entre países, aunque pueda llamar mucho la atención el subtítulo que subyace: Oriente vs. Occidente. Aquí no solo hablamos de la tecnología radio y la estación base o BTS. Diría que esto ya está superado y está “atado y bien atado” por las patentes de cada fabricante y los estándares del 3GPP. Ahora la pelota está en el tejado de los Operadores de Telecomunicaciones y no parece claro que tengan la misma urgencia de desplegar 5G salvo que quieran publicar una nota de prensa y así llamar la atención de accionistas, usuarios y periodistas.

Empecemos por el plan de frecuencias. No está claro la idoneidad de las frecuencias asignadas a este servicio y la naturaleza del despliegue actual. Quiero decir que si queremos usar 3500MHz tenemos que poner muchas más estaciones base porque, desde las actuales, hay dificultad para dar cobertura a todos los usuarios y objetos. Aunque sea una opción viable, instalar Small Cells (estaciones muy pequeñas) en cada esquina de una ciudad cuesta mucho dinero, por lo tanto el problema no se reduce solo a comprar el 5G de un determinado fabricante. También podemos optar al segundo dividendo digital y usar la frecuencia la baja de 700MHz, incluso esperar a los 1500 MHz pero esto no será algo rápido. Por cierto, dan escalofríos cuando el Gobierno sondea el mercado sobre el uso de la banda de 26GHz. Por esta razón, parece lógico pensar que, más tarde o más temprano, se debería producir un desacople del actual binomio frecuencia-servicio y las actuales frecuencias bajas (700, 850 y 900 MHz), de mayor propagación y menor ancho de banda, se reserven para aplicaciones IoT y coches en 5G, y las frecuencias altas (1800, 1900, 2100 y 2600MHz) se destinen a la navegación y Apps, también en 5G, e incluso 4G. Pero todos sabemos que estas cosas, los apagones y los reframing, van despacio y suelen estar regulados y, de la noche a la mañana, un operador no se puede “cargar” un servicio.

Capacidad. Plantear o dar a entender que el 5G supera la capacidad de las actuales comunicaciones por fibra es equivocado o al menos incompleto o inexacto. Lo cierto es que a la fibra instalada le queda recorrido para crecer durante décadas con tecnologías como XGSPON o NGPON 2. Esto, a priori, es tan fácil como actualizar con pequeñas modificaciones las actuales OLT GPON y las redes de fibra. En el mundo radio esto no es nada fácil porque exige una minuciosa planificación, contratación de emplazamientos e instalación de nuevas antenas. Por eso, cualquier cambio en la red de acceso radio se hace con mucha cautela y pies de plomo.

En este sentido una vez más me viene bien el comentario que hace The Wall Street Journal. En él se dice que el éxito de Netflix ha sido gracias a que EE.UU. ha liderado la tecnología 4G. En fin, no soy capaz de ver esta relación cuando está demostrado que el éxito de esta plataforma de TV se basa en producir sus propios contenidos y en distribuirlos “devorando” ancho de banda de las redes de fibra y sus tarifas planas. Dicho de otro modo: si dependiéramos del ancho de banda que tenemos en nuestro plan de datos móvil me temo que no veríamos tantas series… Pensemos que mucho antes de cualquier tecnología móvil ya existía en EE.UU. una industria cinematográfica potentísima que solo tenía de trabajar para el dueño que mejor pague…

Servicios y coche conectado. Es cierto que la adopción de 5G abrirá el mercado a nuevos actores que aún no existen. Seguramente estos vengan a través del mundo IoT porque, en el mundo del coche conectado-autónomo, me temo que “el pescado ya está vendido”. Examinado la posible cadena de valor, a menos que alguien invente algo totalmente novedoso, los actores ya están y dudo que se dejen robar una porción del pastel. Empezando por el vehículo: dudo que BMW, el grupo Volkswagen, PSA, Toyota o Daimler dejen de vender coches. Ellos saben fabricar un coche y todos confiamos en alguna de estas y otras marcas (sin olvidar los puestos de trabajo que generan en Europa), tienen sus líneas de producción acostumbradas a cambiar, redes de distribución, proveedores auxiliares, logística, dominan los entresijos políticos, etc. Un caso a destacar sería el de Tesla que tantas pasiones despierta pero realmente cuál es su diferencial ¿Un coche lujoso, su sistema de navegación, sus baterías, puntos de carga que han sido subvencionados?

Por otro lado está el sistema de navegación de a bordo y detección de obstáculos. Aquí puede existir sitio para la innovación, no lo sé. Ahora se están probando muchos sistemos que convergerán con uno, el mejor, y que terminará siendo integrado durante la fabricación del coche. Una vez más dudo que a gente como Bosch esto le suene raro.

Hablemos de cartografías, planificación de rutas, etc. ¿Quién fue el primero y hoy por hoy es el más preciso? Google. Realmente aquí es donde está uno de los diferenciales. Ellos han cartografiado medio mundo y saben recoger y tratar datos masivamente. Con todos mis respetos, la información del tráfico y rutas facilitada por la DGT o los Ayuntamientos, palidece con la precisión de Google. Por eso, si dependemos de los sistemas públicos para que un coche sea autónomo estamos perdidos…

Otro eslabón que cobra fuerza en esta cadena de valor, especialmente en los últimos años, es el alquiler del servicio de transporte. Parece normal que en el futuro existan empresas ofreciendo este servicio con coches autónomos. Todos conocemos los actores que se han posicionado aquí: desde coches sin conductor donde tú conduces, hasta aquellos que viene a recogerte. En último caso, a la vista de lo que en las últimas semanas está pasando con Uber, Cabify y las licencias VTC, parece poco recomendable meterse aquí sin garantías… Me temo que el impacto social es tan fuerte que pocos gobernantes están dispuestos a quemarse en un conflicto con el mundo del taxi. Este ejemplo también debería servir como “aviso para navegantes” para todos aquellos innovadores que pongan en entredicho la viabilidad económica de un servicio o colectivo tradicional…

Por último y vuelvo a los operadores: Ellos y solamente ellos explotarán las nuevas y futuras redes 5G y por las razones anteriores, actualmente, no tienen tanta urgencia en correr hacia un nuevo despliegue.

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Liderazgo Técnico y Transformación Digital

marzo 9, 2018 on 7:32 pm | In análisis de datos, innovación, internet | 1 Comment

Hace años, muchos años, en una conversación de bar, un colega y yo fantaseábamos con que en el futuro, los más importantes y ricos serían los técnicos. En aquellos años, lo que garantizaba el éxito profesional, era tener estudios de empresariales y económicas, y dedicarse al mundo de las finanzas. Era una época donde el triunfador yuppie exhibía un Porsche y el pelotazo era visto como algo normal. No existía Internet, tampoco teníamos móvil, pero ya se adivinada la revolución que suponía “controlar” de un ordenador.

Como digo, de aquello hace mucho tiempo y hoy, si rescatáramos aquella charla, nos sorprendería lo acertado de nuestro embriagado pronostico. A nadie escapa que, desde hace varias décadas, el freak técnico se ha encaramado a los rankings de los más poderosos, ricos e influyentes del mundo, y de ahí dudo que descienda. Todo lo contrario.

La revolución de Internet, y en general del ordenador personal, ha hecho posible la democratización de la tecnología. Casi cualquiera, con una buena idea y el suficiente respaldo (por supuesto, también de profesionales financieros), es capaz de proponer algo que de otra forma sería casi imposible. Esto significa que el control de la tecnología es un diferencial para progresar. Ya lo demostraron gente como Steve Wozniak, Bill Gates y Steve Jobs y, más recientemente, Jeff Bezos, Seguéi Brin, Larry Page, Mark Zuckerberg o Elon Musk. Es una constante que se repite.

Realmente, el núcleo diferencial de todas las empresas que comentamos: Apple, Microsoft, Amazon, Google, Facebook y Tesla, entre otros, es el dominio de la tecnología. Ellos inventan tecnología que les permite ser diferentes, mejores que el resto. En cambio, ese resto, empleamos la tecnología que ellos han inventado y que permiten que usemos. Podemos encontrar muchos ejemplos pero me centraré en el mundo de los datos. Ellos, por su naturaleza global (Internet) y para dar un mejor servicio al usuario, vieron que las todopoderosas bases de datos relacionales y los monolíticos ordenadores centrales, eran poco eficientes. Por esa razón inventaron o apadrinaron el uso de muchas máquinas, baratas y sencillas, conectadas entre sí formando un clúster. Por supuesto, para que esto funcionara había que meter mano en el sistema operativo y tunearlo a tu gusto. Así, el uso de Linux, tenía todo el sentido. Como escribía antes, las bases de datos relacionales han demostrado y demuestran, que son muy eficientes para acumular y recuperar cierto tipo de información muy tabulada. En cambio, en un entorno donde cada dato o atributo que define a un objeto o persona es diferente y estos, las personas, se cuentan por cientos de millones y están repartidos por todo el mundo, el concepto clásico de base de datos no escala bien, es decir, no crece al nivel que se espera.

Así nacieron las bases de datos NoSQL. Todos hemos oído hablar de Cassandra, Redix o MongoDB, por ejemplo. Es cierto que son herramientas accesibles y que cualquiera puede usarlas pero, si rascamos en sus orígenes, nos encontramos que han sido impulsadas por gente como Apache, VMWare, Facebook, Yahoo! o Google. Lo mismo sucede con el famoso Hadoop. Es decir, ya tengo una buena idea de negocio o de cambio “del mundo” pero, para llevarla a la práctica necesito crear una nueva tecnología. O al contrario: he creado una nueva tecnología que puede ser aplicada para este determinado negocio.

Lo anterior me lleva a pensar en el futuro de aquellas empresas, que aun siendo muy grandes y poderosas, intentan Trasformase Digitalmente y dejan la sensación de no conseguirlo plenamente. Sé que es un tema muy complicado y tiene muchos ángulos desde el que ser estudiado pero cabría pensar que, al carecer de ese liderazgo técnico, siempre van a ir un paso por detrás. Por supuesto que las herramientas están ahí, a su alcance, como para ti y para mí. Pero ellos solo usan lo que escapa de las patentes -e incluso del secreto- (de los tecnólogos). Tampoco, por ejemplo, son capaces de impulsar una Comunidad de Desarrolladores, un nuevo algoritmo para el análisis de datos, o un estándar y, carecen de la visión, espíritu y dinero para apostar en ideas que puedan parecer alocadas.

Datos, datos y más datos

marzo 8, 2018 on 3:45 pm | In análisis de datos, innovación, internet | No Comments

Hace unos días, en una intervención de Dimas Gimeno, presidente de El Corte Inglés, hablaba de la necesidad de equiparar a todos con las mismas reglas de juego, se refería, como es de suponer, a las empresas que están dando pequeños mordiscos al negocio tradicional de esta marca. También dejaba ver la necesidad de cambiar porque, queramos o no, los hábitos de los consumidores cambian y, como no, también se refirió al manido tema de los datos. Nos recordaba los 75 años de historia de ECI y de la experiencia que ello le confiere en “ese conocimiento del cliente”. Casi de igual forma se manifestaba Chema Alonso en la víspera del MWC, cuando desveló el significado de Aura. Nos contaba que ellos, Telefónica, tienen acceso a muchos datos porque llevan casi 100 años prestando servicio. Está claro que cada uno comenta cosas muy diferentes pero ambos hablaban de una realidad que está ahí, los datos.

Comerciar con los datos no es nuevo para nadie. Recordar cuando nos sentíamos importantes por ver nuestro nombre en las mastodónticas guías telefónicas… Menos ilusión hacía cuando empezábamos a recibir en nuestro domicilio publicidad no solicitada. ¿Cómo llega nuestro número de teléfono a una empresa de telemarketing? Mejor ni pensarlo… ¿De dónde salen nuestros datos? Si hablamos de empresas como ECI es similar: Cuando te haces una tarjeta de cliente o fidelización sueles estar «controlado». Aquellas tarjetas, que nacieron con el sano propósito de financiar la compra, pronto se usaron como un medio más de conocer nuestro patrón de consumo. Me olvidaba: Otros que saben mucho de datos son los bancos. Ellos conocen, de primera mano, cuales son nuestros  ingresos y gastos.

¿Qué ha cambiado?
Estos datos estaban antes de que naciéramos: Nuestro DNI, teléfono, dirección, ingresos, gastos y, como veíamos, la cesta de la compra. La aparición de Internet y el uso masivo del correo electrónico hizo que a esta lista de datos (digamos básica) se añadieran otros. Recordar, no tardamos en ser castigados con el molesto spam… Por otra parte, las comunicaciones en Internet, para que funcionen, requiere de una dirección IP única y, con todo el sentido, un administrador de un servidor web está interesado en conocer cuántos visitantes se cuelgan de su página. Así las cosas, irrumpen los buscadores cuya misión principal es hacernos la vida más cómoda en Internet. Ellos actúan de intermediarios entre nosotros e Internet. Conocen todo lo que buscamos y lo guardan en sus bases de datos. En un principio solo conocen nuestra dirección IP, que puede cambiar en cada acceso que hacemos, pero se cuidan de enviarnos una silenciosa piececita de software -o cookie- con la que nos identificamos (sin saberlo). Recordar que el uso de estas cookies es generalizado y no es exclusivo de un buscador. Ya nos tiene controlados y pueden modelar o dirigir nuestra navegación y atención como quieran. Más tarde nos regalaron direcciones de correo y espacio de almacenamiento y, lógicamente, nos teníamos que registrar y aportarles más detalles sobre nuestra identidad. Por último, se les ocurrió montar una red de conocidos dentro de Internet con la que podríamos compartir imágenes, textos o cualquier archivo multimedia. Esa red, para que funcione y sea eficiente, tiene que almacenar todo lo que queremos compartir. Es decir, son más datos vinculados con nosotros.

En modo alguno pretendo criticar o dirigirme contra esta industria pues, esta forma de funcionar, ha demostrado mejorar nuestra experiencia en Internet. También ha permitido innovar en campos donde parecía que todo estaba inventado y está iniciando una fuerte Trasformación, Digital por supuesto. Es cierto que esta Transformación está provocando que muchos sectores vean amenazada su posición o puestos de trabajo, y que el uso de cierta tecnología haga aumentar, exponencialmente, la riqueza de unos pocos en contra del desempleo de muchos. Creo que esta situación no nos conviene en una sociedad pues, a la larga, es mala para todos y tendremos o tenderemos a remediarla.

Tampoco nos conviene, como individuos, perder nuestra privacidad. Aunque nuestros datos estén ahí, no creo que a nadie de Google o Facebook le interese quien soy. A ellos les interesa el conjunto del que formo parte. Ellos usan nuestros datos analizándolos para entender o predecir que hacemos o que queremos. Parece ser que, incluso, pueden conocer un resultado electoral analizando la actividad previa en Twitter… En fin, para nuestro consuelo, hay que decir que muchas de las decisiones clave de estas empresas, incluidas las poner en marcha una nueva iniciativa, se toman analizando estos datos y es importante no olvidar que, aun así, se equivocan y fracasan, y algunos proyectos acaban en la basura por culpa su interpretación.

En cambio, sí me preocupa el uso criminal de esta información. Si los datos que almacena Facebook, LinkedIn, Apple o cualquier otro, caen en manos inadecuadas podemos encontrarnos con situaciones incomodas. Es importante recordar esto para que la próxima vez que nos suscribamos a una nueva plataforma o tarjeta de fidelización pensemos: ¿Si me doy de alta aquí y alguien “malicioso” se entera, en que me vuelvo vulnerable? ¿Alguien me puede atacar sabiendo el tipo de café que tomo?

Datos, censo y tabuladoras

enero 27, 2018 on 8:44 pm | In análisis de datos, colección, hist. informática | No Comments

Adolfo García Yagüe | El tratamiento de los datos no es algo reciente, ni siquiera es una disciplina nacida a la luz de los progresos de la Edad Moderna. Las civilizaciones de la antigüedad ya gestionaban datos. En las tablillas cuneiformes de Mesopotamia podemos encontrar datos de producción agrícola e impuestos. Los romanos, por su parte, ya eran conscientes de la importancia del empadronamiento de la población; y los chinos de hace miles de años mantenían un preciso registro astronómico. No obstante el punto de inflexión se produce a finales del Siglo XIX cuando se automatiza el cálculo y tratamiento de los datos.

En el Siglo XVII aparecen las máquinas de cálculo de Blaise Pascal (1623-1662) y Gottfried Leibniz (1646-1716). Estos ingenios permitían operaciones aritméticas de suma, resta, multiplicación y división. Será durante la siguiente centuria cuando el cálculo mecánico alcance su madurez de la mano de Charles Xavier Thomas de Colmar (1785-1870) y su aritmómetro aparecido el año 1822. Sin abandonar el XIX, gracias al infatigable Charles Babbage (1791-1871) y su inacabada obra, aparece el concepto de máquina programable. En este siglo también aparecerán las máquinas especializadas en cálculo algebraico como las de Leonardo Torres Quevedo (1852-1936). En este escenario de mecanización del cálculo, falta el complemento de los datos. La gestión mecánica de éstos fue consecuencia de la necesidad de acelerar el tratamiento del undécimo censo de EE.UU, en 1890. Con este fin fue convocado un concurso de ideas al que acudió Herman Hollerith (1860-1929), un empleado de la propia institución censal. Inspirándose en el telar programable con tarjetas perforadas de Joseph Marie Jacquard (1752-1834) y en la máquina de Babbage (también programable con tarjetas perforadas), propuso automatizar el recuento censal con una máquina a la que llamó tabuladora. La tabuladora se alimentaba de tarjetas perforadas en las que previamente un empleado del censo había transcrito a pequeños agujeros la información de las encuestas censales. De esta forma, cada tarjeta reunía los datos de un ciudadano: su sexo, procedencia, edad y estado civil, entre otros, e incluso algo impensable -y políticamente incorrecto- en nuestros días como la raza y las congregaciones religiosas. La tabuladora procesaba cada tarjeta detectando la presencia o no de un agujero y llevaba la cuenta de los perfiles del conjunto de ciudadanos.

Aquellas máquinas dieron paso un paso evolutivo al ser “fácilmente programables”. Esta programación aportaba flexibilidad para permitir usar la máquina para la tarea que deseáramos, por ejemplo en control de la producción, la planificación de horarios de trabajo o las nóminas. Es lo que conocemos como lógica cableada y en la colección podemos observar un módulo que permite la programación de una de estas máquinas. Rápidamente, las tabuladoras también se emplearon para realizar operaciones aritméticas convirtiéndose en el centro de cálculo de las grandes compañías.

Las tabuladoras dieron otro salto evolutivo con la introducción de la válvula de vacío. Aquella válvula de cristal era frágil, pero muy silenciosa en comparación con los resortes y ruedas dentadas. La era electrónica acaba de comenzar. Lógicamente, las tabuladoras no tardaron en ser totalmente electrónicas siendo más rápidas, fiables y protagonizando el punto final de la era mecánica.

En este momento, hacia la segunda mitad de los años cuarenta y principio de los cincuenta, aparecen los primeros ordenadores y con ellos el concepto de programa descrito años atrás por Babbage y Ada Lovelace (1815-1852), sin olvidar a Alan Turing (1912-1945). Es decir, sobre una máquina de propósito general, escribimos un programa donde se indica que hacer con los datos que vamos a introducir. Lógicamente, esta entrada de datos lleva implícita una salida de datos. Es lo que conocemos como Entrada y Salida (Input-Output o I/O). En aquellos primeros años, y hasta el comienzo de los años ’80, ese proceso de Entrada y Salida de datos se apoya en tabuladoras. En efecto, como podemos comprobar en alguna pieza de la colección, durante este (gran) periodo las tabuladoras se utilizan, por ejemplo, para imprimir recibos de impuestos. Por supuesto, también se utilizan para introducir programas en aquellos ordenadores. Este uso y método de I/O conformará una jerga que se ha venido utilizando durante años en informática, y se ha utilizado durante mucho tiempo para definir perfiles profesionales: Perforador (de tarjetas), grabador, programador, analista… Ahora, con lo rápido que va todo, sorprende comprobar que las tabuladoras hayan aguantado tanto.

La proliferación de los tubos de imagen (monitores), teclados y los soportes magnéticos hizo que careciera de sentido seguir usado máquinas de tarjetas o de tabular. Poco a poco se fueron desconectando y pasando a la historia, pero no olvidemos que se concibieron para automatizar y sacar conclusiones de toda la masa de datos que hay dentro de un censo. Es, en definitiva, el Big Data del siglo XIX.

Colección

Pasarela IoT de Telefónica Globalrider

julio 19, 2016 on 3:38 pm | In análisis de datos, globalrider, m2m, iot | 5 Comments

Adolfo García Yagüe | Afrontar el desarrollo y fabricación -en menos de 4 meses- de un dispositivo IoT en el que se integran 20 sensores es un pequeño reto. Si a este desafío añadimos la necesidad de que este elemento satisfaga los exigentes requerimientos que supone dar una vuelta al mundo sobre una moto de trail, rozamos la proeza. En este artículo queremos compartir con vosotros las claves de diseño que han hecho posible la conexión de la moto de Hugo Scagnetti.

Potencia y capacidad de proceso
Ante el reto de Telefónica Globalrider, el primer paso fue seleccionar un núcleo de proceso lo suficientemente potente para absorber el caudal de datos y contenidos multimedia que se generarían a lo largo de 37.000 kilómetros. Este micro también tenía que ser capaz de gestionar “holgadamente” los sensores y líneas de comunicación que de él dependen. Por último, la plataforma elegida, nos tenía que ofrecer un marco sencillo y flexible para poder desarrollar diferentes aplicaciones software. Estas y otras cuestiones han sido atajadas mediante el empleo de un SoC (System on chip) E3845 de la firma Intel Corporation. Este chip es el hermano mayor de una familia de procesadores basados en Atom pensados para su uso en dispositivos móviles y equipos IoT. El E3845 cuenta con cuatro núcleos trabajando a una frecuencia de 1,91GHz. En él también se integran los periféricos auxiliares para la gestión de entradas y salidas, gestión de memoria y tratamiento de vídeo. Es una pequeña bestia que nos aporta capacidad de proceso facilitando el objetivo de hacer inteligente a la moto.

Globalrider - Arquitectura hardware de Pasarela IoT Globalrider

Por poner un ejemplo de la inteligencia de la Pasarela IoT cabe destacar el análisis en tiempo real que hace de la velocidad e inclinación de la moto para predecir accidentes. Es decir, si la Pasarela identifica un patrón de caída, nos enviará un mensaje de alta prioridad alertándonos de un accidente inminente. Otro signo de inteligencia y capacidad es el tratamiento que se hace de todos los datos que captan los sensores, aplicando a cada dato muestreado una referencia temporal y posición GPS. Por último, es importante recordar, el importante esfuerzo de proceso que supone la adquisición de vídeos y fotos, su transcodificación, y posterior envío a través de redes de telefonía móvil de baja capacidad.

Como hemos dicho, el SoC Intel E3845 forma parte de una familia que integra como núcleo el microprocesador Atom. Como no podía ser de otra forma, este micro es heredero de la arquitectura x86 de Intel lo que facilita enormemente la portabilidad de desarrollos software previos. TELNET, como miembro de la IoT Solutions Alliance de Intel, ya fabrica y comercializa otras Pasarelas IoT para aplicaciones Industriales y Hogar Digital. Para ambos casos hemos recurrido al Atom E3815, menos potente pero 100% compatible a nivel software e incluso huella de pines.

 

Arquitectura Software
Los mayores quebraderos de cabeza de un sistema embebido están relacionados con el software, concretamente con el sistema operativo y los controladores o drivers. Si no se tiene pleno control sobre todo lo que está “corriendo” dentro de un sistema embebido, lo que en apariencia puede funcionarnos a la primera puede traicionarnos en cualquier momento y desencadenar una catástrofe, sin mencionar inadvertidos agujeros de seguridad. Esta es una de las razones por la que en TELNET nos gusta armar nuestra propia distribución de Linux a través de Buildroot o Yocto.

Globalrider - Aquitectura software Pasarela IoT TENET

Sobre el kernel de la Pasarela IoT de Globalrider están ejecutándose seis gestores principales. Estos gestores administran agentes especializados en diferentes tareas: desde analizar la información que recogen los sensores hasta mantener la conectividad de Hugo o interactuar con la pasarela.

El Gestor de Supervisión o Supervisor Manager se responsabiliza de la administración del resto de Gestores y, a través de él, accedemos e interactuamos con la Pasarela. Este Gestor tiene competencia sobre el Display  y los pulsadores de a bordo que representan la vía más cómoda y segura para interactuar con la Pasarela mientras la moto se encuentra en marcha. También nos ofrece un interfaz Web para facilitar la configuración avanzada desde un móvil o tablet. De igual manera este Gestor de Supervisión es la puerta de entrada remota a todo el sistema.

GPS Manager tiene responsabilidad sobre la citada conexión para conocer el posicionamiento de la motocicleta en todo momento. Este Gestor tiene que entregar al resto de gestores (Supervisor, Sensor y Camera) una referencia horaria UTC (Universal Time Coordinate) junto con la posición de longitud, latitud y altitud. Esta información será la referencia temporal y espacial que acompañará a los datos adquiridos por los sensores.

Los datos recogidos a través de los sensores son procesados por Sensor Manager. Dentro de este Gestor identificamos un agente especializado en cada sensor (bio, ambiental, giroscopio, acelerómetro, etc). Además de los datos reportados por los propios sensores, también será responsabilidad de este Gestor calcular la velocidad de la moto a partir de la información de posición GPS. Sobre todos los datos captados o calculados, Sensor Manager estampará una marca de tiempo y localización para “posicionar” cada muestra.  Otra de las atribuciones de este Gestor tiene que ver con el análisis en tiempo real de los datos recogidos. Como comentábamos anteriormente, la Pasarela IoT de Globalrider dispone de un motor de reglas o políticas que nos permite identificar un patrón y desencadenar una alerta ante la inminencia de un accidente o cualquier otro evento. Por último Sensor Manager es el responsable de empaquetar los datos recogidos en archivos CSV (comma-separated values) para su posterior envío.

Globalrider - Elementos funcionales Pasarela IoT TELET

La naturaleza de los contenidos recogidos a través de la cámara de aventura nos obligó a programar un gestor específico para la gestión de la cámara y el tratamiento de fotos y vídeos: Camera Manager. En primera instancia este Gestor, a través del Camera Agent, se encarga del control remoto de la cámara. A continuación, a los contenidos captados, se les aplica la marca de tiempo y posición que establece GPS Manager. Más tarde, gracias a Transcoding Agent, podemos recodificar y comprimir los contenidos multimedia para adaptarlos al ancho de banda disponible. Con esta estrategia podríamos incluso recodificar para ofrecer un bitrate suficiente para hacer streaming a través de una conexión de bajo ancho de banda.  Por último, dentro de Camera Manager también hemos habilitado un agente denominado Secure Loop. Éste, al entrar en servicio, funciona en modo bucle capturando pequeños fragmentos de vídeo y enviándolos inmediatamente a los servicios Cloud de Telefónica.

Upload Manager es un repositorio temporal donde se van almacenando los archivos CSV generados en Sensor Manager y los contenidos multimedia de Camera Manager.  Además de esta atribución de almacenamiento, Upload Manager también se responsabiliza del correcto envío de todos los datos a través de una conexión segura lo que significa que tiene, entre otros atributos, capacidad para detectar errores de transferencia, gestionar reintentos, envíos parciales y cifrado. De igual forma, Upload Manager es capaz de priorizar envíos de alertas y vídeos de seguridad.

Para finalizar, mediante WAN Manager se administra la conectividad de la Pasarela IoT. Este gestor tiene competencia sobre la conexión M2M Global de Telefónica siendo capaz de conectarse a través de cualquier tecnología y servicio de telefonía móvil. Además, este gestor de conexión WAN, es capaz de establecer conexiones de respaldo a través de redes Wifi.

 

Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org

[Descargar texto]

Análisis del clima, 10.000 kilómetros después

julio 5, 2016 on 1:57 pm | In análisis de datos, globalrider, m2m, iot | No Comments

Adolfo García Yagüe | Quienes estáis siguiendo el día a día de esta aventura, habréis apreciado que hace unas semanas se produjeron pequeños saltos en el itinerario de Hugo. Esto obedece a que tuvimos cortes esporádicos en la comunicación de la Pasarela IoT. Como sabéis la pasarela está permanentemente conectada y envía datos cada pocos segundos.

A partir del análisis de los datos recogidos por la Pasarela tenemos la sospecha de que existe cierta relación entre estas pérdidas de conexión con una deficiente cobertura móvil y un fuerte incremento de la temperatura. Los problemas se manifestaron en el momento en el que Hugo llegó a Kazajistán y Uzbekistán. Analizando los datos de temperatura recogidos en el interior de la Pasarela (microprocesador, etapa radio y un sensor en placa) hemos descubierto que cuando se alcanza una temperatura próxima a 65ºC, la exterior sobrepasa 43ºC, y además la cobertura es muy baja acontece el fallo. Trabajamos sobre la hipótesis de que la baja cobertura hace que la radio de la pasarela IoT eleve la ganancia de sus amplificadores para garantizar la comunicación. Como es normal, esta amplificación eleva la temperatura del conjunto de radio afectando a la tarjeta SIM. Todavía no lo sabemos con certeza, sólo han sido tres fallos y no hemos podido identificar un patrón claro.

Ante esta situación -que tiene difícil análisis a más de 10.000 kilómetros de distancia y en ruta- estamos coordinando con Hugo la sustitución de la Pasarela IoT a su llegada a San Francisco. Entretanto confiamos que durante su periplo ruso la climatología y la cobertura móvil sean más benévolas.

Aprovechando que hemos tenido que enfrentarnos a datos climáticos, ¿por qué no hacer un repaso del primer mes de Globalrider desde la perspectiva meteorológica?

Globalrider - Ruta hasta el día 28 de junio (10.000 kilómetros)

 

Evolución de la temperatura
En el siguiente gráfico queda reflejada la evolución térmica durante los primeros 32 días. Para esta representación gráfica hemos recurrido a un mapa de calor. En este tipo de gráficos se asocia un color al valor de un dato o, como en nuestro caso, a la media aritmética de la temperatura registrada durante una hora. En este mapa destaca con gran claridad el cambio de temperatura que sufrió Scagnetti en su paso por Turquía (días 12 y 13 de junio) hacia Asia Central (a partir del día 20 de junio). A partir de aquí hubo días que registramos temperaturas por encima de 40 grados a la sombra. Es decir, el sol no incidía directamente sobre el sensor.

Globalrider - Mapa de calor de la temperatura (primeros 32 días)

El mapa de calor también revela los momentos donde nuestra Pasarela IoT sufrió los efectos antes comentados: 13h del día 20, 11h del día 25 y 9h del día 26. Por último, los huecos en blanco, corresponden a momentos en los que la pasarela ha permanecido apagada sin registrar datos.

 

Humedad relativa y presión atmosférica, además de temperatura
El análisis anterior podemos enriquecerlo añadiendo los datos de humedad y presión atmosférica. Si además fuéramos capaces de medir la velocidad del viento y registrar las precipitaciones estaríamos a un paso de convertir a Hugo en “el señor del tiempo”. En efecto, estos cinco elementos definen el clima y su análisis es la esencia de la predicción del tiempo. Aunque nos gustaría, nosotros no somos capaces de llegar tan lejos y solo nos limitaremos a realizar algún razonamiento sobre climatología a partir de los datos que vamos recogiendo y procesando.

En la siguiente tabla hemos reunido los registros de temperatura, humedad relativa del aire y presión atmosférica. Para hacernos una idea del perfil del clima por cada día de travesía, presentamos el valor mínimo, máximo y calculamos la media.

Globalrider - Tabla de temperaturas, humedad relativa y presión atmosférica

Con permiso de los lectores más adelantados, antes de pasar a la interpretación de datos, haremos un pequeño repaso del concepto humedad relativa y presión atmosférica.

La humedad relativa del aire, como su nombre indica, es una variable con la que medimos la humedad del aire, ahora bien, esta medida es relativa a la temperatura. Esto significa que no podemos medir correctamente un dato de humedad relativa sin conocer la temperatura a la que se ha tomado la muestra. Para comprender esta relación debemos recurrir a la Física. Esta nos dice que una masa de aire a una temperatura alta es capaz de contener más agua en estado gaseoso que la misma masa de aire a una temperatura inferior. Por lo tanto la capacidad de “almacenar” vapor de agua (o humedad) en un volumen de aire viene determinado por la temperatura. Cuando esta masa de aire no puede almacenar más vapor decimos que se satura porque alcanza el 100% de su capacidad, produciéndose a continuación el fenómeno de condensación que se manifiesta en forma de lluvia, nieve, granizo, niebla, rocío o escarcha.

Globalrider - Explicacion de anticiclón y borrasca

La presión atmosférica indica la fuerza que ejerce la atmosfera sobre la superficie terrestre. Se mide en milibares. Esta presión no es uniforme a lo largo y ancho de nuestro planeta y depende de factores como la altitud, latitud y la temperatura. Esto quiere decir que, en condiciones atmosféricas iguales, si estamos en lo alto de una montaña mediremos menos presión atmosférica que si nos encontramos a nivel del mar. De manera inversa la relación entre temperatura y presión demuestra que, a menor temperatura, la presión atmosférica se incrementa. Esto provoca que el aire tenga más densidad y tiende a descender hacia la superficie provocando una zona de alta presión o anticiclón. Por el contrario, el aire caliente, al tener menor densidad, se eleva lo que provoca que baje la presión generando una zona de borrasca. El viento es un fenómeno atmosférico que se origina por la diferencias de presión entre anticiclón y borrasca. Éste circula desde la zona anticiclónica hacia la borrasca.

 

Análisis descriptivo de tormentas
Con los datos recogidos por Hugo vamos a intentar identificar el desarrollo de una tormenta. Si revisamos la tabla anterior notaremos que la humedad relativa máxima de los días 27, 28 y 29 de mayo, así como la de los días 2, 5, 7, 12 y 27 de junio superan el 70%. Con mucha cautela vamos a tomar estos datos como un indicio de que esos días pudo suceder algo especial. Quiero insistir en la prudencia ya que una subida de la humedad relativa no tiene por qué estar exclusivamente relacionado con la lluvia. Como no somos meteorólogos necesitamos tener un elemento que constate si nuestras sospechas son correctas o no.  Para lograr esta certificación hemos recurrido a la bitácora que mantiene Scagnetti en Facebook y en Twitter donde recoge los instantes más relevantes de cada día.

Globalrider - Bitácora Facebook y Twitter de Hugo (tormentas)

En efecto, parece que vamos por buen camino. Como podéis comprobar en el resumen anterior, a excepción del día 12, los días citados fueron lluviosos. Para profundizar en el análisis echemos un vistazo a alguno de esos días de lluvia. En este caso lo que queremos representar es la evolución de la temperatura y la humedad y, si existe, algún cambio apreciable en la presión atmosférica.

En día 5 de junio Hugo nos contaba que se detenía porque empezaba a llover. En el siguiente gráfico podemos ver que sobre las 16:30h detiene la moto (línea verde). La moverá un poco hacia las 17:10 y pasadas las 18h. Durante ese este tiempo de espera podemos apreciar como la temperatura (línea azul) experimenta un descenso pronunciado desde los 30ºC hasta los 20ºC en aproximadamente 30 minutos. Este descenso de temperatura coincide con un brusco incremento de la humedad relativa (línea naranja) que arranca en el 39% hasta alcanzar el 75%. Si afinamos un poco en el análisis nos damos cuenta que durante estos 30 minutos la presión atmosférica (línea gris) disminuye ligeramente 4mbr, desde los 984 a 980. Pasado este tiempo vuelve a 984mbr. En nuestra opinión se produce una tormenta que provoca el descenso de la temperatura unos grados. Parte del agua recién precipitada se convierte el vapor incrementando así la humedad relativa registrada.

Globalrider - Registro meteo día 5 de junio 2016

Veamos ahora el registro del día 7.

Globalrider - Registro meto día 7 de junio 2016

Como evidencia el diagrama anterior, a partir de las 16:30h y en la media hora siguiente, se manifiestan fluctuaciones en la presión atmosférica que oscilan desde 1015 milibares hasta 980 (17h). El final de este ciclo de inestabilidad en la presión coincide con un fuerte incremento de la humedad relativa, subiendo desde 49% (17:08h) hasta 78%(17:24h). En paralelo a este fuerte ascenso de la humedad identificamos un descenso de la temperatura desde 25ºC a 21ºC.

Por último tomemos el día 27 de junio. Una vez más apreciamos la pauta descrita en días anteriores: Al final de un ciclo de inestabilidad atmosférica (de 13:30 a 14:40) destaca un fuerte incremento de la humedad relativa hasta alcanzar 97%. Simultáneamente a este ascenso de la humedad se produce un descenso de la temperatura desde 23 a 19ºC.

Globalrider - Resitro meteo día 27 junio 2016

Como hemos podido comprobar, tras conocer los máximos de humedad relativa, hemos intuido en qué días se produjeron tormentas. A continuación, con la información facilitada por Hugo, hemos sido capaces de comprobar la veracidad de nuestras sospechas. El siguiente paso era conocer el desarrollo de la tormenta y como se expresaba ésta a través de los datos de temperatura, humedad relativa y presión atmosférica.

El desarrollo anterior encaja a la perfección en el estudio de los días 27, 28 y 29 de mayo y 2, 5, 7, 27 de junio. En cambio, el día 12 junio, donde la humedad máxima alcanzó el 70%, Hugo no dejó constancia de precipitaciones. Puede ser que este umbral no implique necesariamente lluvia, incluso es posible que Scagnetti no indicara que llovía.

Globalrider - Registro meteo 12 de junio 2016

Como no nos podemos quedar con esta duda, echemos un vistazo al día 12 (diagrama anterior). Salta a la vista que el momento de máxima humedad es a primera hora de la mañana, a las 9:30h, poco después de ponerse en marcha la Pasarela IoT. Esa humedad matinal y su relación con la temperatura corroboran que Hugo se encuentra en la orilla del Mar Negro y que lo que estamos “viendo” puede ser alguna neblina que levanta con la mañana.

Globalrider - Ruta del día 12 de junio 2012

 

Análisis predictivo de presión atmosférica y altura
Hasta ahora hemos visto algunos ejemplos de estadística descriptiva. Esta rama de la estadística, a partir del análisis de datos conocidos, nos ayuda a entender cómo funciona un fenómeno. Por su parte, la estadística predictiva, nos permite elaborar predicciones sobre datos desconocidos a partir de datos que conocemos. Como paso previo a la predicción necesitamos hacer un análisis de regresión sobre un amplio histórico de datos conocidos para descubrir si existe una relación matemática entre datos de diferente naturaleza (por ejemplo altura y presión atmosférica). A través de este análisis conoceremos cuál es el tipo de función de regresión o relación matemática entre estas dos variables: una independiente (altura) y otra dependiente (presión atmosférica). Por lo tanto, si existe esta relación matemática, estaríamos en condiciones de predecir el valor de la presión atmosférica cuando enfrentemos la variable altura a una función de regresión. Veamos un pequeño ejemplo.

Globalrider - Conrrelación entre valores de altura y presión atmosférica

En el diagrama superior, en el eje horizontal x, queda representada la altura. Esta será la variable independiente. En el eje vertical y indicamos la presión atmosférica, variable dependiente. Podemos distinguir, en forma de cuadrado azul, los datos conocidos de altura-presión recogidos por Hugo durante los primeros 10.000 kilómetros. Realmente la Pasarela IoT ha registrado muchos más datos de los que hay representados pero, por motivos prácticos de visualización, solo hemos presentado uno por hora. En total hay 780 cuadrados azules. Con ellos hemos confeccionado un gráfico de dispersión.  El paso siguiente es enfrentar este gráfico de dispersión a diferentes funciones matemáticas (lineal, polinómica, logarítmica, exponencial, parabólica, etc) para ver cuál de ellas ofrece el modelo más preciso, es decir, con menor error. En nuestro caso vemos que una sencilla función lineal (línea naranja) expresa razonablemente bien la relación existente entre altura y presión: Menor altura, más presión. Nuestra herramienta de análisis nos ofrece la siguiente función para, en el futuro, predecir la presión atmosférica con solo conocer la altura. También nos advierte de un margen de error del 0,89% que, traducido en milibares, son 8,75656.

y = 1015,4861 – (0,1131 * x)

Somos conscientes de la obviedad del ejercicio anterior. Solo pretendíamos introducir de manera divulgativa el concepto de análisis predictivo a partir de los datos que estamos recogiendo en Globalrider. También nos ha permitido constatar que la presión atmosférica no solo depende de la variable altura, de ahí el error de la función.

Como podéis sospechar la predicción meteorológica recurre a este tipo de análisis para adelantarnos el tiempo que hará en los próximos días. Evidentemente, los meteorólogos manejan millones de datos recogidos de cientos de fuentes y cuentan con superordenadores para realizar los cálculos rápidamente. A pesar de todo, la naturaleza caótica de la atmosfera, reduce la fiabilidad de los modelos matemáticos más allá de una semana.

Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org

[Descargar texto]

Página siguiente »


(c) 1999-2021 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress