Actividad física y podómetro (1)
septiembre 23, 2023 on 5:54 pm | In análisis de datos, colección | Comentarios desactivados en Actividad física y podómetro (1)Adolfo García Yagüe | La salud y la atención médica son sectores que siempre han captado la atención de las grandes tecnológicas. Además de por el dinero que ahí se mueve, en la actualidad estas compañías se ven seducidas por los grandes retos que les aguardan como, por ejemplo, la modernización y evolución hacia la nube de los actuales sistemas informáticos, la consolidación de la historia clínica de un paciente entre diferentes sistemas de salud (público y privado) y su portabilidad. Incluso, en el horizonte de esta transformación digital, hay algunas tecnológicas que no dudan en afirmar que, gracias a su inteligencia artificial (IA), serán capaces de apoyar a los profesionales sanitarios facilitando -en cuestión de segundos- diagnósticos más certeros con la posibilidad de prescribir tratamientos hiper-personalizados. Por último, mediante el uso de dispositivos inteligentes y la manida IA, algunos gurús tecnológicos pronostican que, en un futuro cercano, lograrán conocer en tiempo real detalles de la actividad física y salud de un individuo con el fin de adelantarse a súbitos o futuros padecimientos.
Con esta breve introducción solo pretendo trasladar la trascendencia del momento actual y recordar al lector que los ingredientes están entre nosotros: Cloud y regulaciones cada vez más estrictas para salvaguardar la privacidad de los datos, inicio de una nueva época alrededor de la inteligencia artificial, wearables más precisos… De estos últimos, de los dispositivos para la sensorización de un usuario, quería compartir alguna nota histórica a través de una serie de textos.
Podómetro
Empecemos hablando del podómetro, que es el dispositivo que permite medir el número de pasos durante el recorrido de una persona. Su empleo es sencillo: para conocer la distancia caminada solo tendremos que multiplicar el número de pasos registrados por la longitud de la zancada, que, en la mayoría de los podómetros, es configurable por el usuario. Hay podómetros que llegan a calcular las calorías consumidas y la velocidad media, pero eso lo veremos más adelante. Ahora retrocedamos solo… 500 años…
Es difícil afirmar con rotundidad quién es el responsable de la invención del podómetro y los nombres se entremezclan… el genio Leonardo da Vinci (1452-1519), el médico francés Jean Fernel (1497-1558), el científico Robert Hooke (1635-1703), el maestro relojero Abraham-Louis Perrelet (1729-1826), e incluso, hay quien atribuye su invención al presidente de EE.UU. Thomas Jefferson (1743-1826). Cada uno de ellos, a partir de la idea básica de contar pasos, añadió mejoras perfeccionando la mecánica y la usabilidad. No obstante, el concepto moderno de podómetro mecánico debería ser atribuido a Abraham-Louis Perrelet quien en 1770 concibió el reloj automático. Éste comparte con el podómetro una similitud básica que es un mecanismo o masa que se mueve con el movimiento del brazo del individuo y que sirve, en el caso del reloj, para auto recargar su motor o resorte principal, mientras que en el podómetro -con cada movimiento del individuo- se acciona un sencillo contador de pasos.
El podómetro es un instrumento estimativo. Además de por razones de tipo constructivo, debemos tener en cuenta que en cualquier recorrido que hagamos la longitud de nuestros pasos varía y que suele identificar erróneamente algunos movimientos del cuerpo como un paso. Un ejemplo que evidencia esta baja exactitud es la diferencia de pasos contabilizados en un mismo recorrido medido por dos individuos con diferente estatura, peso y zancada. Por estos motivos apenas se conocen aplicaciones profesionales del podómetro, pero, en cambio, sería el futuro presidente Jefferson quién apreció su utilidad para el uso personal mientras residía en París y allí, tras pasar por una enfermedad, se aficionó a dar largos paseos para recuperarse y, de “paso”, registrar las distancias entre los lugares más emblemáticos.
Aquella aplicación de Jefferson es la que realmente posicionó al podómetro como un instrumento útil para llevar un control -aproximado- de nuestra actividad física y es la que se ha mantenido hasta hoy. Lógicamente, en este tiempo la tecnología se ha perfeccionado desde podómetros puramente mecánicos a otros electromecánicos para, a continuación, ser plenamente electrónicos.
En este “caminar” hay algunos hitos relevantes como el que se produjo en Japón a comienzos de la década de los 60. Allí, investigadores de la Universidad de Kyushu, eran conscientes de la relación entre el aumento de peso de la población nipona y la disminución de la actividad física. Para intentar revertir esta tendencia recomendaron que un individuo sano debía andar diariamente 10000 pasos, o su equivalente aproximado de 7Km, es decir, algo más de una hora. Según estas mismas estimaciones se calculaba que mediante esta actividad se consumían en torno a 500 calorías. Aquellas conclusiones, que eran meramente estimativas y tenía como objeto servir de referencia a los profesionales de la salud, fueron amplificadas por el marketing de la compañía Yamasa tras el furor desatado por los Juegos Olímpicos de Tokio, en 1964. De esta forma, al año siguiente y con un sencillo y barato podómetro mecánico llamado Mampo-Meter esta firma japonesa, también conocida como Yamax, entró a formar parte de la indumentaria de los primeros runners y aficionados a dar paseos.
En los sesenta la actividad de correr era todavía minoritaria entre el gran público y tenía un toque de excentricidad. Sería en la siguiente década y, especialmente, a partir de los Juegos Olímpicos de Múnich de 1972, cuando el running cogió el impulso definitivo tras el inicio las principales carreras populares del mundo: en 1970 el maratón de Nueva York empezó a correrse con solo 127 inscritos; Boston permitió la participación de mujeres en 1972; el maratón de Berlín, 1974; Chicago, 1977; Londres, 1981.
Será en los 80 cuando este deporte y el cuidado físico entrarán a formar parte de la cultura popular. Aquel hecho, que coincide con la consolidación del reloj digital en el mercado, hace que aparezcan los primeros relojes -digitales- con podómetro incluido. No olvidemos que el podómetro mecánico solo permitía conocer el número de pasos y la distancia recorrida. Si además sabíamos el tiempo trascurrido durante el trayecto podíamos calcular nuestra velocidad media. Por último, si junto a estos valores añadíamos el dato de nuestro peso, podíamos conocer las calorías quemadas en el esfuerzo. Estos cálculos, a pesar de ser sencillos, eran tediosos y pocos deportistas tenían el hábito de llevar un control preciso. Por esta razón, tener un instrumento digital que hiciera todas estas operaciones -con un solo botón- se convierte en un capricho irresistible.
En 1982 Casio lanzó el J-30W. Este reloj digital incluyó la función de podómetro, pero, al carecer de un mecanismo sensible a los pasos, se limitaba a marcar el paso al deportista con un pitido. Es decir, el corredor tenía que adaptar su paso, zancada y velocidad a la cadencia que, previamente, se había configurado en el reloj. Todo un desafío para sus usuarios considerando que era necesario afinar el oído, mantener el ritmo y no dar un traspiés.
En aquellos años 80 también se aprecia como ciertas marcas de ropa y calzado deportivo empiezan a monopolizar las actividades deportivas a través de patrocinios, derechos de imagen y lanzamientos de productos futuristas, como las Adidas Pacer en 1984 o las Puma RS Computer Shoe (1986). Ambas zapatillas incluían un podómetro electrónico basado en un sencillo sensor inercial y un microcontrolador. En el caso de las Adidas, además contaban con un pequeño display en su lengüeta a través del cual el deportista podía hacer la lectura directa de los valores anteriores: pasos, distancia, velocidad y calorías. En cambio, las Puma RS Computer debían ser conectadas a un ordenador Apple IIe o Commodore 64 para tener acceso a los datos registrados.
En esta primera parte he intentado condensar brevemente cual ha sido la evolución del podómetro y como éste llegó a formar parte de la indumentaria del corredor. Como veremos en próximos textos, la aparición de otros dispositivos como el pulsómetro y la lectura GPS enriquecerán nuestro conocimiento y serán elementos esenciales en la presente revolución de relojes inteligentes y pulseras de actividad. Continuará.
Energía Eléctrica y Análisis de Datos
junio 18, 2019 on 5:36 pm | In análisis de datos, descarga textos pdf, m2m, iot | No CommentsAdolfo García Yagüe | En esta presentación se estudia una aplicación real del análisis de datos e IoT: El uso de la Energía Eléctrica y EMIOS de Energy Minus+. Sin pretender ser un curso de electrotecnia, en la primera parte he intentado resumir alguno de los conceptos relativos a la corriente alterna y al mercado eléctrico español. Soy consciente de que por ciertos temas paso de puntillas, e incluso alguna diapositiva puede no resultar 100% precisa para un experto. Pido disculpas por ello. He intentado rebajar el nivel de los conceptos expuestos para acercarlo al día a día de cualquier persona interesada en estos temas.
Agenda
Energía y Datos
- La importancia del análisis de datos
- Datos de consumo
- Consumo eléctrico
- La importancia del contexto
- ¿Qué nos pueden ofrecer los datos?
Conceptos básicos
- Corriente alterna
- Magnitudes vectoriales
- Monofásico y trifásico
- Voltaje y corriente
- Potencia
- Energía activa
- Energía reactiva
- Factor de potencia y coseno de φ
Laboratorio
- Buscapolos y pinza amperimétrica
- Midiendo en un cuadro eléctrico
- El osciloscopio
- Laboratorio de recogida de datos
- Medidor ModBus
- Sonda de temperatura y luminosidad
- Pasarela TELNET BabelGate G5002
- Node-RED
Mercado eléctrico
- Actores del mercado eléctrico
- La importancia del Sistema
- Perfil energético y tarifas
- Tarifa 2.0A
- Tarifa 2.0DHA y 2.1DHA
- Tarifa 3.0
- Termina de energía reactiva
- Maxímetro
- Ejemplo de una factura 3.0A
- Tarifa 3.1
- Tarifas 6.x
Monitorización eléctrica
- Red de Monitorización
- Datalogger, Medidor, Modem
- Monitorización de contador fiscal
- Medidor Trifásico
- Transformador de corriente de 50A
- Temperatura, humedad y luminosidad
Casos Prácticos con EMIOS
- Configuración de tarifa
- Simulación de una factura
- Evolución del consumo
- Ajuste de potencia
- Energía reactiva
- Configuración de Widgets
- Consumo general y temperatura
- Consumo alumbrado y luminosidad
- Detección consumo anómalo
- Estudio de cambio de iluminación
Ciberseguridad e IoT
marzo 28, 2019 on 6:15 pm | In academia, análisis de datos, cibercultura, descarga textos pdf, internet, m2m, iot, telecomunicaciones | No CommentsAdolfo García Yagüe | Estos días estoy dando un curso sobre Ciberseguridad e IoT en Fuenlabrada. Se enmarca en un proyecto impulsado por el propio Ayuntamiento y la Unión Europea. Se pretende formar a los asistentes en nuevas capacidades con el fin de reforzar y actualizar su curriculum. Es una iniciativa admirable que ayuda a crear sociedad y, sobre todo, porque me está permitiendo conocer la realidad de otras personas. En este módulo denominado “IoT” comparto el papel de formador junto a otros profesionales de Flexbot, la Fundación Telefónica y la Fundación Santa Maria la Real. Como digo es un privilegio estar ahí.
Os dejo la presentación del curso que estoy dando por si os resulta de interés. Como digo va sobre IoT, economía de datos, comunicaciones y seguridad. Muchas de las cosas que aquí trato son totalmente trasladables a nuestra cotidianeidad como usuarios de un equipo informático o un Smartphone. También, como no, se aclaran conceptos acerca de la importancia de los datos o 5G y como puede cambiar el entorno en el que vivimos. Milma Fuenlabrada. Laboratorio IoT
Agenda
Acerca del TELNET
Conceptos de IoT y Sistemas Embebidos
- Telemetría y telecontrol
- Smartphones
- Internet de las Cosas
- Tratamiento y economía de datos, Big Data
- Dispositivos basados en Microcontrolador y Microprocesador
- Arduino
- Raspberry PI
- TELNET BabelGate
- Riesgos Amenazas y Ataques
Software y Hardware
- Seguridad Física
- Identificación de vulnerabilidades
- Bootloader, Kernel, drivers y librerias
- Aplicaciones
- Cifrado
- Repositorios de claves
- Puertos Abiertos, Banners y Port-Knocking
- API (Application Program Interface)
- Ejemplo de instalación y mantenimiento desatendido
- Electrónica y Buses
- Memorias SD
- SIM (Subscriber Identity Module)
- TPM (Trusted Planform Module)
Conectividad Inalámbrica de un dispositivo IoT
- Conectividad Radio
- Frecuencias
- Topología, seguridad y radio
- Servicios M2M de Operador
- Sigfox
- LoRa
- Zigbee
- Z-Wave
- Bluetooth
- IEEE 802.11
Buses y Redes Industriales
- Seguridad lógica en Redes Industriales
- PRIME/COSEM
El Futuro de Internet
noviembre 28, 2018 on 6:59 pm | In análisis de datos, colección, internet | 2 CommentsParece que el futuro de Internet está en manos de compañías como Facebook, Google y otras tantas… y que la gratuidad de las aplicaciones y redes sociales que estos y otros ofrecen es porque se hacen de oro con nuestros datos… y qué decir del riesgo que corremos expuestos a tanto acoso, narcisismo, vacuidad, odio y noticias falsas… En un golpe de nostalgia, miramos a los años noventa y estamos convencidos de que allí se encontraban las esencias, creyendo que se hace necesario refundar Internet y planteamos un mecanismo de comunicación sin servidores, basado en P2P y Blockchain… Este era el tema central del reciente encuentro de Lisboa en el que participaba gente como Tim Berners-Lee entre otros destacados ponentes.
Tristemente, el tiempo en el que nació Internet en las Universidades y Centros de Investigación impulsado por gente como Berners-Lee pasó. Hicieron aportaciones fundamentales y usaron Internet para lo más básico, que era comunicarse con otros colegas a través de un correo, una news o una web. Aquello debe ser recordado y merece todo tipo de reconocimientos pero hoy, difícilmente, puede competir con el impulso dado por multitud de empresas privadas que han inventado cientos de aplicaciones y formas de comunicarse en Internet, algunas fallidas y ruinosas. Como no, no puedo olvidar a todas esas comunidades que desarrollan software abierto, sin restricciones de uso que operan gracias a Internet. Es evidente su aportación pero casi siempre hay una empresa o iniciativa privada que empuja su desarrollo o incluso termina adoptándolo, cuando no absorbiéndolo: MySQL y Oracle, Microsoft y GitHub, Red Hat e IBM, Hadoop, etc.
Aun así, uno puede seguir siendo «auténtico» en su uso de Internet: Perfectamente puede mantener una página web y escribir artículos de no-se-que. Pero, no lo olvidemos, no se puede pretender que al resto de internautas (expresión anacrónica, de los ´90) le interese lo que estas contando. Es decir, para cierta gente Internet sigue siendo un sitio donde aprender, buscar información y compartir ideas; mientras que para otros, es solo una forma de comprar o mantenerse conectado a través de mensajes cortos, proyectar su vida o curiosear en la de otros. Para entendernos, puedes construir bibliotecas pero no puedes obligar que la gente lea sus libros.
Es lamentable que alguien se comporte mal en Internet o, interesadamente, difunda información envenenada. Desgraciadamente, las personas proyectamos lo que somos a nuestro alrededor. Solo hay que leer los foros de muchos periódicos respetables y te darás cuenta de la cantidad de radicales y odiadores que hay entre sus lectores. En Twitter o en Facebook pasa lo mismo. Por supuesto, puedes ser víctima de información sesgada y formarte una opinión equivocada y ser dirigido. El problema es que técnicamente resulta difícil analizar en tiempo real, interpretar y filtrar todo lo que se publica, sin mencionar a qué Gran Hermano o Censor le damos esta atribución.
Por otra parte, si quiero saber cómo va el tráfico de Madrid a Sevilla consulto Google. Ya sabemos que para que Google pronostique la duración de ese trayecto está recogiendo datos de localización de los móviles Android de todas las personas que están viajando antes que yo. Así estima que el trayecto durará más de 5 horas. Es decir, mis datos de localización y los de otra mucha gente hacen posible esto. Hoy vivimos en una época en que la se cuenta con capacidades técnicas para recoger y procesar -en un instante- miles de millones de datos de todo tipo. Es importante asumir esto y entender por qué se habla de las oportunidades de negocio que puede ofrecer la Economía de Datos. Ante esto, si queremos vivir y relacionarnos en el Siglo XXI, resulta difícil prescindir de nuestro plan de datos y no instalar ninguna App, pero es posible.
Acabo preguntándome por las implicaciones de Red Neutral. Para alguien puede ser no filtrar aplicaciones P2P, incluso si el propósito es el intercambio ilegal de archivos… Por supuesto, no cerrar una web, aunque desde sus páginas se publiquen mentiras o se incite al odio… Otros pueden pensar que neutral significa no ralentizar el tráfico VoIP de WhatsApp, aunque nos quejemos del riesgo de poner nuestros datos y hábitos a su alcance… Aquellos pueden pensar que esto de la Red Neutral es una cosa buena, a pesar de Tor y navegación anónima con fines ilícitos por la Internet Profunda… Y ¿Qué pasa con Bitcoin y los ciberdelitos?… En fin, que no sé muy bien que se pretende ni cómo se hace para que todos nos sintamos tranquilos.
Con estas reflexiones solo pretendo compartir algunas dudas sobre los límites y la posible solución de los problemas a través de la tecnología amparándonos en una supuesta «decadencia» social (o de Internet). Estoy seguro que aparecerán nuevas soluciones como Blockchain, pero esto no resuelve lo más básico que es lo que cada uno de nosotros tenemos en la cabeza y como lo exteriorizamos. Bien distinta es la adecuación de nuestras leyes a este nuevo escenario que es Internet. Poco a poco se empieza a regular el uso de los datos, las actitudes en Internet, se persigue el uso fraudulento y se intenta proteger la propiedad intelectual… Creo que vamos en el camino acertado y cada día los gobiernos, jueces y policía son más sensibles a esto y se adaptan. Cosa que no es fácil ni rápida.
5G, no todo se reduce a una rivalidad entre EE.UU, China y Europa
septiembre 24, 2018 on 6:25 pm | In análisis de datos, m2m, iot, telecomunicaciones | No CommentsAdolfo García Yagüe | Esta mañana leía un interesante artículo de Ignacio del Castillo a quien habitualmente sigo. He de decir que me gustan sus análisis aunque en este caso eché en falta más ángulos desde los que comentar la cuestión. Digo esto porque su último texto sobre 5G se plantea en términos competitivos entre Europa, EE.UU. y China, o fabricantes como Qualcomm y Broadcom. Tras la lectura de estas líneas da la sensación de que la rápida implantación de esta tecnología es una cuestión de Estado en donde “ganará” el País que antes tenga disponible el servicio.
Para llegar a esta conclusión se recurre incluso a una referencia publicada en The Wall Street Journal donde se dice que el éxito digital de EE.UU. es consecuencia de la rápida adopción de 4G. No sé ¿y qué ha sucedido con Amazon siendo contemporánea de la telefonía GSM? ¿Y Google y su Android no son de la época 3G? ¿GPRS?… De Apple no hablemos pues su iPhone y la eclosión de las Apps reposaban sobre la humilde conectividad que ofrecía GPRS y 3G.
Es cierto que 5G permitirá el desarrollo de servicios que hoy parecen inalcanzables con las actuales tecnologías radio. Fundamentalmente me refiero al coche conectado autónomo y el desarrollo de IoT en miles de dispositivos. Más allá de esto, creo que las actuales tecnologías LTE 4G satisfacen las necesidades de navegación y conectividad de millones de usuarios. Qué nadie me interprete mal: no quiero decir que 5G no sea importante y un gran salto, únicamente que detrás de su adopción hay innumerables cuestiones que escapan al texto de Ignacio.
Me parece un poco exagerado plantear solo el análisis solo en términos de rivalidad entre países, aunque pueda llamar mucho la atención el subtítulo que subyace: Oriente vs. Occidente. Aquí no solo hablamos de la tecnología radio y la estación base o BTS. Diría que esto ya está superado y está “atado y bien atado” por las patentes de cada fabricante y los estándares del 3GPP. Ahora la pelota está en el tejado de los Operadores de Telecomunicaciones y no parece claro que tengan la misma urgencia de desplegar 5G salvo que quieran publicar una nota de prensa y así llamar la atención de accionistas, usuarios y periodistas.
Empecemos por el plan de frecuencias. No está claro la idoneidad de las frecuencias asignadas a este servicio y la naturaleza del despliegue actual. Quiero decir que si queremos usar 3500MHz tenemos que poner muchas más estaciones base porque, desde las actuales, hay dificultad para dar cobertura a todos los usuarios y objetos. Aunque sea una opción viable, instalar Small Cells (estaciones muy pequeñas) en cada esquina de una ciudad cuesta mucho dinero, por lo tanto el problema no se reduce solo a comprar el 5G de un determinado fabricante. También podemos optar al segundo dividendo digital y usar la frecuencia la baja de 700MHz, incluso esperar a los 1500 MHz pero esto no será algo rápido. Por cierto, dan escalofríos cuando el Gobierno sondea el mercado sobre el uso de la banda de 26GHz. Por esta razón, parece lógico pensar que, más tarde o más temprano, se debería producir un desacople del actual binomio frecuencia-servicio y las actuales frecuencias bajas (700, 850 y 900 MHz), de mayor propagación y menor ancho de banda, se reserven para aplicaciones IoT y coches en 5G, y las frecuencias altas (1800, 1900, 2100 y 2600MHz) se destinen a la navegación y Apps, también en 5G, e incluso 4G. Pero todos sabemos que estas cosas, los apagones y los reframing, van despacio y suelen estar regulados y, de la noche a la mañana, un operador no se puede “cargar” un servicio.
Capacidad. Plantear o dar a entender que el 5G supera la capacidad de las actuales comunicaciones por fibra es equivocado o al menos incompleto o inexacto. Lo cierto es que a la fibra instalada le queda recorrido para crecer durante décadas con tecnologías como XGSPON o NGPON 2. Esto, a priori, es tan fácil como actualizar con pequeñas modificaciones las actuales OLT GPON y las redes de fibra. En el mundo radio esto no es nada fácil porque exige una minuciosa planificación, contratación de emplazamientos e instalación de nuevas antenas. Por eso, cualquier cambio en la red de acceso radio se hace con mucha cautela y pies de plomo.
En este sentido una vez más me viene bien el comentario que hace The Wall Street Journal. En él se dice que el éxito de Netflix ha sido gracias a que EE.UU. ha liderado la tecnología 4G. En fin, no soy capaz de ver esta relación cuando está demostrado que el éxito de esta plataforma de TV se basa en producir sus propios contenidos y en distribuirlos “devorando” ancho de banda de las redes de fibra y sus tarifas planas. Dicho de otro modo: si dependiéramos del ancho de banda que tenemos en nuestro plan de datos móvil me temo que no veríamos tantas series… Pensemos que mucho antes de cualquier tecnología móvil ya existía en EE.UU. una industria cinematográfica potentísima que solo tenía de trabajar para el dueño que mejor pague…
Servicios y coche conectado. Es cierto que la adopción de 5G abrirá el mercado a nuevos actores que aún no existen. Seguramente estos vengan a través del mundo IoT porque, en el mundo del coche conectado-autónomo, me temo que “el pescado ya está vendido”. Examinado la posible cadena de valor, a menos que alguien invente algo totalmente novedoso, los actores ya están y dudo que se dejen robar una porción del pastel. Empezando por el vehículo: dudo que BMW, el grupo Volkswagen, PSA, Toyota o Daimler dejen de vender coches. Ellos saben fabricar un coche y todos confiamos en alguna de estas y otras marcas (sin olvidar los puestos de trabajo que generan en Europa), tienen sus líneas de producción acostumbradas a cambiar, redes de distribución, proveedores auxiliares, logística, dominan los entresijos políticos, etc. Un caso a destacar sería el de Tesla que tantas pasiones despierta pero realmente cuál es su diferencial ¿Un coche lujoso, su sistema de navegación, sus baterías, puntos de carga que han sido subvencionados?
Por otro lado está el sistema de navegación de a bordo y detección de obstáculos. Aquí puede existir sitio para la innovación, no lo sé. Ahora se están probando muchos sistemos que convergerán con uno, el mejor, y que terminará siendo integrado durante la fabricación del coche. Una vez más dudo que a gente como Bosch esto le suene raro.
Hablemos de cartografías, planificación de rutas, etc. ¿Quién fue el primero y hoy por hoy es el más preciso? Google. Realmente aquí es donde está uno de los diferenciales. Ellos han cartografiado medio mundo y saben recoger y tratar datos masivamente. Con todos mis respetos, la información del tráfico y rutas facilitada por la DGT o los Ayuntamientos, palidece con la precisión de Google. Por eso, si dependemos de los sistemas públicos para que un coche sea autónomo estamos perdidos…
Otro eslabón que cobra fuerza en esta cadena de valor, especialmente en los últimos años, es el alquiler del servicio de transporte. Parece normal que en el futuro existan empresas ofreciendo este servicio con coches autónomos. Todos conocemos los actores que se han posicionado aquí: desde coches sin conductor donde tú conduces, hasta aquellos que viene a recogerte. En último caso, a la vista de lo que en las últimas semanas está pasando con Uber, Cabify y las licencias VTC, parece poco recomendable meterse aquí sin garantías… Me temo que el impacto social es tan fuerte que pocos gobernantes están dispuestos a quemarse en un conflicto con el mundo del taxi. Este ejemplo también debería servir como “aviso para navegantes” para todos aquellos innovadores que pongan en entredicho la viabilidad económica de un servicio o colectivo tradicional…
Por último y vuelvo a los operadores: Ellos y solamente ellos explotarán las nuevas y futuras redes 5G y por las razones anteriores, actualmente, no tienen tanta urgencia en correr hacia un nuevo despliegue.
La supuesta injerencia usando los datos de Facebook
abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No CommentsTras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.
Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?
No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.
En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…
¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.
Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.
Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.
Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.
Liderazgo Técnico y Transformación Digital
marzo 9, 2018 on 7:32 pm | In análisis de datos, innovación, internet | 1 CommentHace años, muchos años, en una conversación de bar, un colega y yo fantaseábamos con que en el futuro, los más importantes y ricos serían los técnicos. En aquellos años, lo que garantizaba el éxito profesional, era tener estudios de empresariales y económicas, y dedicarse al mundo de las finanzas. Era una época donde el triunfador yuppie exhibía un Porsche y el pelotazo era visto como algo normal. No existía Internet, tampoco teníamos móvil, pero ya se adivinada la revolución que suponía “controlar” de un ordenador.
Como digo, de aquello hace mucho tiempo y hoy, si rescatáramos aquella charla, nos sorprendería lo acertado de nuestro embriagado pronostico. A nadie escapa que, desde hace varias décadas, el freak técnico se ha encaramado a los rankings de los más poderosos, ricos e influyentes del mundo, y de ahí dudo que descienda. Todo lo contrario.
La revolución de Internet, y en general del ordenador personal, ha hecho posible la democratización de la tecnología. Casi cualquiera, con una buena idea y el suficiente respaldo (por supuesto, también de profesionales financieros), es capaz de proponer algo que de otra forma sería casi imposible. Esto significa que el control de la tecnología es un diferencial para progresar. Ya lo demostraron gente como Steve Wozniak, Bill Gates y Steve Jobs y, más recientemente, Jeff Bezos, Seguéi Brin, Larry Page, Mark Zuckerberg o Elon Musk. Es una constante que se repite.
Realmente, el núcleo diferencial de todas las empresas que comentamos: Apple, Microsoft, Amazon, Google, Facebook y Tesla, entre otros, es el dominio de la tecnología. Ellos inventan tecnología que les permite ser diferentes, mejores que el resto. En cambio, ese resto, empleamos la tecnología que ellos han inventado y que permiten que usemos. Podemos encontrar muchos ejemplos pero me centraré en el mundo de los datos. Ellos, por su naturaleza global (Internet) y para dar un mejor servicio al usuario, vieron que las todopoderosas bases de datos relacionales y los monolíticos ordenadores centrales, eran poco eficientes. Por esa razón inventaron o apadrinaron el uso de muchas máquinas, baratas y sencillas, conectadas entre sí formando un clúster. Por supuesto, para que esto funcionara había que meter mano en el sistema operativo y tunearlo a tu gusto. Así, el uso de Linux, tenía todo el sentido. Como escribía antes, las bases de datos relacionales han demostrado y demuestran, que son muy eficientes para acumular y recuperar cierto tipo de información muy tabulada. En cambio, en un entorno donde cada dato o atributo que define a un objeto o persona es diferente y estos, las personas, se cuentan por cientos de millones y están repartidos por todo el mundo, el concepto clásico de base de datos no escala bien, es decir, no crece al nivel que se espera.
Así nacieron las bases de datos NoSQL. Todos hemos oído hablar de Cassandra, Redix o MongoDB, por ejemplo. Es cierto que son herramientas accesibles y que cualquiera puede usarlas pero, si rascamos en sus orígenes, nos encontramos que han sido impulsadas por gente como Apache, VMWare, Facebook, Yahoo! o Google. Lo mismo sucede con el famoso Hadoop. Es decir, ya tengo una buena idea de negocio o de cambio “del mundo” pero, para llevarla a la práctica necesito crear una nueva tecnología. O al contrario: he creado una nueva tecnología que puede ser aplicada para este determinado negocio.
Lo anterior me lleva a pensar en el futuro de aquellas empresas, que aun siendo muy grandes y poderosas, intentan Trasformase Digitalmente y dejan la sensación de no conseguirlo plenamente. Sé que es un tema muy complicado y tiene muchos ángulos desde el que ser estudiado pero cabría pensar que, al carecer de ese liderazgo técnico, siempre van a ir un paso por detrás. Por supuesto que las herramientas están ahí, a su alcance, como para ti y para mí. Pero ellos solo usan lo que escapa de las patentes -e incluso del secreto- (de los tecnólogos). Tampoco, por ejemplo, son capaces de impulsar una Comunidad de Desarrolladores, un nuevo algoritmo para el análisis de datos, o un estándar y, carecen de la visión, espíritu y dinero para apostar en ideas que puedan parecer alocadas.
Datos, datos y más datos
marzo 8, 2018 on 3:45 pm | In análisis de datos, innovación, internet | No CommentsHace unos días, en una intervención de Dimas Gimeno, presidente de El Corte Inglés, hablaba de la necesidad de equiparar a todos con las mismas reglas de juego, se refería, como es de suponer, a las empresas que están dando pequeños mordiscos al negocio tradicional de esta marca. También dejaba ver la necesidad de cambiar porque, queramos o no, los hábitos de los consumidores cambian y, como no, también se refirió al manido tema de los datos. Nos recordaba los 75 años de historia de ECI y de la experiencia que ello le confiere en “ese conocimiento del cliente”. Casi de igual forma se manifestaba Chema Alonso en la víspera del MWC, cuando desveló el significado de Aura. Nos contaba que ellos, Telefónica, tienen acceso a muchos datos porque llevan casi 100 años prestando servicio. Está claro que cada uno comenta cosas muy diferentes pero ambos hablaban de una realidad que está ahí, los datos.
Comerciar con los datos no es nuevo para nadie. Recordar cuando nos sentíamos importantes por ver nuestro nombre en las mastodónticas guías telefónicas… Menos ilusión hacía cuando empezábamos a recibir en nuestro domicilio publicidad no solicitada. ¿Cómo llega nuestro número de teléfono a una empresa de telemarketing? Mejor ni pensarlo… ¿De dónde salen nuestros datos? Si hablamos de empresas como ECI es similar: Cuando te haces una tarjeta de cliente o fidelización sueles estar «controlado». Aquellas tarjetas, que nacieron con el sano propósito de financiar la compra, pronto se usaron como un medio más de conocer nuestro patrón de consumo. Me olvidaba: Otros que saben mucho de datos son los bancos. Ellos conocen, de primera mano, cuales son nuestros ingresos y gastos.
¿Qué ha cambiado?
Estos datos estaban antes de que naciéramos: Nuestro DNI, teléfono, dirección, ingresos, gastos y, como veíamos, la cesta de la compra. La aparición de Internet y el uso masivo del correo electrónico hizo que a esta lista de datos (digamos básica) se añadieran otros. Recordar, no tardamos en ser castigados con el molesto spam… Por otra parte, las comunicaciones en Internet, para que funcionen, requiere de una dirección IP única y, con todo el sentido, un administrador de un servidor web está interesado en conocer cuántos visitantes se cuelgan de su página. Así las cosas, irrumpen los buscadores cuya misión principal es hacernos la vida más cómoda en Internet. Ellos actúan de intermediarios entre nosotros e Internet. Conocen todo lo que buscamos y lo guardan en sus bases de datos. En un principio solo conocen nuestra dirección IP, que puede cambiar en cada acceso que hacemos, pero se cuidan de enviarnos una silenciosa piececita de software -o cookie- con la que nos identificamos (sin saberlo). Recordar que el uso de estas cookies es generalizado y no es exclusivo de un buscador. Ya nos tiene controlados y pueden modelar o dirigir nuestra navegación y atención como quieran. Más tarde nos regalaron direcciones de correo y espacio de almacenamiento y, lógicamente, nos teníamos que registrar y aportarles más detalles sobre nuestra identidad. Por último, se les ocurrió montar una red de conocidos dentro de Internet con la que podríamos compartir imágenes, textos o cualquier archivo multimedia. Esa red, para que funcione y sea eficiente, tiene que almacenar todo lo que queremos compartir. Es decir, son más datos vinculados con nosotros.
En modo alguno pretendo criticar o dirigirme contra esta industria pues, esta forma de funcionar, ha demostrado mejorar nuestra experiencia en Internet. También ha permitido innovar en campos donde parecía que todo estaba inventado y está iniciando una fuerte Trasformación, Digital por supuesto. Es cierto que esta Transformación está provocando que muchos sectores vean amenazada su posición o puestos de trabajo, y que el uso de cierta tecnología haga aumentar, exponencialmente, la riqueza de unos pocos en contra del desempleo de muchos. Creo que esta situación no nos conviene en una sociedad pues, a la larga, es mala para todos y tendremos o tenderemos a remediarla.
Tampoco nos conviene, como individuos, perder nuestra privacidad. Aunque nuestros datos estén ahí, no creo que a nadie de Google o Facebook le interese quien soy. A ellos les interesa el conjunto del que formo parte. Ellos usan nuestros datos analizándolos para entender o predecir que hacemos o que queremos. Parece ser que, incluso, pueden conocer un resultado electoral analizando la actividad previa en Twitter… En fin, para nuestro consuelo, hay que decir que muchas de las decisiones clave de estas empresas, incluidas las poner en marcha una nueva iniciativa, se toman analizando estos datos y es importante no olvidar que, aun así, se equivocan y fracasan, y algunos proyectos acaban en la basura por culpa su interpretación.
En cambio, sí me preocupa el uso criminal de esta información. Si los datos que almacena Facebook, LinkedIn, Apple o cualquier otro, caen en manos inadecuadas podemos encontrarnos con situaciones incomodas. Es importante recordar esto para que la próxima vez que nos suscribamos a una nueva plataforma o tarjeta de fidelización pensemos: ¿Si me doy de alta aquí y alguien “malicioso” se entera, en que me vuelvo vulnerable? ¿Alguien me puede atacar sabiendo el tipo de café que tomo?
Datos, censo y tabuladoras
enero 27, 2018 on 8:44 pm | In análisis de datos, colección, hist. informática | No CommentsAdolfo García Yagüe | El tratamiento de los datos no es algo reciente, ni siquiera es una disciplina nacida a la luz de los progresos de la Edad Moderna. Las civilizaciones de la antigüedad ya gestionaban datos. En las tablillas cuneiformes de Mesopotamia podemos encontrar datos de producción agrícola e impuestos. Los romanos, por su parte, ya eran conscientes de la importancia del empadronamiento de la población; y los chinos de hace miles de años mantenían un preciso registro astronómico. No obstante el punto de inflexión se produce a finales del Siglo XIX cuando se automatiza el cálculo y tratamiento de los datos.
En el Siglo XVII aparecen las máquinas de cálculo de Blaise Pascal (1623-1662) y Gottfried Leibniz (1646-1716). Estos ingenios permitían operaciones aritméticas de suma, resta, multiplicación y división. Será durante la siguiente centuria cuando el cálculo mecánico alcance su madurez de la mano de Charles Xavier Thomas de Colmar (1785-1870) y su aritmómetro aparecido el año 1822. Sin abandonar el XIX, gracias al infatigable Charles Babbage (1791-1871) y su inacabada obra, aparece el concepto de máquina programable. En este siglo también aparecerán las máquinas especializadas en cálculo algebraico como las de Leonardo Torres Quevedo (1852-1936). En este escenario de mecanización del cálculo, falta el complemento de los datos. La gestión mecánica de éstos fue consecuencia de la necesidad de acelerar el tratamiento del undécimo censo de EE.UU, en 1890. Con este fin fue convocado un concurso de ideas al que acudió Herman Hollerith (1860-1929), un empleado de la propia institución censal. Inspirándose en el telar programable con tarjetas perforadas de Joseph Marie Jacquard (1752-1834) y en la máquina de Babbage (también programable con tarjetas perforadas), propuso automatizar el recuento censal con una máquina a la que llamó tabuladora. La tabuladora se alimentaba de tarjetas perforadas en las que previamente un empleado del censo había transcrito a pequeños agujeros la información de las encuestas censales. De esta forma, cada tarjeta reunía los datos de un ciudadano: su sexo, procedencia, edad y estado civil, entre otros, e incluso algo impensable -y políticamente incorrecto- en nuestros días como la raza y las congregaciones religiosas. La tabuladora procesaba cada tarjeta detectando la presencia o no de un agujero y llevaba la cuenta de los perfiles del conjunto de ciudadanos.
Aquellas máquinas dieron paso un paso evolutivo al ser “fácilmente programables”. Esta programación aportaba flexibilidad para permitir usar la máquina para la tarea que deseáramos, por ejemplo en control de la producción, la planificación de horarios de trabajo o las nóminas. Es lo que conocemos como lógica cableada y en la colección podemos observar un módulo que permite la programación de una de estas máquinas. Rápidamente, las tabuladoras también se emplearon para realizar operaciones aritméticas convirtiéndose en el centro de cálculo de las grandes compañías.
Las tabuladoras dieron otro salto evolutivo con la introducción de la tubo de vacío. Aquel componente de cristal era frágil, pero muy silencioso en comparación con los resortes y ruedas dentadas. La era electrónica acaba de comenzar. Lógicamente, las tabuladoras no tardaron en ser totalmente electrónicas siendo más rápidas, fiables y protagonizando el punto final de la era mecánica.
En este momento, hacia la segunda mitad de los años cuarenta y principio de los cincuenta, aparecen los primeros ordenadores y con ellos el concepto de programa descrito años atrás por Babbage y Ada Lovelace (1815-1852), sin olvidar a Alan Turing (1912-1945). Es decir, sobre una máquina de propósito general, escribimos un programa donde se indica que hacer con los datos que vamos a introducir. Lógicamente, esta entrada de datos lleva implícita una salida de datos. Es lo que conocemos como Entrada y Salida (Input-Output o I/O). En aquellos primeros años, y hasta el comienzo de los años ’80, ese proceso de Entrada y Salida de datos se apoya en tabuladoras. En efecto, como podemos comprobar en alguna pieza de la colección, durante este (gran) periodo las tabuladoras se utilizan, por ejemplo, para imprimir recibos de impuestos. Por supuesto, también se utilizan para introducir programas en aquellos ordenadores. Este uso y método de I/O conformará una jerga que se ha venido utilizando durante años en informática, y se ha utilizado durante mucho tiempo para definir perfiles profesionales: Perforador (de tarjetas), grabador, programador, analista… Ahora, con lo rápido que va todo, sorprende comprobar que las tabuladoras hayan aguantado tanto.
La proliferación de los tubos de imagen (monitores), teclados y los soportes magnéticos hizo que careciera de sentido seguir usado máquinas de tarjetas o de tabular. Poco a poco se fueron desconectando y pasando a la historia, pero no olvidemos que se concibieron para automatizar y sacar conclusiones de toda la masa de datos que hay dentro de un censo. Es, en definitiva, el Big Data del siglo XIX.
Colección | Máquinas de Cálculo | El Aritmómetro | Inicios de la Industria Informática
Pasarela IoT de Telefónica Globalrider
julio 19, 2016 on 3:38 pm | In análisis de datos, globalrider, m2m, iot | 5 CommentsAdolfo García Yagüe | Afrontar el desarrollo y fabricación -en menos de 4 meses- de un dispositivo IoT en el que se integran 20 sensores es un pequeño reto. Si a este desafío añadimos la necesidad de que este elemento satisfaga los exigentes requerimientos que supone dar una vuelta al mundo sobre una moto de trail, rozamos la proeza. En este artículo queremos compartir con vosotros las claves de diseño que han hecho posible la conexión de la moto de Hugo Scagnetti.
Potencia y capacidad de proceso
Ante el reto de Telefónica Globalrider, el primer paso fue seleccionar un núcleo de proceso lo suficientemente potente para absorber el caudal de datos y contenidos multimedia que se generarían a lo largo de 37.000 kilómetros. Este micro también tenía que ser capaz de gestionar “holgadamente” los sensores y líneas de comunicación que de él dependen. Por último, la plataforma elegida, nos tenía que ofrecer un marco sencillo y flexible para poder desarrollar diferentes aplicaciones software. Estas y otras cuestiones han sido atajadas mediante el empleo de un SoC (System on chip) E3845 de la firma Intel Corporation. Este chip es el hermano mayor de una familia de procesadores basados en Atom pensados para su uso en dispositivos móviles y equipos IoT. El E3845 cuenta con cuatro núcleos trabajando a una frecuencia de 1,91GHz. En él también se integran los periféricos auxiliares para la gestión de entradas y salidas, gestión de memoria y tratamiento de vídeo. Es una pequeña bestia que nos aporta capacidad de proceso facilitando el objetivo de hacer inteligente a la moto.
Por poner un ejemplo de la inteligencia de la Pasarela IoT cabe destacar el análisis en tiempo real que hace de la velocidad e inclinación de la moto para predecir accidentes. Es decir, si la Pasarela identifica un patrón de caída, nos enviará un mensaje de alta prioridad alertándonos de un accidente inminente. Otro signo de inteligencia y capacidad es el tratamiento que se hace de todos los datos que captan los sensores, aplicando a cada dato muestreado una referencia temporal y posición GPS. Por último, es importante recordar, el importante esfuerzo de proceso que supone la adquisición de vídeos y fotos, su transcodificación, y posterior envío a través de redes de telefonía móvil de baja capacidad.
Como hemos dicho, el SoC Intel E3845 forma parte de una familia que integra como núcleo el microprocesador Atom. Como no podía ser de otra forma, este micro es heredero de la arquitectura x86 de Intel lo que facilita enormemente la portabilidad de desarrollos software previos. TELNET, como miembro de la IoT Solutions Alliance de Intel, ya fabrica y comercializa otras Pasarelas IoT para aplicaciones Industriales y Hogar Digital. Para ambos casos hemos recurrido al Atom E3815, menos potente pero 100% compatible a nivel software e incluso huella de pines.
Arquitectura Software
Los mayores quebraderos de cabeza de un sistema embebido están relacionados con el software, concretamente con el sistema operativo y los controladores o drivers. Si no se tiene pleno control sobre todo lo que está “corriendo” dentro de un sistema embebido, lo que en apariencia puede funcionarnos a la primera puede traicionarnos en cualquier momento y desencadenar una catástrofe, sin mencionar inadvertidos agujeros de seguridad. Esta es una de las razones por la que en TELNET nos gusta armar nuestra propia distribución de Linux a través de Buildroot o Yocto.
Sobre el kernel de la Pasarela IoT de Globalrider están ejecutándose seis gestores principales. Estos gestores administran agentes especializados en diferentes tareas: desde analizar la información que recogen los sensores hasta mantener la conectividad de Hugo o interactuar con la pasarela.
El Gestor de Supervisión o Supervisor Manager se responsabiliza de la administración del resto de Gestores y, a través de él, accedemos e interactuamos con la Pasarela. Este Gestor tiene competencia sobre el Display y los pulsadores de a bordo que representan la vía más cómoda y segura para interactuar con la Pasarela mientras la moto se encuentra en marcha. También nos ofrece un interfaz Web para facilitar la configuración avanzada desde un móvil o tablet. De igual manera este Gestor de Supervisión es la puerta de entrada remota a todo el sistema.
GPS Manager tiene responsabilidad sobre la citada conexión para conocer el posicionamiento de la motocicleta en todo momento. Este Gestor tiene que entregar al resto de gestores (Supervisor, Sensor y Camera) una referencia horaria UTC (Universal Time Coordinate) junto con la posición de longitud, latitud y altitud. Esta información será la referencia temporal y espacial que acompañará a los datos adquiridos por los sensores.
Los datos recogidos a través de los sensores son procesados por Sensor Manager. Dentro de este Gestor identificamos un agente especializado en cada sensor (bio, ambiental, giroscopio, acelerómetro, etc). Además de los datos reportados por los propios sensores, también será responsabilidad de este Gestor calcular la velocidad de la moto a partir de la información de posición GPS. Sobre todos los datos captados o calculados, Sensor Manager estampará una marca de tiempo y localización para “posicionar” cada muestra. Otra de las atribuciones de este Gestor tiene que ver con el análisis en tiempo real de los datos recogidos. Como comentábamos anteriormente, la Pasarela IoT de Globalrider dispone de un motor de reglas o políticas que nos permite identificar un patrón y desencadenar una alerta ante la inminencia de un accidente o cualquier otro evento. Por último Sensor Manager es el responsable de empaquetar los datos recogidos en archivos CSV (comma-separated values) para su posterior envío.
La naturaleza de los contenidos recogidos a través de la cámara de aventura nos obligó a programar un gestor específico para la gestión de la cámara y el tratamiento de fotos y vídeos: Camera Manager. En primera instancia este Gestor, a través del Camera Agent, se encarga del control remoto de la cámara. A continuación, a los contenidos captados, se les aplica la marca de tiempo y posición que establece GPS Manager. Más tarde, gracias a Transcoding Agent, podemos recodificar y comprimir los contenidos multimedia para adaptarlos al ancho de banda disponible. Con esta estrategia podríamos incluso recodificar para ofrecer un bitrate suficiente para hacer streaming a través de una conexión de bajo ancho de banda. Por último, dentro de Camera Manager también hemos habilitado un agente denominado Secure Loop. Éste, al entrar en servicio, funciona en modo bucle capturando pequeños fragmentos de vídeo y enviándolos inmediatamente a los servicios Cloud de Telefónica.
Upload Manager es un repositorio temporal donde se van almacenando los archivos CSV generados en Sensor Manager y los contenidos multimedia de Camera Manager. Además de esta atribución de almacenamiento, Upload Manager también se responsabiliza del correcto envío de todos los datos a través de una conexión segura lo que significa que tiene, entre otros atributos, capacidad para detectar errores de transferencia, gestionar reintentos, envíos parciales y cifrado. De igual forma, Upload Manager es capaz de priorizar envíos de alertas y vídeos de seguridad.
Para finalizar, mediante WAN Manager se administra la conectividad de la Pasarela IoT. Este gestor tiene competencia sobre la conexión M2M Global de Telefónica siendo capaz de conectarse a través de cualquier tecnología y servicio de telefonía móvil. Además, este gestor de conexión WAN, es capaz de establecer conexiones de respaldo a través de redes Wifi.
Puedes hacer el seguimiento de esta aventura en: telefonica.yamaha.globalrider.org
(c) 1999-2023 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress