Internet de las Cosas y M2M
octubre 16, 2012 on 2:50 pm | In análisis de datos, m2m, iot, telecomunicaciones | 1 CommentAdolfo García Yagüe | Si hacemos caso de las predicciones de compañías como Intel, se estima que en el año 2020 habrá 31.000 millones de “cosas” o dispositivos conectados a Internet. Semejante cifra supone una revolución superior a la propia Internet, o la que estamos viviendo con la telefonía móvil. Sin lugar a dudas, algo tan descomunal cambiará nuestras vidas.
Conceptualmente, “Internet de las Cosas” no es algo tan novedoso. A fin de cuentas se trata de conectar un dispositivo a otro a través de una red de datos. Recuerda, no son personas las que se conectan entre sí, son máquinas. De ahí deriva el nombre de M2M (Machine to Machine). Podemos encontrar múltiples ejemplos de M2M a nuestro alrededor: desde aplicaciones domóticas, como las alarmas domésticas que conectan con una compañía de seguridad, hasta los sistemas de control de flotas de vehículos empleados por las empresas de logística.
¿Qué es lo que ha cambiado?
Sin pretender ser exhaustivo me centraré en tres aspectos que están cimentando esta nueva revolución. El primero y más evidente concierne al abaratamiento de los circuitos integrados o chips, su miniaturización e incremento de potencia y prestaciones. Hoy en día, en apenas dos centímetros cuadrados, es posible integrar un ordenador completo con un sistema operativo embebido junto a un módulo de comunicaciones. Todo por unos pocos euros. Esto supone que es posible construir dispositivos muy inteligentes y baratos por poco dinero.
Otra de las novedades es la madurez de tecnologías inalambricas como Zigbee. Esta tecnología, además de tener un bajo consumo de energía, permite desarrollar topologías de red malladas y así garantizar múltiples rutas hacia el destino. En su defecto es importante conocer que es una tecnología de comunicaciones pensada para enviar poca cantidad de datos (máximo 250 Kbps) a distancias inferiores a 100m. Como veremos más adelante, la adopción por parte de las compañías eléctricas de otras tecnologías de comunicaciones M2M, como PRIME y Meters and More, también están haciendo posible el desarrollo de la Internet de las Cosas.
No podemos olvidarnos de la importancia de IP versión 6 en esta revolución. Gracias a esta evolución del protocolo el número de direcciones IP parece ilimitado. Es decir, prácticamente cualquier cosa de este planeta puede tener su propia dirección IP. Para hacernos una idea, según Wikipedia, con IPv6 disponemos de 340 sextillones de direcciones o lo que es lo mismo, 670 mil billones de direcciones IP por milímetro cuadrado de la superficie de La Tierra. En fin, mi cabeza no da para imaginar tantas IPs…
Aplicaciones M2M
Cualquier tecnología sin una aplicación y un modelo de negocio que la aproveche tiene poco futuro. Internet de las Cosas ofrece un sinfín de aplicaciones, alguna de ellas promete hacernos la vida más fácil. Además, al igual que sucede con Internet, el mundo M2M ofrece un ecosistema repleto de oportunidades donde emprendedores y grandes empresas pueden participar. Para ilustrar este punto comentaré brevemente alguna de estas aplicaciones:
eSalud. Las enfermedades del corazón son la primera causa de muertes en el mundo. Los pacientes con alguna dolencia cardiaca o grupos de riesgo han de someterse a pruebas diagnósticas periódicas que faciliten al profesional médico conocer la evolución de su corazón. Alguna de estas pruebas, como el electrocardiograma, aporta información sobre el corazón y su funcionamiento a través de la interpretación de la actividad eléctrica que se registra en la superficie de nuestro cuerpo.
En el mercado ya existen dispositivos de tamaño reducido capaces de medir la actividad cardiaca. A través de un dispositivo intermedio, como un teléfono móvil, es posible enviar la información que capta el sensor a un centro de asistencia médica. Allí, de una manera desatendida, un sistema puede supervisar –en tiempo real- las constantes vitales del miles de pacientes y advertir de manera inmediata que algo va mal. Por supuesto, toda esta información estaría disponible para que el cardiólogo haga un estrecho seguimiento de sus pacientes. Pensemos en personas que han sufrido un accidente cardiovascular, grupos de riesgo como hipertensos, ancianos, deportistas profesionales, o aquellos que llevan años sin hacer nada de deporte y un día deciden que van a competir en los próximos juegos olímpicos…
Smart Metering. Como todos sabéis, el consumo que hacemos de electricidad, agua y gas se registra en un contador que puede estar en el interior de nuestra vivienda o en un armario común a la comunidad de vecinos. En ambos casos la lectura de consumos la hace, comúnmente, un operario que revisa el contador y anota las medidas. En otras ocasiones, si no se puede hacer esa lectura de manera presencial, las compañías se fían de los datos que nosotros les facilitemos o incluso estiman nuestro consumo haciendo una media de medidas previas. En cualquier caso este sistema es poco eficiente y costoso.
¿Por qué no dotar a cada contador de agua, luz y gas de un dispositivo que tome las medidas y las envíe al centro de datos del proveedor? La tecnología existe y solo falta desplegarla de manera masiva. A nivel europeo se han publicado diversas directivas que apuntan en esta dirección, siendo responsabilidad de cada país la hoja de ruta para la modernización gradual de toda la planta de contadores. En España, según la orden ITC/3820/2007, antes del 31 de diciembre del 2018 el consumo eléctrico en instalaciones inferiores a 15 Kw serán telegestionadas. Para este propósito Endesa y Enel han desarrollado la tecnología Meters and More, mientras que Iberdrola ha impulsado PRIME.
Smart Cities. Gestión del tráfico, disponibilidad de plazas de aparcamiento, control de la calidad del aire o la gestión del alumbrado público son solo alguna de las aplicaciones M2M susceptibles de ser desarrolladas en las ciudades. En todas ellas el principio es básicamente el mismo: Un dispositivo equipado con un sensor es capaz de medir un parámetro como la densidad de tráfico; la presencia o no de un coche en una plaza de aparcamiento; el monóxido de carbono y otros gases tóxicos; o el nivel luminoso. Estos dispositivos establecen redes malladas a través de las que envían los datos a uno de los sensores que desempeña el papel de maestro. Este dispositivo maestro es responsable de agregar y enviar la información que recibe de los sensores que de él dependen a un dentro de datos. Habitualmente, la comunicación entre el maestro y el centro de datos se realiza a través de la red de telefonía móvil mediante GPRS.
Supongamos aplicaciones accesibles a través de nuestro teléfono móvil que nos informen de la disponibilidad de plazas de aparcamiento antes de aventurarnos en una zona y desesperarnos en una búsqueda inútil. Pensemos que nuestro GPS nos informe en tiempo real del estado de congestión de las carreteras. Conozcamos, antes de salir a la calle, cual es la calidad del aire y del índice de agentes alérgenos. Bajemos la factura del consumo eléctrico que dedica cada ayuntamiento en la iluminación, adecuando el funcionamiento de las farolas al nivel de luminosidad ambiental o, incluso, a la presencia o no de peatones.
Smart Grids. Uno de los grandes retos tecnológicos de este siglo es, sin lugar a dudas, ajustar la demanda de energía con la capacidad de producción y distribución de las compañías eléctricas. Factores como la proliferación de pequeños centros productores de tipo renovable o la irrupción del coche eléctrico están acelerando la transformación de las redes eléctricas. La idea no es otra que transportar la energía allí donde se necesite, autoabastecerse y evitar comprar energía a otros países, además ofrecer a los usuarios -a mejor precio- el excedente energético. Los retos anteriores solo son abordables si la red eléctrica es inteligente de extremo a extremo. Es decir, desde el consumidor hasta los centros de producción. Una vez más, esta inteligencia será posible gracias a dispositivos capaces de informar sobre nuestras pautas de consumo eléctrico, o dispositivos embarcados en nuestros vehículos que adviertan sobre el estado de carga de las baterías. Por otra parte, los centros productores informarán a las compañías de distribución sobre su capacidad de generación. A partir de toda la información anterior, las compañías eléctricas pueden indicarnos el punto de carga más próximo donde podemos acudir con nuestro coche. También pueden ofertarnos -vía móvil- una tarifa especial para el consumo que hagamos en las próximas horas, y así aprovechar para poner en marcha la lavadora o el lavavajillas, por ejemplo.
Prevención de incendios. La humedad relativa, la velocidad del viento y la temperatura son tres parámetros clave para evaluar el riesgo de incendio forestal. Si ya se ha producido el fuego podemos activar alertas tempranas al detectar en el aire la presencia de monóxido y dióxido de carbono. Ya existen pequeños proyectos pilotos en los que decenas de sensores vigilan nuestros bosques e informan de la más mínima anomalía. España no puede esperar más tiempo para hacer despliegues -a gran escala- de esta tecnología. Una iniciativa así contribuiría a proteger nuestro espacio forestal, además de impulsar la innovación en un campo como el que hemos comentado.
Aquí os dejo la primera entrega sobre el apasionante mundo de M2M. Espero que tras su lectura os estimule a pensar más aplicaciones. En la próxima entrega hablaré de arquitecturas de red M2M y daré algunas pistas para que te pongas manos a la obra.
Todos quieren ser tu Gran Hermano
septiembre 26, 2010 on 2:36 pm | In análisis de datos, cibercultura, colección, internet | 13 CommentsAdolfo García | El Gran Hermano descrito por George Orwell en su novela 1984 disponía de una amplia red de telepantallas para conocer en todo momento lo que hacían sus conciudadanos. Por otra parte, gracias a la eficiente labor del Ministerio de la Verdad, en la sociedad orwelliana la historia se manipulaba y reescribía para evitar que cualquier “incómoda” evidencia del pasado pudiera cuestionar el presente.
1984 describe una sociedad sin voluntad donde todos los aspectos de la vida son cuidadosamente planificados y controlados. Lo más llamativo de este sistema es que aparentemente funciona. Salvo casos aislados -similares al de su protagonista, Wiston Smith– da la sensación de que el sistema funciona. Es decir, la mayor parte de la ciudadanía vive (o sobrevive) instalada en la ignorancia…
* * *
En el marco de la presentación del Apple Macintosh, a comienzos de 1984, Steve Jobs recurrió al argumento de la novela de George Orwell para aterrorizar al auditorio sobre la posición hegemónica que IBM tenía en el mercado. Tras sus palabras Mr. Jobs obsequió a su entregado público con un impactante spot publicitario (dirigido por Ridley Scott) donde Apple, representado por una chica armada con una gran maza, huye de un grupo de perseguidores mientras se dirige a una gran sala donde centenares de personas asisten a un tenebroso discurso del Gran Hermano.
Trascurridos más de 25 años desde aquella presentación los usuarios hemos aprendido muchas cosas. Una de ellas es que toda gran compañía aspira, quizás sin intención reconocida, a ocupar el sillón del Gran Hermano… incluido Apple…
IBM y otras compañías inventaron la informática. Hasta el comienzo de los años ’90 esta compañía tenía una posición dominante en los sistemas para empresas. Pocos huecos escapaban a su control, desde el ordenador personal hasta el centro de proceso de datos. Afortunadamente aparecieron nuevas tecnologías que ofrecían alternativas a IBM. Es de justicia decir que la mayoría de estas opciones no eran técnicamente superiores a lo existente pero ofrecían, por fin, la posibilidad de elegir.
Con excepción del lanzamiento del PCjr y los tardíos PS/1, IBM nunca mostró mucho interés por el mercado domestico. Fueron Apple y Microsoft los que empezaron a desembarcar en los hogares con paso firme. En el mundo de la empresa los AS400 de IBM empezaron a ser desplazados por sistemas abiertos basados en UNIX. Token Ring fue languideciendo ante la imparable Ethernet, y el fantástico OS/2 cayó frente al popular Windows NT. Así las cosas, contra todo pronostico -y deseo- de Steve Jobs, el nuevo Gran Hermano fue Microsoft…
Los ´90 representan la década dorada de Microsoft. Windows y Office dominan los escritorios domésticos y profesionales. NT y el conjunto de servidores BackOffice entraron con fuerza en el mundo de la empresa. Esta hegemonía solo se vio perturbada por el nacimiento de Linux y, como no, la popularización de Internet.
Al comienzo de este siglo Microsoft seguía manteniendo su posición de Gran Hermano pero tenía innumerables competidores deseosos de hacerse un hueco en el CPD y en el escritorio. Además, Internet representaba un nuevo entorno en el que Microsoft nunca se desenvolvió con comodidad más allá del navegador Internet Explorer. Por esta última razón, como no podía ser de otra forma, Internet sería el espacio en el que nacería el nuevo Gran Hermano: Google.
En 1998 Google sorprendió al mundo con un simpático e infantil interfaz tras el que se ocultaba un sofisticado buscador. Poco a poco fue desplazando a buscadores tan populares como Altavista y Yahoo!. Hasta nuestros días la principal fuente de ingresos de Google se basa en un modelo sencillo y efectivo: anexar discreta publicidad a los resultados de cada búsqueda.
IBM y Microsoft nunca sintieron especial interés por el individuo. Su negocio estaba basado en vender herramientas hardware o software. En cambio Google no tardó en darse cuenta de la importancia que tenía conocer “a fondo” al usuario para poderle ofrecer una publicidad “más satisfactoria”. Además, para mantener su estrategia a largo plazo, Google supo ver la importancia que tiene “el dispositivo” desde el que acceden los usuarios. Por este motivo en el 2008 lanzo el navegador Google Chrome e impulsó Android. Como podéis imaginar, hoy Google sabe más de todos nosotros que los Gran Hermano que le precedieron.
Es difícil imaginar quién moverá del trono a Google. En mi humilde opinión quizás sea algún anónimo Wiston Smith que logre inventar una nueva forma de buscar en Internet empleando software de inteligencia artificial. Puestos a imaginar pienso en agentes personales que -manteniendo nuestro anonimato- hagan por nosotros el trabajo de búsqueda, análisis y consolidación de la información. Quizás, un paso previo, puede ser el desarrollo de nuevos estándares que faciliten la creación de una Web semántica. Tampoco hay que olvidar los envites que tendrá que soportar Google por parte de instituciones públicas cada más preocupadas (y presionadas) por el uso que se da a los datos de los usuarios.
Uno de los posibles destinos que aguardan a Google queda reflejado en el siguiente vídeo. En el cercano año 2015 Google ha logrado vencer a Microsoft y la prensa tradicional es cosa del pasado tras el desplome del periódico The New York Times. Por si fuera poco Google se ha fusionado con Amazon y entre ambos se encargan de «paquetizar» la información que recibimos desde Internet…
Hoy, en el 2010, aunque le cueste reconocerlo a Steve Jobs, Apple es incapaz de disimular sus maneras y aspiraciones de Gran Hermano. Con gran maestría ha enseñado a la industria discográfica como se vende música y contenidos multimedia a través de Internet. Apple ha demostrado a los fabricantes tradicionales de telefonía móvil que es lo que estábamos esperando los usuarios y, como no, han logrado generarnos una necesidad llamada iPad… Hasta aquí todo sería una bonita historia de innovación y marketing de no ser por el cautiverio que impone Apple a sus clientes obligando a estos a acceder a los contenidos a través de iTunes, controlando así que se puede escuchar, ver, leer o utilizar. Tampoco hay que olvididar la restricción para reproducir contenidos en Adobe Flash. Por último, en el lado más oscuro, está el contenido de los acuerdos de exclusividad que firman los operadores a cambio de un porcentaje de lo que facturarán a sus usuarios. A pesar de todo Apple va a necesitar algo más que bonitas máquinas para combatir en un mercado que acabará, tarde o temprano, dominado por fabricantes asiáticos (Samsung, HTC, LG, Huawei y ZTE entre otros) en cuyo corazón latirá, sin lugar a dudas, Android.
Noticias de interés
Alemania contra Google: un voto de confianza a la autorregulación. El Mundo 22.09.2010
‘The New York Times’ dejará de imprimirse «en el futuro». Expansión 09.09.2010
Sociedad de la Información y minería de datos
mayo 1, 2010 on 7:53 am | In análisis de datos, cibercultura, ciberseguridad, internet | 1 CommentAdolfo García | Ayer el Consejo de Ministros aprobó un plan para suprimir 29 empresas públicas y 32 altos cargos de la Administración y así ahorrar 16 millones de euros. Entre los órganos afectados desaparecerá la Dirección General para el Desarrollo de la Sociedad de la Información, dependiente del Ministerio de Industria, Turismo y Comercio. No puedo decir que me sorprenda, y tampoco creo que tenga consecuencias relevantes para el ciudadano. En cualquier caso, esta noticia me da pie para compartir algunas reflexiones.
La Sociedad de la Información es una bonita etiqueta para definir el mundo en el que vivimos. Sin lugar a dudas, esta denominación encierra un poderoso atractivo que la relaciona con el acceso democrático a la información y la comunicación global entre personas. Por esta razón, entre los quehaceres del Ministerio de Industria, se ha intentado fomentar el progreso social y económico a través del acceso a redes de datos y consumo de información. Más allá de esta visión tan idealista, el término Sociedad de la Información esconde otro significado menos saludable y a la vez más real e inquietante. Me refiero al hecho de que nuestras vidas y sociedades están dirigidas por los datos y la interpretación de estos.
La minería de datos, es decir, la recolección información y su posterior análisis es la auténtica esencia de la Sociedad de la Información. Instituciones públicas y entidades financieras son un ejemplo de organizaciones que necesitan conocer detalles de nuestra cotidianeidad para poder tomar decisiones. A veces, la posesión de información, su manipulación e interpretación interesada tiene consecuencias desastrosas, especialmente cuando se trata de la clase política. No es muy difícil asistir a intervenciones donde, flagrantemente, se falsean o malinterpretan datos para justificar una u otra política… ¿Y qué podemos decir de aquellas compañías que invaden la intimidad de nuestro hogar -o correo electrónico- ofreciéndonos productos a la medida de nuestras necesidades? Por último, seguro que todos conocemos alguna página en Internet que nos ha sorprendido presentando nuestros datos personales, domicilio, teléfono, etc. Caramba, ahora que me doy cuenta ¿No será más acertado emplear el término Información de la Sociedad?
Contra lo que muchos puedan pensar la minería de datos no es nueva. De hecho es bastante anterior a la existencia de ordenadores y redes de datos. Esta hunde sus raíces en los albores de otra Sociedad -esta vez la Industrial- a comienzos del siglo XIX en Inglaterra. Allí apareció una corriente de pensamiento denominada utilitarismo que influyó notablemente en la vida política y económica del país. Al igual que siglos antes Francis Bacon (1561-1626) llegó a la conclusión de que el único camino para desentrañar los misterios de la naturaleza era -partiendo de una posición escéptica- observar, tomar mediciones (datos) e interpretar estos, los utilitaristas se dieron cuenta de la importancia de recoger datos de cualquier aspecto de la vida en sociedad para, posteriormente, interpretarlos y tomar decisiones políticas… A la cabeza de este movimiento estaba el excéntrico Jeremy Benthan (1748 – 1832).
Cada día es más difícil establecer los límites en el acceso y manipulación a los datos que definen nuestra vida y costumbres porque, al vivir en un mundo dominado por la tecnología, vamos dejando (consciente o inconscientemente) tras nuestros pasos un reguero de valiosa información. Es este sentido es oportuno recordar la regulación procedente de la Administración Pública a través de la Agencia de Protección de Datos y la LOPD (Ley Orgánica de Protección de Datos).
Quiero acabar este post citando AbreDatos 2010. Este concurso se celebró los días 17 y 18 de abril con la pretensión de generar un debate en torno a la necesidad de que los organismos públicos proporcionen sus datos de forma accesible, para permitir su uso y reutilización por parte de los ciudadanos. Los participantes tenían como objetivo desarrollar una aplicación en menos de 48 horas que hiciera uso de al menos una fuente de datos públicos y transformara estos en información útil.
Dirección General Desarrollo de la Sociedad de la Información www.mityc.es/dgdsi
Agencia de Protección de Datos www.agpd.es
AbreDatos 2010 www.abredatos.es
Fuentes de Datos Abiertos en España https://datospublicos.jottit.com/
© 1999-2025 A.G.YAGÜE - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress