Ciberseguridad e IoT

marzo 28, 2019 on 6:15 pm | In academia, análisis de datos, cibercultura, descarga textos pdf, internet, m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Estos días estoy dando un curso sobre Ciberseguridad e IoT en Fuenlabrada. Se enmarca en un proyecto impulsado por el propio Ayuntamiento y la Unión Europea. Se pretende formar a los asistentes en nuevas capacidades con el fin de reforzar y actualizar su curriculum. Es una iniciativa admirable que ayuda a crear sociedad y, sobre todo, porque me está permitiendo conocer la realidad de otras personas. En este módulo denominado “IoT” comparto el papel de formador junto a otros profesionales de Flexbot, la Fundación Telefónica y la Fundación Santa Maria la Real. Como digo es un privilegio estar ahí.

Os dejo la presentación del curso que estoy dando por si os resulta de interés. Como digo va sobre IoT, economía de datos, comunicaciones y seguridad. Muchas de las cosas que aquí trato son totalmente trasladables a nuestra cotidianeidad como usuarios de un equipo informático o un Smartphone. También, como no, se aclaran conceptos acerca de la importancia de los datos o 5G y como puede cambiar el entorno en el que vivimos. Milma Fuenlabrada. Laboratorio IoT

Agenda

Acerca del TELNET
Conceptos de IoT y Sistemas Embebidos

  • Telemetría y telecontrol
  • Smartphones
  • Internet de las Cosas
  • Tratamiento y economía de datos, Big Data
  • Dispositivos basados en Microcontrolador y Microprocesador
  • Arduino
  • Raspberry PI
  • TELNET BabelGate
  • Riesgos Amenazas y Ataques

Software y Hardware

  • Seguridad Física
  • Identificación de vulnerabilidades
  • Bootloader, Kernel, drivers y librerias
  • Aplicaciones
  • Cifrado
  • Repositorios de claves
  • Puertos Abiertos, Banners y Port-Knocking
  • API (Application Program Interface)
  • Ejemplo de instalación y mantenimiento desatendido
  • Electrónica y Buses
  • Memorias SD
  • SIM (Subscriber Identity Module)
  • TPM (Trusted Planform Module)

Conectividad Inalámbrica de un dispositivo IoT

  • Conectividad Radio
  • Frecuencias
  • Topología, seguridad y radio
  • Servicios M2M de Operador
  • Sigfox
  • LoRa
  • Zigbee
  • Z-Wave
  • Bluetooth
  • IEEE 802.11

Buses y Redes Industriales

  • Seguridad lógica en Redes Industriales
  • PRIME/COSEM

[Descargar ponencia]

Videoconferencia y VoIP (y 2)

febrero 25, 2019 on 7:39 pm | In colección, hist. informática, hist. telecomunicaciones, internet | No Comments

Adolfo García Yagüe | Como hemos visto en otros textos, la evolución tecnológica corre paralela en muchos campos. En los primeros años los procesos de compresión dependían de grandes circuitos integrados fabricados a medida (ASIC), más tarde este proceso reposaba sobre chips comerciales de compañías como Texas Instruments, Philips o Siemens que simplificaban enormemente el diseño de una tarjeta de codificación. Lo mismo sucedía con el 80486 y, especialmente, con la familia Pentium de Intel. Estos microprocesadores y el consiguiente software permitían procesar en tiempo real un caudal de vídeo o de audio. Todo esto desembocó en sistemas de videoconferencia que aprovechaban las capacidades de un ordenador personal y se integraban entre nuestras herramientas ofimáticas. De todas ellas, una de las más destacadas fue la que lanzó Intel en 1994: Intel ProShare. Este producto consistía en un par de tarjetas, una para capturar vídeo y la segunda para tratar el audio y la comunicación RDSI, y el software correspondiente. Intel ProShare representa un avance desde el punto de vista de integración electrónica y aprovechamiento de un PC al poner a disposición de un usuario individual las posibilidades de la videoconferencia pero, al depender de una conexión RDSI, su ámbito de empleo estaba restringido a usuarios que tenían acceso a esta.

Otro de los equipos que marca un avance en integración y en el diseño de sus formas es el Tandberg Vision 600. Esta compañía Noruega llevaba desde los años ´30 del siglo pasado comercializando equipos profesionales de audio. En 1993 lanzó al mercado su primer videoteléfono RDSI con una pantalla basada en tubo de imagen, para escritorio o de uso personal. Años más tarde presentaría el Vision 600, también dirigido a un uso personal, con pantalla LCD color de 10”, RDSI y un aspecto tremendamente elegante. A esta empresa siempre le ha caracterizado la buena calidad de sus equipos y su diseño. Ellos fueron los que desarrollaron junto con Cisco el concepto de videoconferencia inmersiva siendo adquiridos por estos en 2009.

A pesar del esfuerzo de los operadores que, en el caso de Telefónica, apenas hacían diferencia tarifaria con la línea tradicional, el uso de RDSI se limitó a empresas. Aun así la RDSI impulsó enormemente el uso de la videoconferencia frente a soluciones basadas en circuitos punto a punto como el PictureTel 4000. RDSI daba libertad al usuario y sobre todo, sentaba las bases de la interoperabilidad entre fabricantes. La clave de esta interoperabilidad era el protocolo H.320 del ITU-T. A través de este protocolo de señalización, los equipos participantes en una conversación se ponían de acuerdo sobre el códec de video (H.261) y audio (G.711, G.722 o G.728) que iban a emplear en su comunicación, ancho de banda (uno o más canales B de la RDSI), resolución de la imagen (QCIF o CIF) o los servicios suplementarios que eran capaces de realizar. Como digo, el uso de RDSI en videoconferencia fue intenso y significó que muchas empresas empezaran a instalar en la sala de reuniones un televisor convencional con un equipo de videoconferencia. Esta intensidad a favor de RDSI se daba en las comunicaciones entre sedes o empresas diferentes y, para comunicaciones entre salas de un mismo edificio, se empezaba a considerar el empleo de IP y la LAN como transporte. En este sentido merece la pena recordar que hasta 1992 no se inventó el protocolo RTP (Real Time Protocol) para proporcionar a UDP un servicio de transporte de datos con necesidad de tiempo real, como el audio y el vídeo.

Los avances conseguidos a través de la integración microelectrónica, la RDSI y el uso de la LAN son los principales ingredientes de la siguiente generación de equipos. Dejando a un lado soluciones personales como el Intel ProShare o el Tandberg Vision 600, PictureTel lanzó en 1996 el SwiftSite dirigido al mercado profesional para hacer videoconferencias entre grupos de personas. Este equipo totalmente integrado y pequeño podía ser colocado sobre una televisión en una sala de reuniones. A pesar de nacer con la intención de llevar la videoconferencia a todas las organizaciones sufrió múltiples problemas técnicos y retrasos que terminaron espantando a los usuarios. Aquello desembocaría en una grave crisis de reputación de PictureTel que coincidió con el fortalecimiento de Polycom y la presentación del ViewStation (1998). Polycom fue fundada en 1990 por Brian Hinman (ex PictureTel) y Jeffrey Rodman (ex PictureTel). Su primer producto fue el SoundStation (1992), un terminal para mantener conversaciones telefónicas en manos libres con el que lograron el reconocimiento del mercado y, hasta hoy, ser un elemento imprescindible en cualquier compañía. En 1998 se decidieron a entrar en el mercado de la videoconferencia presentando el ViewStation que era similar en aspecto al SwiftSite de PictureTel. Todo estaba autocontenido en una misma caja a excepción de un pequeño módulo (el QuadBRI) que se conectaba a cuatro RDSI para poder usar hasta 512Kbps. El éxito de este equipo fue arrollador. Este equipo se convirtió en un electrodoméstico para las organizaciones al poder ser instalado y usado por cualquiera a través de un mando a distancia similar al que usamos en casa.

A mediados de los noventa el uso de una red local, IP e Internet para mantener una comunicación multimedia era atractivo. De hecho, en 1993 se utilizó por primera vez Mbone para transmitir contenidos multimedia en Internet. Por otra parte, como vimos con Intel ProShare, el PC contaba con capacidad de proceso suficiente pero requería de un hardware especializado en trabajar con audio, vídeo y la RDSI. Sin embargo, eran tiempos en los que el PC alcanzó la mayoría de edad de su potencia gráfica gracias a las tarjetas VGA. Esta madurez se complementó con la riqueza del sonido aportada por tarjetas como la Sound Blaster. Este adaptador contaba con un sintetizador FM y con un reproductor de muestras de audio. Este módulo de audio también permitía capturar sonido de una fuente externa como un micrófono. Esta reseña la hago porque en 1995 apareció una nueva versión de Sound Blaster que permitía un funcionamiento full dúplex es decir, podía capturar sonido a la vez que era capaz de reproducir una muestra sonora… En resumen, el PC, las VGA, la Sound Blaster, el protocolo IP… Telefonía y videoconferencia por Internet.

Así es como en 1995 VocalTec, una compañía israelí, desarrollo y comercializó el primer servicio de Telefonía por Internet. Alon Cohen (1962) y Lior Haramaty (1966) desarrollaron un códec que comprimía lo suficiente la voz para aprovechar el ancho de banda de nuestra conexión a Internet de aquella época. Además desarrollaron un software que hacía de PBX o centralita para conectar a dos usuarios. Es decir, nuestro ordenador se convertía en un SoftPhone para hablar a través de VocalTec. Su modelo de negocio era sencillo y accesible para cualquiera ya que en cualquier tienda de informática podíamos comprar un software con el que teníamos minutos de conexión. Era el nacimiento de la Telefonía sobre IP, ToIP, Voz sobre IP o VoIP.

La estela iniciada por VocalTel fue seguida por numerosos fabricantes algunos, como WorldTalk, en lugar del clásico auricular de diadema y micro comercializaban un pseudo aparato telefónico que se conectaba a la Sound Blaster. En este furor destaca Connectix quien en 1996 fue un paso más allá al ofrecer servicios de videoconferencia a través de Internet. Para ello comercializaban unas cámaras conectables al puerto paralelo del ordenador, las QuickCam que, años después, fueron absorbidas por Logitech. Fueron muchos para mencionarlos todos… DigiPhone, CU-SeeMe

VoIP, ToIP y VideoIP obligaban al ITU-T a entrar en escena. Era el momento de normalizar esta tendencia para lograr la interoperabilidad entre fabricantes. Así es como nació H.323 en 1996. Este protocolo venía a resolver el uso de redes IP por parte del tráfico multimedia. Al igual que H.320 era un protocolo de señalización usado por los participantes, en H.323 estos se registraban en un servidor o gatekeeper, intercambiaban datos sobre los códec usados, acceso servicios suplementarios, plan de direcciones, etc. No era un mal protocolo pero era excesivamente complejo y su implementación cara. Se notaba que había sido concebido por gente próxima a los operadores dominantes y sus fabricantes históricos. Si uno lee sus especificaciones se da cuenta que es difícil implementarlo al contemplar todos los escenarios posibles. En resumen, poner un producto en el mercado y que este funcionaria no era cosa fácil. Aun así hubo fabricantes como Intel y Kodak que comercializaron soluciones compatibles con H.323 junto a alguna de las primeras cámaras USB. De aquel fenómeno de videoconferencia y comunicación sobre Internet destaca Microsoft NetMeeting. Evidentemente, equipos profesionales como el ViewStation de Polycom podían trabajar sobre H.323 o prometían que este se soportaría con una simple actualización de software…

Este apogeo de la VoIP para llamar a bajo coste hizo que algunos fabricantes se cuestionaran el futuro de la telefonía clásica dentro de las empresas. Tras superar y tener que demostrar que las redes conmutadas de aquel momento e IP podían garantizar el servicio de voz, no tenía mucho sentido tener dos cableados, uno para voz y otro para datos. También, el servicio de voz clásico, era pobre a la hora de ofrecer servicios como llamadas en grupo, desvíos inteligentes, buzones de voz y su consiguiente integración con aplicaciones como el correo electrónico. También, económicamente, el mercado de las centralitas empresariales era caro y se mantenía en manos de fabricantes como Northern Telecom (Nortel), Siemens, Ericsson, Alcatel y los propios operadores (Telefónica y su servicio Ibercom). En fin, era cuestión de tiempo…

Así es como aparecieron las primeras soluciones de VoIP para empresas. En el año 1996, Selsius, una anónima compañía de Texas, presentó una solución que consistía en una PBX software o SoftSwich que corría en Windows NT. A esta se conectaban unos teléfonos IP (con conexión Ethernet) de apariencia tradicional. Como decía antes, fue una tecnología que se tuvo que ganar su hueco en un mercado bastante cautivo que ponía recelos de todo tipo a la validez de la red LAN para transportar voz. En 1998 Selsius fue adquirida por Cisco.

Por lo avanzado de su tecnología Selsius desarrolló su propio protocolo de señalización en lugar esperar y adoptar H.323. Era el Skinny Call Control Protocol (SCCP). Era un protocolo mucho más ligero y muy eficiente pero, lamentablemente, giraba en la órbita de Cisco lo que limitaba su interoperabilidad con otros fabricantes. SSCP, como H.323, fueron sustituidos en 1999 por SIP (Session Initiation Protocol), un protocolo infinitamente más sencillo y más próximo a Internet y pensado para cualquier comunicación multimedia. SIP es el estándar de hoy.

Colección | Videoconferencia (1)

El Futuro de Internet

noviembre 28, 2018 on 6:59 pm | In análisis de datos, colección, internet | 2 Comments

Parece que el futuro de Internet está en manos de compañías como Facebook, Google y otras tantas… y que la gratuidad de las aplicaciones y redes sociales que estos y otros ofrecen es porque se hacen de oro con nuestros datos… y qué decir del riesgo que corremos expuestos a tanto acoso, narcisismo, vacuidad, odio y noticias falsas… En un golpe de nostalgia, miramos a los años noventa y estamos convencidos de que allí se encontraban las esencias, creyendo que se hace necesario refundar Internet y planteamos un mecanismo de comunicación sin servidores, basado en P2P y Blockchain… Este era el tema central del reciente encuentro de Lisboa en el que participaba gente como Tim Berners-Lee entre otros destacados ponentes.

Tristemente, el tiempo en el que nació Internet en las Universidades y Centros de Investigación impulsado por gente como Berners-Lee pasó. Hicieron aportaciones fundamentales y usaron Internet para lo más básico, que era comunicarse con otros colegas a través de un correo, una news o una web. Aquello debe ser recordado y merece todo tipo de reconocimientos pero hoy, difícilmente, puede competir con el impulso dado por multitud de empresas privadas que han inventado cientos de aplicaciones y formas de comunicarse en Internet, algunas fallidas y ruinosas. Como no, no puedo olvidar a todas esas comunidades que desarrollan software abierto, sin restricciones de uso que operan gracias a Internet. Es evidente su aportación pero casi siempre hay una empresa o iniciativa privada que empuja su desarrollo o incluso termina adoptándolo, cuando no absorbiéndolo: MySQL y Oracle, Microsoft y GitHub, Red Hat e IBM, Hadoop, etc.

Aun así, uno puede seguir siendo «auténtico» en su uso de Internet: Perfectamente puede mantener una página web y escribir artículos de no-se-que. Pero, no lo olvidemos, no se puede pretender que al resto de internautas (expresión anacrónica, de los ´90) le interese lo que estas contando. Es decir, para cierta gente Internet sigue siendo un sitio donde aprender, buscar información y compartir ideas; mientras que para otros, es solo una forma de comprar o mantenerse conectado a través de mensajes cortos, proyectar su vida o curiosear en la de otros. Para entendernos, puedes construir bibliotecas pero no puedes obligar que la gente lea sus libros.

Es lamentable que alguien se comporte mal en Internet o, interesadamente, difunda información envenenada. Desgraciadamente, las personas proyectamos lo que somos a nuestro alrededor. Solo hay que leer los foros de muchos periódicos respetables y te darás cuenta de la cantidad de radicales y odiadores que hay entre sus lectores. En Twitter o en Facebook pasa lo mismo. Por supuesto, puedes ser víctima de información sesgada y formarte una opinión equivocada y ser dirigido. El problema es que técnicamente resulta difícil analizar en tiempo real, interpretar y filtrar todo lo que se publica, sin mencionar a qué Gran Hermano o Censor le damos esta atribución.

Por otra parte, si quiero saber cómo va el tráfico de Madrid a Sevilla consulto Google. Ya sabemos que para que Google pronostique la duración de ese trayecto está recogiendo datos de localización de los móviles Android de todas las personas que están viajando antes que yo. Así estima que el trayecto durará más de 5 horas. Es decir, mis datos de localización y los de otra mucha gente hacen posible esto. Hoy vivimos en una época en que la se cuenta con capacidades técnicas para recoger y procesar -en un instante- miles de millones de datos de todo tipo. Es importante asumir esto y entender por qué se habla de las oportunidades de negocio que puede ofrecer la Economía de Datos. Ante esto, si queremos vivir y relacionarnos en el Siglo XXI, resulta difícil prescindir de nuestro plan de datos y no instalar ninguna App, pero es posible.

Acabo preguntándome por las implicaciones de Red Neutral. Para alguien puede ser no filtrar aplicaciones P2P, incluso si el propósito es el intercambio ilegal de archivos… Por supuesto, no cerrar una web, aunque desde sus páginas se publiquen mentiras o se incite al odio… Otros pueden pensar que neutral significa no ralentizar el tráfico VoIP de WhatsApp, aunque nos quejemos del riesgo de poner nuestros datos y hábitos a su alcance… Aquellos pueden pensar que esto de la Red Neutral es una cosa buena, a pesar de Tor y navegación anónima con fines ilícitos por la Internet Profunda… Y ¿Qué pasa con Bitcoin y los ciberdelitos?… En fin, que no sé muy bien que se pretende ni cómo se hace para que todos nos sintamos tranquilos.

Con estas reflexiones solo pretendo compartir algunas dudas sobre los límites y la posible solución de los problemas a través de la tecnología amparándonos en una supuesta «decadencia» social (o de Internet). Estoy seguro que aparecerán nuevas soluciones como Blockchain, pero esto no resuelve lo más básico que es lo que cada uno de nosotros tenemos en la cabeza y como lo exteriorizamos. Bien distinta es la adecuación de nuestras leyes a este nuevo escenario que es Internet. Poco a poco se empieza a regular el uso de los datos, las actitudes en Internet, se persigue el uso fraudulento y se intenta proteger la propiedad intelectual… Creo que vamos en el camino acertado y cada día los gobiernos, jueces y policía son más sensibles a esto y se adaptan. Cosa que no es fácil ni rápida.

Internet e Infovía

junio 4, 2018 on 5:51 pm | In colección, hist. informática, hist. telecomunicaciones, internet | 3 Comments

Adolfo García Yagüe | No es redundante recordar que Internet nació en las Universidades y que llegó a nuestras casas gracias a ellas. Fueron los Centros de Investigación de estas los que, necesitados de nuevas formas de comunicarse, empezaron a desarrollar una tecnología que, de otra forma, no nos habría llegado igual. No quiero decir que los fabricantes no fueran capaces de impulsar semejante innovación, simplemente recordar que a ellos les motiva promocionar una determinada tecnología si tienen control sobre esta. Es decir, inicialmente son cerrados e intentan posicionar sus patentes, más adelante, cuando ya no queda más remedio, se abren a estándares libres o de la competencia.

Los investigadores que desarrollaban su labor en las Universidades necesitaban compartir sus trabajos con otros con los que colaboraban. Querían poder mandar un mensaje a alguien o, simplemente, pertenecer a una lista donde cientos de colegas tenían intereses comunes. Todo esto, sin olvidar, que podía resultar imprescindible tener acceso a recursos como un ordenador central que, posiblemente, quedaba muy lejos de su país.

Como hemos visto, ARPANET se inició con un claro propósito militar. Aun así, conscientes de la innovación que nace en las mencionadas Universidades, se contó con ellas para que aportaran ideas. Más tarde, en el año 1984, los militares se separarían de ARPANET quedando esta en manos de investigadores y universitarios. Al año siguiente la NSF (National Science Foundation) cogió el testigo y puso en marcha una troncal que comunicaba cinco nodos equipados con grandes ordenadores. Aquella red se llamó NSFNET y ya, con una clara administración y objetivo, se convertiría en el núcleo sobre el crecer e ir pasando desde la antigua ARPANET.

Mientras esto sucedía, en Europa empezaban a “tejerse” las primeras redes entre Centros Universitarios. Obviamente, aquí la cosa era un poco más complicada porque había que poner de acuerdo a muchas Universidades, países, operadores, etc. No obstante, hacia mediados de los años ‘80, hay algunas redes entre Universidades escandinavas y Centros de Investigación. Estos, además, como el NORSAR de Noruega y el University College de Londres ya mantenían conexiones con la citada ARPANET.

Aun así, a pesar de estos aventajados, Europa es una región de “grandes” decisiones políticas y consenso… Por esta razón, para ponernos todos de acuerdo y que los políticos empezaran a subvencionar una red europea de investigación, se apostó -en lugar de TCP/IP– por protocolos avalados por instituciones como el CCITT o ITU-T, ejemplo de ello es la adopción de X.400 para el correo electrónico. También sucedió que, empresas como IBM, con la excusa de montar una red de (sus) grandes sistemas apostara por su tecnología y su red. En resumen, las Universidades tendían redes pero eran islas con dificultades para hablar con otras Universidades y Centros, y la evolución de estas era demasiado lenta y cara, y marcada por el CCITT y sus recomendaciones.

En 1988 resulta evidente que es necesario homogenizar el panorama e impulsar el desarrollo de una Red Paneuropea. Además es urgente arbitrar la conexión con otras redes. Ahí es donde comienza su actividad RedIRIS. Han sido sus profesionales los encargados de construir la gran red que conecta a las Universidades y Centros de Investigación españoles. Su labor ha sido y es imprescindible porque era necesario, además de conectar, negociar con los operadores, encargarse de fijar los criterios de evolución y divulgar entre todos los interesados.

Si el esfuerzo anterior no era suficiente, fue el mundo Universitario quién no tardaría mucho en darse cuenta que era necesario “abrir” el acceso a otros individuos y actores. Es por esta razón que, en el seno de Internet, aparecen los primeros negocios comerciales encargados de facilitar el acceso. Eran los ISP (Internet Service Provider) y, en España, el pionero en este terreno sería una empresa nacida en la Universidad Politécnica de Madrid, Goya Servicios Telemáticos.

A mi entender, el impulso definitivo de Internet vino de dos ámbitos totalmente dispares y distantes. Por un lado, en lo político, Bill Clinton y Al Gore sentaron las bases legales y económicas de aquella “autopista de la información”. De alguna forma se abría la veda para que cualquier actor pudiese usar Internet y, sobre todo, ya se advertía su potencial para desarrollar una nueva economía basada en la información, en lo digital, el conocimiento y los servicios. Por otra parte, y volvemos al entorno académico y científico del CERN (Conseil européen pour la recherche nucléaire), Tim Berners-Lee, un Ingeniero Informático, mientras desarrollaba herramientas para categorizar y compartir los resultados de las investigaciones de los científicos, inventó el World Wide Web e hizo amigable el uso de Internet.

Es este escenario de rápido crecimiento hay que hablar de nuestros ordenadores y empresas. Casi podemos decir que nos cogió desprevenidos porque Microsoft no nos había preparado para esta revolución :-). No quiero decir que para ellos Internet pasara desapercibido pero -da la sensación- que al inicio no supieron calibrar la magnitud de lo que se avecinaba. Prueba de ello es el tardío, aunque posteriormente exitoso, Microsoft Internet Explorer, fruto de la compra de la empresa Spyglass. En efecto, con Microsoft y con IBM estábamos atascados en los protocolos (sus protocolos) NetBIOS y NetBEUI. Aquello resolvía la comunicación básica en una red de área local pero presentaba numerosas limitaciones. Además no eran protocolos enrutables, como sí lo eran IPX de Novell o DECnet de Digital. Por otro lado, en lo que arquitecturas de redes se refiere, como dependiéramos de IBM se nos “premiaba” con su compleja y cautiva arquitectura SNA, o Token Ring para la Red Local.

Así las cosas, cuando empezó la década de los años 90, estrenábamos la versión 3.0 de Windows. Aquella versión, ni mucho menos, nos permitía desarrollar una Red Local. Era un mero entorno gráfico que corría sobre MS-DOS. Tuvimos que esperar la llegada de Windows 3.11 para tener un sistema operativo (aunque seguía dependiendo de MS-DOS) con capacidades de Red para compartir ficheros e impresoras. Pero, curiosamente, no existía soporte TCP/IP para navegar. Teníamos que recurrir a una aplicación o suite que nos ofreciera el protocolo TCP/IP y aplicaciones como PING, FTP o TELNET. Es por eso que, en aquella época, tuvieron cierta fama para conectarnos a Internet o redes IP programas como Chamaleon o Trumpet.

Todo cambiaría con la llegada del famoso Windows 95 e Internet Explorer. Aunque algunos seguíamos confiando en Netscape Navigator empezábamos a darnos cuenta que el fenómeno Microsoft parecía imparable: Windows NT, BackOffice, W95, las herramientas de Office, el Outlook, Visual Basic, IE, etc.

Para acabar tengo que citar a la fugaz Infovía. Aun siendo importante, su existencia fue efímera y consecuencia de un época. Básicamente, aquella iniciativa de Telefónica nos servía de Red de Acceso donde estaba presente nuestro ISP. De esta forma, si nuestro ISP estaba allí, podíamos llegar a él al precio de una llamada local. Todo un acierto que permitía a un ISP de otra ciudad distinta a la nuestra ser competitivo y abrirse a más clientes. Infovía también intentaba alargar la vida al concepto Ibertex. Es decir, podías navegar dentro de Infovía y acceder a los servicios (ya TCP/IP) que algunas empresas e instituciones allí prestaban: una red dentro de Internet. Obviamente aquel invento era consecuencia de una época y, la posterior liberalización de las comunicaciones, era incompatible con el acceso a los ISPs a través de Telefónica. También carecía de sentido mantener un coto de empresas y entidades bajo una red controlada por Telefónica.

Colección | Módems, teleproceso, servicios on-line y BBS | ARPANET, X.25 e Iberpac | 56K, ADSL y GPON | Fibra Óptica

 

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Liderazgo Técnico y Transformación Digital

marzo 9, 2018 on 7:32 pm | In análisis de datos, innovación, internet | 1 Comment

Hace años, muchos años, en una conversación de bar, un colega y yo fantaseábamos con que en el futuro, los más importantes y ricos serían los técnicos. En aquellos años, lo que garantizaba el éxito profesional, era tener estudios de empresariales y económicas, y dedicarse al mundo de las finanzas. Era una época donde el triunfador yuppie exhibía un Porsche y el pelotazo era visto como algo normal. No existía Internet, tampoco teníamos móvil, pero ya se adivinada la revolución que suponía “controlar” de un ordenador.

Como digo, de aquello hace mucho tiempo y hoy, si rescatáramos aquella charla, nos sorprendería lo acertado de nuestro embriagado pronostico. A nadie escapa que, desde hace varias décadas, el freak técnico se ha encaramado a los rankings de los más poderosos, ricos e influyentes del mundo, y de ahí dudo que descienda. Todo lo contrario.

La revolución de Internet, y en general del ordenador personal, ha hecho posible la democratización de la tecnología. Casi cualquiera, con una buena idea y el suficiente respaldo (por supuesto, también de profesionales financieros), es capaz de proponer algo que de otra forma sería casi imposible. Esto significa que el control de la tecnología es un diferencial para progresar. Ya lo demostraron gente como Steve Wozniak, Bill Gates y Steve Jobs y, más recientemente, Jeff Bezos, Seguéi Brin, Larry Page, Mark Zuckerberg o Elon Musk. Es una constante que se repite.

Realmente, el núcleo diferencial de todas las empresas que comentamos: Apple, Microsoft, Amazon, Google, Facebook y Tesla, entre otros, es el dominio de la tecnología. Ellos inventan tecnología que les permite ser diferentes, mejores que el resto. En cambio, ese resto, empleamos la tecnología que ellos han inventado y que permiten que usemos. Podemos encontrar muchos ejemplos pero me centraré en el mundo de los datos. Ellos, por su naturaleza global (Internet) y para dar un mejor servicio al usuario, vieron que las todopoderosas bases de datos relacionales y los monolíticos ordenadores centrales, eran poco eficientes. Por esa razón inventaron o apadrinaron el uso de muchas máquinas, baratas y sencillas, conectadas entre sí formando un clúster. Por supuesto, para que esto funcionara había que meter mano en el sistema operativo y tunearlo a tu gusto. Así, el uso de Linux, tenía todo el sentido. Como escribía antes, las bases de datos relacionales han demostrado y demuestran, que son muy eficientes para acumular y recuperar cierto tipo de información muy tabulada. En cambio, en un entorno donde cada dato o atributo que define a un objeto o persona es diferente y estos, las personas, se cuentan por cientos de millones y están repartidos por todo el mundo, el concepto clásico de base de datos no escala bien, es decir, no crece al nivel que se espera.

Así nacieron las bases de datos NoSQL. Todos hemos oído hablar de Cassandra, Redix o MongoDB, por ejemplo. Es cierto que son herramientas accesibles y que cualquiera puede usarlas pero, si rascamos en sus orígenes, nos encontramos que han sido impulsadas por gente como Apache, VMWare, Facebook, Yahoo! o Google. Lo mismo sucede con el famoso Hadoop. Es decir, ya tengo una buena idea de negocio o de cambio “del mundo” pero, para llevarla a la práctica necesito crear una nueva tecnología. O al contrario: he creado una nueva tecnología que puede ser aplicada para este determinado negocio.

Lo anterior me lleva a pensar en el futuro de aquellas empresas, que aun siendo muy grandes y poderosas, intentan Trasformase Digitalmente y dejan la sensación de no conseguirlo plenamente. Sé que es un tema muy complicado y tiene muchos ángulos desde el que ser estudiado pero cabría pensar que, al carecer de ese liderazgo técnico, siempre van a ir un paso por detrás. Por supuesto que las herramientas están ahí, a su alcance, como para ti y para mí. Pero ellos solo usan lo que escapa de las patentes -e incluso del secreto- (de los tecnólogos). Tampoco, por ejemplo, son capaces de impulsar una Comunidad de Desarrolladores, un nuevo algoritmo para el análisis de datos, o un estándar y, carecen de la visión, espíritu y dinero para apostar en ideas que puedan parecer alocadas.

Datos, datos y más datos

marzo 8, 2018 on 3:45 pm | In análisis de datos, innovación, internet | No Comments

Hace unos días, en una intervención de Dimas Gimeno, presidente de El Corte Inglés, hablaba de la necesidad de equiparar a todos con las mismas reglas de juego, se refería, como es de suponer, a las empresas que están dando pequeños mordiscos al negocio tradicional de esta marca. También dejaba ver la necesidad de cambiar porque, queramos o no, los hábitos de los consumidores cambian y, como no, también se refirió al manido tema de los datos. Nos recordaba los 75 años de historia de ECI y de la experiencia que ello le confiere en “ese conocimiento del cliente”. Casi de igual forma se manifestaba Chema Alonso en la víspera del MWC, cuando desveló el significado de Aura. Nos contaba que ellos, Telefónica, tienen acceso a muchos datos porque llevan casi 100 años prestando servicio. Está claro que cada uno comenta cosas muy diferentes pero ambos hablaban de una realidad que está ahí, los datos.

Comerciar con los datos no es nuevo para nadie. Recordar cuando nos sentíamos importantes por ver nuestro nombre en las mastodónticas guías telefónicas… Menos ilusión hacía cuando empezábamos a recibir en nuestro domicilio publicidad no solicitada. ¿Cómo llega nuestro número de teléfono a una empresa de telemarketing? Mejor ni pensarlo… ¿De dónde salen nuestros datos? Si hablamos de empresas como ECI es similar: Cuando te haces una tarjeta de cliente o fidelización sueles estar «controlado». Aquellas tarjetas, que nacieron con el sano propósito de financiar la compra, pronto se usaron como un medio más de conocer nuestro patrón de consumo. Me olvidaba: Otros que saben mucho de datos son los bancos. Ellos conocen, de primera mano, cuales son nuestros  ingresos y gastos.

¿Qué ha cambiado?
Estos datos estaban antes de que naciéramos: Nuestro DNI, teléfono, dirección, ingresos, gastos y, como veíamos, la cesta de la compra. La aparición de Internet y el uso masivo del correo electrónico hizo que a esta lista de datos (digamos básica) se añadieran otros. Recordar, no tardamos en ser castigados con el molesto spam… Por otra parte, las comunicaciones en Internet, para que funcionen, requiere de una dirección IP única y, con todo el sentido, un administrador de un servidor web está interesado en conocer cuántos visitantes se cuelgan de su página. Así las cosas, irrumpen los buscadores cuya misión principal es hacernos la vida más cómoda en Internet. Ellos actúan de intermediarios entre nosotros e Internet. Conocen todo lo que buscamos y lo guardan en sus bases de datos. En un principio solo conocen nuestra dirección IP, que puede cambiar en cada acceso que hacemos, pero se cuidan de enviarnos una silenciosa piececita de software -o cookie- con la que nos identificamos (sin saberlo). Recordar que el uso de estas cookies es generalizado y no es exclusivo de un buscador. Ya nos tiene controlados y pueden modelar o dirigir nuestra navegación y atención como quieran. Más tarde nos regalaron direcciones de correo y espacio de almacenamiento y, lógicamente, nos teníamos que registrar y aportarles más detalles sobre nuestra identidad. Por último, se les ocurrió montar una red de conocidos dentro de Internet con la que podríamos compartir imágenes, textos o cualquier archivo multimedia. Esa red, para que funcione y sea eficiente, tiene que almacenar todo lo que queremos compartir. Es decir, son más datos vinculados con nosotros.

En modo alguno pretendo criticar o dirigirme contra esta industria pues, esta forma de funcionar, ha demostrado mejorar nuestra experiencia en Internet. También ha permitido innovar en campos donde parecía que todo estaba inventado y está iniciando una fuerte Trasformación, Digital por supuesto. Es cierto que esta Transformación está provocando que muchos sectores vean amenazada su posición o puestos de trabajo, y que el uso de cierta tecnología haga aumentar, exponencialmente, la riqueza de unos pocos en contra del desempleo de muchos. Creo que esta situación no nos conviene en una sociedad pues, a la larga, es mala para todos y tendremos o tenderemos a remediarla.

Tampoco nos conviene, como individuos, perder nuestra privacidad. Aunque nuestros datos estén ahí, no creo que a nadie de Google o Facebook le interese quien soy. A ellos les interesa el conjunto del que formo parte. Ellos usan nuestros datos analizándolos para entender o predecir que hacemos o que queremos. Parece ser que, incluso, pueden conocer un resultado electoral analizando la actividad previa en Twitter… En fin, para nuestro consuelo, hay que decir que muchas de las decisiones clave de estas empresas, incluidas las poner en marcha una nueva iniciativa, se toman analizando estos datos y es importante no olvidar que, aun así, se equivocan y fracasan, y algunos proyectos acaban en la basura por culpa su interpretación.

En cambio, sí me preocupa el uso criminal de esta información. Si los datos que almacena Facebook, LinkedIn, Apple o cualquier otro, caen en manos inadecuadas podemos encontrarnos con situaciones incomodas. Es importante recordar esto para que la próxima vez que nos suscribamos a una nueva plataforma o tarjeta de fidelización pensemos: ¿Si me doy de alta aquí y alguien “malicioso” se entera, en que me vuelvo vulnerable? ¿Alguien me puede atacar sabiendo el tipo de café que tomo?

Vehículo Conectado ¿Evolución o Revolución?

febrero 28, 2018 on 9:29 pm | In innovación, internet, telecomunicaciones | 1 Comment

Atrás queda la última edición del Mobile World Congress (MWC) y tengo la sensación de no haberme dejado sorprender por nada. En las ediciones que anteriormente visité (y esta es la octava) la tecnología 5G, los robots, el IoT, la inteligencia artificial o el Big Data ya ocupaban protagonismo en los stands. Incluso, recuerdo, que en mi primera cita con esta feria eran novedad el sistema operativo Android y el propio iPhone. Mejor no hablar de las largas filas para probar los últimos visores de realidad virtual…

Estamos acostumbrados a conocer casi en tiempo real los avances que se van produciendo y en este sector, si quieres llamar la atención, es necesario subirse al carro de la novedad y alimentar las expectativas. También, supongo, que en las grandes empresas participadas, es necesario estar en un evento así para mandar un mensaje de fortaleza a tus inversores. En cualquier caso, para mí, el año 2018 lo recordaré cómo Evolución.

En tecnología son necesarios estos periodos de Evolución. Es necesario asentar los modelos de negocio. A pesar de los anuncios de una nueva solución, es vital dar tiempo para que esté madura y se desarrollen los estándares. Lo hemos visto en numerosas ocasiones y, más o menos, todo sigue una pauta predecible.

Frente a las Evoluciones están las Revoluciones. Hablamos de Revolución cuando el cambio se produce de manera rápida, en ocasiones de forma violenta, disruptivamente. También podemos identificar una Revolución por el número de sectores sociales o económicos a los que afecta. Todos hemos estudiado las Revoluciones que cambiaron la historia de la humanidad ¿Y del mundo tecnológico? En este capítulo, sin duda, me quedo con Internet. Aunque creció poco a poco, la posibilidad de que nos pudiéramos conectar entre nosotros a través de una red de redes cambió –y cambia- muchas cosas de nuestra cotidianidad. Por ejemplo, es la razón por la que nuestras vidas giren en torno a la pantalla de un Smartphone o Tablet, y tantas empresas existan.

Aunque los anteriores párrafos no son el motivo de este texto, me permiten fijar un punto de vista desde el que hablaros de lo que considero que será la Gran Revolución. Me refiero al vehículo autónomo o conectado. Aunque ya venimos hablando de él desde hace años, y en algunas ciudades ya se les puede ver… y los stands del MWC con un coche son muy llamativos… el impacto en nuestra sociedad será enorme. Pensemos en como se tendrán que transformar las ciudades: Será necesario dotarlas de puntos de carga en casi todas las calles. Imaginemos por un momento el semejante esfuerzo que implica tal obra pública. Ahora teoricemos en cómo tiene que cambiar nuestra fisionomía energética: Atrás queda el petróleo y vamos hacia otras formas de generación y almacenamiento eléctrico. Y si hablamos de vehículos conectados, la red con la intercambiamos datos es vital: En cualquier carretera el número de coches en circulación es inmenso, y asegurar su conexión supone un desafío para los operadores de telecomunicaciones. Hasta el momento solo hemos visto cómo afectará a tres (grandes) sectores económicos el citado cambio pero ¿Qué pasará con otras áreas de nuestra vida? ¿Los talleres mecánicos? ¿Cuál será el destino de todos los transportes públicos basados en un conductor? ¿Qué pasará con las pólizas que pagamos por el seguro de nuestros coches? ¿Legislación? ¿Academias de conducir? Nosotros, incluso, como personas cambiaremos: Hoy, el vehículo, y nuestra forma de conducir, son casi una prolongación de nuestra personalidad…

Mercado de la Seda. Qué desilusión… buuuaaa :’-(

abril 22, 2011 on 1:31 pm | In cibercultura, copyleft, open source, internet | No Comments

Adolfo García | Domingo 10 de abril, 12 de la mañana. Estoy paseando por el centro de Madrid con mi mujer y mi hija. Cuando atravesamos la plaza de El Carmen me llama la atención unas pancartas que cuelgan en los antiguos Multicines Madrid. Me acerco y agudizo la vista… Un conejito muy simpático habla de 10Gbps de conexión… Apenas puedo creer lo que leo: el conejito saltarín anuncia un centro de Linux, Wifi gratis, Android Shop, Software libre… Me siento un poco idiota. En  mi interior pienso “Adolfo estás totalmente desactualizado, no te enteras de nada. ¿Cómo es posible que no hayas leído u oído algo de esto?”

Durante el resto del paseo no me pude quitar de la cabeza lo que acababa de ver ¿Qué sería aquel enigmático Mercado de la Seda? ¿Un centro cultural? ¿Una empresa? ¿Unos okupas se habrán atrincherado en el viejo cine y prometían hacer algo (muy) grande? Por lo que se podía leer y deducir, el tinglado estaba dirigido por una empresa china (Xiu-Shui) que ya tenía centros similares en otras ciudades y ahora era el turno de  Madrid… ¡Arrea con los chinos la que van a preparar!

Ya en casa, lo primero que hice fue buscar en Internet más info y encontré numerosas referencias sobre el proyecto Mercado de la Seda. Incluso visité la web (en chino) de Xiu-Shui. Vaya pasada. Estaba alucinado. A continuación os copio algunos extractos:

[…]Los Mercados de la Seda, como el que ya existe en Beijing, y los que se abrirán en Sao Paulo y Estambul, son lugares donde se puede compartir el mundo. Un nuevo concepto de cultura, basado en la tradición china, que mira al futuro. Ofreciendo conocimiento para todo el mundo, desde todo el planeta. Y ahora desde pleno centro de Madrid […] Se trata de un nuevo concepto de ocio cultural y de intercambio. El espacio social ofrecerá́ un ancho de banda de 10 Gbps, que permitiría descargar toda la Wikipedia en 10 segundos, y se compromete a proteger el derecho de anonimato de sus usuarios.  Dispondrá́ de actividades lúdicas como talleres, charlas, demos, competiciones y otras actividades programadas […] En el servicio de cine de 250 plazas, patrocinado por el servicio de intercambio de archivos Megaupload, se podrán ver los mejores estrenos de la cartelera mundial. En las salas de visionado comunitarios, cada una con 25 plazas, se podrán ver series a demanda, en los horarios más convenientes, con buena calidad y unos subtítulos supervisados por nuestros traductores y por la comunidad on-line. Todo, desde las series infantiles de los 80 hasta los últimos capítulos de tus series favoritas.

Empecé a pensar que algo así tenía que tener truco o, lo más probable, que el proyecto estaba paralizado y olvidado por falta de dinero. Visitando un link del diario económico Cinco Días descubrí el pastel: Todo era falso […] se trata de una iniciativa creada por Daniel García Andújar, un artista visual residente en Barcelona que ha ideado la perfecta falsificación de un proyecto empresarial: desde las lonas que cubren el histórico edificio, un frontón que data de 1898, hasta la creación de una empresa ficticia y una web donde se desvelan los detalles del proyecto. En ella se detallan las marcas que se comercializarán (como Loewe, LVMH, Rolex o Gucci), además de los planos de la zona de descargas online y los resultados económicos de la multinacional china. Incluso una responsable de comunicación asegura, vía e-mail, que facilitará cualquier información que se solicite.

Ya tengo algo en común con Alicia (la del País de la Maravillas) ambos hemos sido embaucados por un conejito. Qué desilusión… buuuaaa :’-(

Post data: En realidad no me entero de nada. Este proyecto se presentó con motivo de la Noche en Blanco de Madrid, en septiembre del 2010.

Todos quieren ser tu Gran Hermano

septiembre 26, 2010 on 2:36 pm | In análisis de datos, cibercultura, colección, internet | 13 Comments

Adolfo García | El Gran Hermano descrito por George Orwell en su novela 1984 disponía de una amplia red de telepantallas para conocer en todo momento lo que hacían sus conciudadanos. Por otra parte, gracias a la eficiente labor del Ministerio de la Verdad, en la sociedad orwelliana la historia se manipulaba y reescribía para evitar que cualquier “incómoda” evidencia del pasado pudiera cuestionar el presente.

1984 describe una sociedad sin voluntad donde todos los aspectos de la vida son cuidadosamente planificados y controlados. Lo más llamativo de este sistema es que aparentemente funciona. Salvo casos aislados -similares al de su protagonista, Wiston Smith– da la sensación de que el sistema funciona. Es decir, la mayor parte de la ciudadanía vive (o sobrevive) instalada en la ignorancia…

*    *    *

En el marco de la presentación del Apple Macintosh, a comienzos de 1984, Steve Jobs recurrió al argumento de la novela de George Orwell para aterrorizar al auditorio sobre la posición hegemónica que IBM tenía en el mercado. Tras sus palabras Mr. Jobs obsequió a su entregado público con un impactante spot publicitario (dirigido por Ridley Scott) donde Apple, representado por una chica armada con una gran maza, huye de un grupo de perseguidores mientras se dirige a una gran sala donde centenares de personas asisten a un tenebroso discurso del Gran Hermano.

Trascurridos más de 25 años desde aquella presentación los usuarios hemos aprendido muchas cosas. Una de ellas es que toda gran compañía aspira, quizás sin intención reconocida, a ocupar el sillón del Gran Hermano… incluido Apple…

IBM y otras compañías inventaron la informática. Hasta el comienzo de los años ’90 esta compañía tenía una posición dominante en los sistemas para empresas. Pocos huecos escapaban a su control, desde el ordenador personal hasta el centro de proceso de datos. Afortunadamente aparecieron nuevas tecnologías que ofrecían alternativas a IBM. Es de justicia decir que la mayoría de estas opciones no eran técnicamente superiores a lo existente pero ofrecían, por fin, la posibilidad de elegir.

Con excepción del lanzamiento del PCjr y los tardíos PS/1, IBM nunca mostró mucho interés por el mercado domestico. Fueron Apple y Microsoft los que empezaron a desembarcar en los hogares con paso firme. En el mundo de la empresa los AS400 de IBM empezaron a ser desplazados por sistemas abiertos basados en UNIX. Token Ring fue languideciendo ante la imparable Ethernet, y el fantástico OS/2 cayó frente al popular Windows NT. Así las cosas, contra todo pronostico -y deseo- de Steve Jobs, el nuevo Gran Hermano fue Microsoft…

Los ´90 representan la década dorada  de Microsoft. Windows y Office dominan los escritorios domésticos y profesionales. NT y el conjunto de servidores BackOffice entraron con fuerza en el mundo de la empresa. Esta hegemonía solo se vio perturbada por el nacimiento de Linux y, como no, la popularización de Internet.

Al comienzo de este siglo Microsoft seguía manteniendo su posición de Gran Hermano pero tenía innumerables competidores deseosos de hacerse un hueco en el CPD y en el escritorio. Además, Internet representaba un nuevo entorno en el que Microsoft nunca se desenvolvió con comodidad más allá del navegador Internet Explorer. Por esta última razón, como no podía ser de otra forma, Internet sería el espacio en el que nacería el nuevo Gran Hermano: Google.

En 1998 Google sorprendió al mundo con un simpático e infantil interfaz tras el que se ocultaba un sofisticado buscador. Poco a poco fue desplazando a buscadores tan populares como Altavista y Yahoo!. Hasta nuestros días la principal fuente de ingresos de Google se basa en un modelo sencillo y efectivo: anexar discreta publicidad a los resultados de cada búsqueda.

IBM y Microsoft nunca sintieron especial interés por el individuo. Su negocio estaba basado en vender herramientas hardware o software. En cambio Google no tardó en darse cuenta de la importancia que tenía conocer “a fondo” al usuario para poderle ofrecer una publicidad “más satisfactoria”. Además, para mantener su estrategia a largo plazo, Google supo ver la importancia que tiene “el dispositivo” desde el que acceden los usuarios. Por este motivo en el 2008 lanzo el navegador Google Chrome e impulsó Android. Como podéis imaginar, hoy Google sabe más de todos nosotros que los Gran Hermano que le precedieron.

Es difícil imaginar quién moverá del trono a Google. En mi humilde opinión quizás sea algún anónimo Wiston Smith que logre inventar una nueva forma de buscar en Internet empleando software de inteligencia artificial. Puestos a imaginar pienso en agentes personales que -manteniendo nuestro anonimato- hagan por nosotros el trabajo de búsqueda, análisis y consolidación de la información. Quizás, un paso previo, puede ser el desarrollo de nuevos estándares que faciliten la creación de una Web semántica. Tampoco hay que olvidar los envites que tendrá que soportar Google por parte de instituciones públicas cada más preocupadas (y presionadas) por el uso que se da a los datos de los usuarios.

Uno de los posibles destinos que aguardan a Google queda reflejado en el siguiente vídeo. En el cercano año 2015 Google ha logrado vencer a Microsoft y la prensa tradicional es cosa del pasado tras el desplome del periódico The New York Times. Por si fuera poco Google se ha fusionado con Amazon y entre ambos se encargan de «paquetizar» la información que recibimos desde Internet…

Hoy, en el 2010, aunque le cueste reconocerlo a Steve Jobs, Apple es incapaz de disimular sus maneras y aspiraciones de Gran Hermano. Con gran maestría ha enseñado a la industria discográfica como se vende música y contenidos multimedia a través de Internet. Apple ha demostrado a los fabricantes tradicionales de telefonía móvil que es lo que estábamos esperando los usuarios y, como no, han logrado generarnos una necesidad llamada iPad… Hasta aquí todo sería una bonita historia de innovación y marketing de no ser por el cautiverio que impone Apple a sus clientes obligando a estos a acceder a los contenidos a través de iTunes, controlando así que se puede escuchar, ver, leer o utilizar. Tampoco hay que olvididar la restricción para reproducir  contenidos en Adobe Flash. Por último, en el lado más oscuro, está el contenido de los acuerdos de exclusividad que firman los operadores a cambio de un porcentaje de lo que facturarán a sus usuarios. A pesar de todo Apple va a necesitar algo más que bonitas máquinas para combatir en un mercado que acabará, tarde o temprano, dominado por fabricantes asiáticos (Samsung, HTC, LG, Huawei y ZTE entre otros) en cuyo corazón  latirá, sin lugar a dudas, Android.

Noticias de interés
Alemania contra Google: un voto de confianza a la autorregulación. El Mundo 22.09.2010
‘The New York Times’ dejará de imprimirse «en el futuro». Expansión 09.09.2010

Página siguiente »


(c) 1999-2021 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress