Realidad Virtual (2). Llegada al mercado
marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.
Algo común en los visores de aquella época es su baja resolución de imagen y la carencia de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de los ordenadores -o videoconsolas- de aquel momento contaban con capacidad suficiente para generar gráficos en tiempo real adaptados a cada perspectiva.
Industria de los Videojuegos
Como he comentado, la industria del videojuego fue la primera en introducir productos que intentaban aumentar la experiencia inmersiva del usuario, aunque, en honor a la verdad, aquellas primeras apuestas carecían de nivel para ser tomadas en serio.
Nintendo fue una de las empresas más activas en el terreno del visionado 3D y, aunque no se considere RV en el sentido estricto del término, en 1987 lanzó en Japón un visor para su consola Famicom. El Famicom 3D System contaba con unas gafas cuyas lentes eran de cristal líquido y empleaban la técnica Active Shutter. Como todos sabéis, al aplicar una tensión a un cristal líquido este cambia de polaridad óptica consiguiendo hacerlo opaco o transparente. Este cambio, que se hacía a alta velocidad, estaba sincronizado con la imagen proyectada en el televisor donde, secuencialmente, aparecían las dos imágenes con las que se formaba la ilusión estereoscópica. A diferencia de la videoconsola Nintendo Famicom, el fracaso comercial de Famicom 3D System fue mayúsculo y solo unos pocos títulos aprovecharon la citada capacidad.
El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor de realidad virtual para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.
A pesar de estos tropiezos, la industria del videojuego no tiró la toalla. Nintendo hizo una nueva aproximación al mercado con la extraña Virtual Boy. Lo primero, y más llamativo, es que era un visor con trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior con la consiguiente incomodidad y fatiga. Parece ser que con este diseño se pretendía evitar accidentes si alguien decidiese desplazarse con el visor puesto…
Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la videoconsola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.
Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.
Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. A pesar de este pseudo incremento de resolución y su capacidad estereoscópica, esta consola con visor RV fue otro sonado fracaso y apenas duró un año en el mercado.
Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.
Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.
Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte, incluso alguna volvió a recurrir a la técnica Active Shutter junto a controladores de vídeo especiales para hacer del PC un equipo 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.
Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]
Realidad Virtual (1). Regreso al Futuro
febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. videoconsolas | No CommentsAdolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash (1992) de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…
Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.
Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un desajuste emocional.
Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.
Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.
Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.
También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.
Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.
Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.
Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.
Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.
En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove– con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.
Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.
Ciberseguridad e IoT
marzo 28, 2019 on 6:15 pm | In academia, análisis de datos, cibercultura, ciberseguridad, descarga textos pdf, internet, m2m, iot, telecomunicaciones | No CommentsAdolfo García Yagüe | Estos días estoy dando un curso sobre Ciberseguridad e IoT en Fuenlabrada. Se enmarca en un proyecto impulsado por el propio Ayuntamiento y la Unión Europea. Se pretende formar a los asistentes en nuevas capacidades con el fin de reforzar y actualizar su curriculum. Es una iniciativa admirable que ayuda a crear sociedad y, sobre todo, porque me está permitiendo conocer la realidad de otras personas. En este módulo denominado “IoT” comparto el papel de formador junto a otros profesionales de Flexbot, la Fundación Telefónica y la Fundación Santa Maria la Real. Como digo es un privilegio estar ahí.
Os dejo la presentación del curso que estoy dando por si os resulta de interés. Como digo va sobre IoT, economía de datos, comunicaciones y seguridad. Muchas de las cosas que aquí trato son totalmente trasladables a nuestra cotidianeidad como usuarios de un equipo informático o un Smartphone. También, como no, se aclaran conceptos acerca de la importancia de los datos o 5G y como puede cambiar el entorno en el que vivimos. Milma Fuenlabrada. Laboratorio IoT
Agenda
Acerca del TELNET
Conceptos de IoT y Sistemas Embebidos
- Telemetría y telecontrol
- Smartphones
- Internet de las Cosas
- Tratamiento y economía de datos, Big Data
- Dispositivos basados en Microcontrolador y Microprocesador
- Arduino
- Raspberry PI
- TELNET BabelGate
- Riesgos Amenazas y Ataques
Software y Hardware
- Seguridad Física
- Identificación de vulnerabilidades
- Bootloader, Kernel, drivers y librerias
- Aplicaciones
- Cifrado
- Repositorios de claves
- Puertos Abiertos, Banners y Port-Knocking
- API (Application Program Interface)
- Ejemplo de instalación y mantenimiento desatendido
- Electrónica y Buses
- Memorias SD
- SIM (Subscriber Identity Module)
- TPM (Trusted Planform Module)
Conectividad Inalámbrica de un dispositivo IoT
- Conectividad Radio
- Frecuencias
- Topología, seguridad y radio
- Servicios M2M de Operador
- Sigfox
- LoRa
- Zigbee
- Z-Wave
- Bluetooth
- IEEE 802.11
Buses y Redes Industriales
- Seguridad lógica en Redes Industriales
- PRIME/COSEM
Clock DVA en Madrid
noviembre 2, 2011 on 8:11 am | In cibercultura, galería de imágenes, música electrónica | No CommentsAdolfo García | Si me encontrara en la difícil tarea de elegir diez temas con los que montar la banda sonora de mi vida ¿qué tema seleccionaría de Clock DVA? ¿Cypher, The Hacker, Eternity, Final Program, Man-Amplifiers o Voice Recognition Test? Este grupo ha sido -y sigue siendo- uno de mis preferidos.
La música de Clock DVA resume a la perfección el movimiento Cyberpunk de finales de los ’80 y comienzos de los ’90. En aquellos años las letras de Adi Newton tenían un tono profético y misterioso. Ha pasado el tiempo y, curiosamente, aquellos mensajes son más que perceptibles en la realidad que nos rodea. Con esta sensación asistí ayer a su actuación en Madrid. Por un momento me olvidé que iba a un espectáculo más. Incluso, antes de comenzar, pensé que sería fantástico ver en los visuales algún guiño a Wikileaks, Julian Assange o Anonymous. ¡Qué ingenuo! Lamentablemente, lo que vi y escuché no cumplió mis expectativas. Esperaba más emoción.
¿Por qué Estado Unidos invadió Afganistán? o La Teoría del Pivote
octubre 6, 2011 on 11:00 am | In cibercultura | No CommentsWK | Desde que en 2001 Estados Unidos decidió invadir Afganistán, personalmente me he estado preguntando la razón de tal invasión. Si sí, ya sé que la razón fue que el régimen talibán que gobernaba de forma totalitaria a ese país, daba cobertura a Osama Bin Laden y Al-Qaeda, y que después del atentado de las Torres Gemelas esa relación resultó mortal para sus intereses. Vale.
Pero si tenemos en cuenta que ya la antigua URSS estuvo batallando en ese mismo país en el período 1979-1989, uno podría sospechar que Afganistán encierra algún secreto que anhelan las grandes superpotencias. Como tengo una imaginación febril, he llegado incluso a sospechar que la mismísima Arca de la Alianza esté oculta en algún pasadizo secreto de la meseta central afgana. Quién sabe.
Afganistán es pobre, no posee petróleo ni grandes yacimientos de gas, y los minerales que tiene existen en igual o mayor cantidad en otros países en los que seguramente sea mucho más fácil desarrollar una actividad minera rentable, sin el concurso siempre molesto de talibanes y señores de la guerra.
La semana pasada cayó en mis manos un documento en el que se menciona una teoría muy interesante sobre el dominio mundial y la geopolítica, The Heartland Theory o Teoría del Centro o Pivote. Esta teoría fue originalmente escrita en 1904 por Sir Halford Mackinder que advertía al autocomplaciente Imperio Británico que el dominio de los mares no era suficiente para mantener la hegemonía del Reino Unido en el mundo. Mackinder desarrolló su teoría basándose en el estudio de los diferentes Imperios hegemónicos que habían existido hasta entonces en la Tierra, y lo resumió con la siguiente frase:
«Quién controle Europa del Este dominará el Pivote del Mundo quien controle el Pivote del Mundo dominará la Isla del Mundo (Europa, Península Arábiga, África y Sudeste Asiático) quien domine la Isla del Mundo dominará el mundo».
¿Qué era para Mackinder el Pivote del Mundo? Asia Central. Voila.
Asia Central podemos definirla actualmente desde un punto de vista político como la región que comprende los siguientes países: Kazajistán, Kirguistán, Tayikistán, Turkmenistán y Uzbekistán de manera íntegra; y a estos otros: Federación Rusa, Armenia, Azerbaiyán, Georgia, Afganistán, Irán, Pakistán, Siberia, Cachemira y el Tíbet (China) de manera parcial.
Os recomiendo leeros el documento, está en inglés pero es corto, y en él se condensa la estrategia global que Estados Unidos está llevando a cabo para asegurarse en este siglo XXI (del que ya llevamos poco más de una década) el seguir siendo la única superpotencia hegemónica de la Tierra.
Después su lectura os invito a que os preguntéis de nuevo ¿porqué Estados Unidos invadió Afganistán?
Mercado de la Seda. Qué desilusión… buuuaaa :’-(
abril 22, 2011 on 1:31 pm | In cibercultura, copyleft, open source, internet | No CommentsAdolfo García | Domingo 10 de abril, 12 de la mañana. Estoy paseando por el centro de Madrid con mi mujer y mi hija. Cuando atravesamos la plaza de El Carmen me llama la atención unas pancartas que cuelgan en los antiguos Multicines Madrid. Me acerco y agudizo la vista… Un conejito muy simpático habla de 10Gbps de conexión… Apenas puedo creer lo que leo: el conejito saltarín anuncia un centro de Linux, Wifi gratis, Android Shop, Software libre… Me siento un poco idiota. En mi interior pienso “Adolfo estás totalmente desactualizado, no te enteras de nada. ¿Cómo es posible que no hayas leído u oído algo de esto?”
Durante el resto del paseo no me pude quitar de la cabeza lo que acababa de ver ¿Qué sería aquel enigmático Mercado de la Seda? ¿Un centro cultural? ¿Una empresa? ¿Unos okupas se habrán atrincherado en el viejo cine y prometían hacer algo (muy) grande? Por lo que se podía leer y deducir, el tinglado estaba dirigido por una empresa china (Xiu-Shui) que ya tenía centros similares en otras ciudades y ahora era el turno de Madrid… ¡Arrea con los chinos la que van a preparar!
Ya en casa, lo primero que hice fue buscar en Internet más info y encontré numerosas referencias sobre el proyecto Mercado de la Seda. Incluso visité la web (en chino) de Xiu-Shui. Vaya pasada. Estaba alucinado. A continuación os copio algunos extractos:
[…]Los Mercados de la Seda, como el que ya existe en Beijing, y los que se abrirán en Sao Paulo y Estambul, son lugares donde se puede compartir el mundo. Un nuevo concepto de cultura, basado en la tradición china, que mira al futuro. Ofreciendo conocimiento para todo el mundo, desde todo el planeta. Y ahora desde pleno centro de Madrid […] Se trata de un nuevo concepto de ocio cultural y de intercambio. El espacio social ofrecerá́ un ancho de banda de 10 Gbps, que permitiría descargar toda la Wikipedia en 10 segundos, y se compromete a proteger el derecho de anonimato de sus usuarios. Dispondrá́ de actividades lúdicas como talleres, charlas, demos, competiciones y otras actividades programadas […] En el servicio de cine de 250 plazas, patrocinado por el servicio de intercambio de archivos Megaupload, se podrán ver los mejores estrenos de la cartelera mundial. En las salas de visionado comunitarios, cada una con 25 plazas, se podrán ver series a demanda, en los horarios más convenientes, con buena calidad y unos subtítulos supervisados por nuestros traductores y por la comunidad on-line. Todo, desde las series infantiles de los 80 hasta los últimos capítulos de tus series favoritas.
Empecé a pensar que algo así tenía que tener truco o, lo más probable, que el proyecto estaba paralizado y olvidado por falta de dinero. Visitando un link del diario económico Cinco Días descubrí el pastel: Todo era falso […] se trata de una iniciativa creada por Daniel García Andújar, un artista visual residente en Barcelona que ha ideado la perfecta falsificación de un proyecto empresarial: desde las lonas que cubren el histórico edificio, un frontón que data de 1898, hasta la creación de una empresa ficticia y una web donde se desvelan los detalles del proyecto. En ella se detallan las marcas que se comercializarán (como Loewe, LVMH, Rolex o Gucci), además de los planos de la zona de descargas online y los resultados económicos de la multinacional china. Incluso una responsable de comunicación asegura, vía e-mail, que facilitará cualquier información que se solicite.
Ya tengo algo en común con Alicia (la del País de la Maravillas) ambos hemos sido embaucados por un conejito. Qué desilusión… buuuaaa :’-(
Post data: En realidad no me entero de nada. Este proyecto se presentó con motivo de la Noche en Blanco de Madrid, en septiembre del 2010.
Todos quieren ser tu Gran Hermano
septiembre 26, 2010 on 2:36 pm | In análisis de datos, cibercultura, colección, internet | 13 CommentsAdolfo García | El Gran Hermano descrito por George Orwell en su novela 1984 disponía de una amplia red de telepantallas para conocer en todo momento lo que hacían sus conciudadanos. Por otra parte, gracias a la eficiente labor del Ministerio de la Verdad, en la sociedad orwelliana la historia se manipulaba y reescribía para evitar que cualquier “incómoda” evidencia del pasado pudiera cuestionar el presente.
1984 describe una sociedad sin voluntad donde todos los aspectos de la vida son cuidadosamente planificados y controlados. Lo más llamativo de este sistema es que aparentemente funciona. Salvo casos aislados -similares al de su protagonista, Wiston Smith– da la sensación de que el sistema funciona. Es decir, la mayor parte de la ciudadanía vive (o sobrevive) instalada en la ignorancia…
* * *
En el marco de la presentación del Apple Macintosh, a comienzos de 1984, Steve Jobs recurrió al argumento de la novela de George Orwell para aterrorizar al auditorio sobre la posición hegemónica que IBM tenía en el mercado. Tras sus palabras Mr. Jobs obsequió a su entregado público con un impactante spot publicitario (dirigido por Ridley Scott) donde Apple, representado por una chica armada con una gran maza, huye de un grupo de perseguidores mientras se dirige a una gran sala donde centenares de personas asisten a un tenebroso discurso del Gran Hermano.
Trascurridos más de 25 años desde aquella presentación los usuarios hemos aprendido muchas cosas. Una de ellas es que toda gran compañía aspira, quizás sin intención reconocida, a ocupar el sillón del Gran Hermano… incluido Apple…
IBM y otras compañías inventaron la informática. Hasta el comienzo de los años ’90 esta compañía tenía una posición dominante en los sistemas para empresas. Pocos huecos escapaban a su control, desde el ordenador personal hasta el centro de proceso de datos. Afortunadamente aparecieron nuevas tecnologías que ofrecían alternativas a IBM. Es de justicia decir que la mayoría de estas opciones no eran técnicamente superiores a lo existente pero ofrecían, por fin, la posibilidad de elegir.
Con excepción del lanzamiento del PCjr y los tardíos PS/1, IBM nunca mostró mucho interés por el mercado domestico. Fueron Apple y Microsoft los que empezaron a desembarcar en los hogares con paso firme. En el mundo de la empresa los AS400 de IBM empezaron a ser desplazados por sistemas abiertos basados en UNIX. Token Ring fue languideciendo ante la imparable Ethernet, y el fantástico OS/2 cayó frente al popular Windows NT. Así las cosas, contra todo pronostico -y deseo- de Steve Jobs, el nuevo Gran Hermano fue Microsoft…
Los ´90 representan la década dorada de Microsoft. Windows y Office dominan los escritorios domésticos y profesionales. NT y el conjunto de servidores BackOffice entraron con fuerza en el mundo de la empresa. Esta hegemonía solo se vio perturbada por el nacimiento de Linux y, como no, la popularización de Internet.
Al comienzo de este siglo Microsoft seguía manteniendo su posición de Gran Hermano pero tenía innumerables competidores deseosos de hacerse un hueco en el CPD y en el escritorio. Además, Internet representaba un nuevo entorno en el que Microsoft nunca se desenvolvió con comodidad más allá del navegador Internet Explorer. Por esta última razón, como no podía ser de otra forma, Internet sería el espacio en el que nacería el nuevo Gran Hermano: Google.
En 1998 Google sorprendió al mundo con un simpático e infantil interfaz tras el que se ocultaba un sofisticado buscador. Poco a poco fue desplazando a buscadores tan populares como Altavista y Yahoo!. Hasta nuestros días la principal fuente de ingresos de Google se basa en un modelo sencillo y efectivo: anexar discreta publicidad a los resultados de cada búsqueda.
IBM y Microsoft nunca sintieron especial interés por el individuo. Su negocio estaba basado en vender herramientas hardware o software. En cambio Google no tardó en darse cuenta de la importancia que tenía conocer “a fondo” al usuario para poderle ofrecer una publicidad “más satisfactoria”. Además, para mantener su estrategia a largo plazo, Google supo ver la importancia que tiene “el dispositivo” desde el que acceden los usuarios. Por este motivo en el 2008 lanzo el navegador Google Chrome e impulsó Android. Como podéis imaginar, hoy Google sabe más de todos nosotros que los Gran Hermano que le precedieron.
Es difícil imaginar quién moverá del trono a Google. En mi humilde opinión quizás sea algún anónimo Wiston Smith que logre inventar una nueva forma de buscar en Internet empleando software de inteligencia artificial. Puestos a imaginar pienso en agentes personales que -manteniendo nuestro anonimato- hagan por nosotros el trabajo de búsqueda, análisis y consolidación de la información. Quizás, un paso previo, puede ser el desarrollo de nuevos estándares que faciliten la creación de una Web semántica. Tampoco hay que olvidar los envites que tendrá que soportar Google por parte de instituciones públicas cada más preocupadas (y presionadas) por el uso que se da a los datos de los usuarios.
Uno de los posibles destinos que aguardan a Google queda reflejado en el siguiente vídeo. En el cercano año 2015 Google ha logrado vencer a Microsoft y la prensa tradicional es cosa del pasado tras el desplome del periódico The New York Times. Por si fuera poco Google se ha fusionado con Amazon y entre ambos se encargan de «paquetizar» la información que recibimos desde Internet…
Hoy, en el 2010, aunque le cueste reconocerlo a Steve Jobs, Apple es incapaz de disimular sus maneras y aspiraciones de Gran Hermano. Con gran maestría ha enseñado a la industria discográfica como se vende música y contenidos multimedia a través de Internet. Apple ha demostrado a los fabricantes tradicionales de telefonía móvil que es lo que estábamos esperando los usuarios y, como no, han logrado generarnos una necesidad llamada iPad… Hasta aquí todo sería una bonita historia de innovación y marketing de no ser por el cautiverio que impone Apple a sus clientes obligando a estos a acceder a los contenidos a través de iTunes, controlando así que se puede escuchar, ver, leer o utilizar. Tampoco hay que olvididar la restricción para reproducir contenidos en Adobe Flash. Por último, en el lado más oscuro, está el contenido de los acuerdos de exclusividad que firman los operadores a cambio de un porcentaje de lo que facturarán a sus usuarios. A pesar de todo Apple va a necesitar algo más que bonitas máquinas para combatir en un mercado que acabará, tarde o temprano, dominado por fabricantes asiáticos (Samsung, HTC, LG, Huawei y ZTE entre otros) en cuyo corazón latirá, sin lugar a dudas, Android.
Noticias de interés
Alemania contra Google: un voto de confianza a la autorregulación. El Mundo 22.09.2010
‘The New York Times’ dejará de imprimirse «en el futuro». Expansión 09.09.2010
Cibercultura y contracultura
mayo 9, 2010 on 3:45 pm | In cibercultura, internet | 2 CommentsAdolfo García Yagüe | Considerado por muchos “el último movimiento contracultural del siglo XX”, la Cibercultura se ha integrado de tal forma en nuestra realidad que, a comienzos del siglo XXI, cuesta creer que en sus inicios -mucho antes de que se inventara la propia etiqueta- fuese una corriente que operó desde posiciones críticas al sistema.
Este movimiento contracultural fue una compleja amalgama ideológica, repleta de referentes y manifestaciones de lo más dispar. En la mayoría de los casos el denominador común era un noble deseo de cambiar el mundo a través de la utilización de novedosos recursos y tecnología de vanguardia. Por ejemplo, el espíritu Hacker de los años ’70 o la aparición del concepto Open Source, a finales de los noventa. En la vertiente artística sería fácil enumerar propuestas que van desde el arte electrónico del coreano Nam June Paik (1932-2006) en los sesenta -y décadas sucesivas-, hasta la síntesis de imágenes en 3D. De territorios más académicos destaca la asimilación de la (densa) Teoría de la Información (1948) de Claude E. Shannon (1916-2001) junto a las aportaciones sociológicas de Warren Weaver (1894-1978).
Otra manifestación singular, genuinamente alternativa y hippie, es la aldea Drop City en las afueras de Trinidad, en Colorado. Allí, partiendo de la invención de Richard Buckminster Fuller (1895-1983), se desarrollo una comunidad entre los años 1965 y 1975 donde sus pobladores habitaban Cúpulas Geodésicas construidas a partir de restos de automóviles recogidos en desguaces cercanos.
La Cibercultura también es deudora de importantes novelistas que desarrollaron su obra bajo diferentes periodos y estilos. Es obligado citar a escritores de la Nueva Ola como James G. Ballard (1930-2009) y Norman Spinrad (1940); William S. Burroughs (1914-1997) de la Generación Beat; la ciencia ficción producida por Philip K. Dick (1928-1982), o el desarrollo del género ciberpunk de la mano de William Gibson (1948) y Bruce Sterling (1954).
No faltaron consignas paradigmáticas como “El Medio es el Mensaje” de Marshall McLuhan (1911-1980). A través de ella se afirmaba que los medios no son invisibles. La televisión no es una ventana al mundo ya que no muestra simplemente imágenes a los espectadores. En realidad desempeña un papel al determinar lo que ven las masas y cómo lo comprenden. McLuhan también acuño el término Aldea Global y profetizó la aparición de nuevas técnicas de comunicación que permitirían el desarrollo de microsociedades (comunidades virtuales) de existencia casi siempre efímera pero intensa (1964).
Como sucedió con la Teoría de la Información, la asimilación de conocimientos no se detuvo en lo meramente sociológico. Geometría Fractal, Teoría del Caos, los números primos, PI (π), o el encanto por la proporción áurea (φ) fueron elementos que fascinaron al cibermilitante. Tampoco podemos olvidar el irresistible atractivo del número 23 y sus apariciones a lo largo de la historia… Otros recursos imprescindibles son Cibernética o el control y comunicación en animales y máquinas (1948), de Norbert Wiener (1894-1964); la Teoría de los Autómatas Autorreproductivos, de John von Neumann (1903-1957), y Alan Turing (1912-1954) con su obra Máquinas de computación e inteligencia (1950).
En toda esta historia tampoco podían faltar personajes como Timothy Leary (1920-1996) o Terence McKenna (1946-2000) que hicieron apología del consumo indiscriminado de sustancias psicodélicas y de sus pretendidos beneficios espirituales. Lamentablemente, no fueron estos los únicos flirteos con el mundo de las drogas. Poco a poco se fueron sumando nuevas sustancias para, supuestamente, potenciar las capacidades cognitivas o alcanzar estados de conciencia superior… La versión “para niños y mayores” de todo este disparate llegaría en forma de bebidas inteligentes, y de ahí a las estanterías de los supermercados en formato lata de refresco.
Virus informáticos, vida artificial, implantes biónicos, realidad virtual, Internet, ordenadores personales o el cibersexo han sido -entre otros muchos temas- objeto de interés de la corriente ciber. A lo largo de su historia numerosas publicaciones y colectivos han profundizado en su estudio y difusión. Por citar algunos mencionaré a Whole Earth Catalog, la BBS The Well, Chaos Computer Club, Electronic Frontier Foundation, Mondo 2000 y Wired.
Probablemente, en la segunda mitad de los años noventa la herencia del movimiento cibercultural de décadas anteriores se colapsó sobre si mismo y empezó una nueva etapa protagonizada por el uso popular de Internet. El caso español no fue muy diferente del resto. En el siguiente vídeo podréis ver la situación a finales 1994. A nadie escapa que solo un par de años después, todo aquello quedó ampliamente superado (y olvidado). El documental se produjo coincidiendo con la celebración en Madrid de la muestra Art Futura ’94. Esta edición se dedicó a presentar el estado actual y perspectivas de manido movimiento cibercultural.
A modo de reflexión
Al comienzo del post recordaba el posicionamiento crítico que se mantuvo hacia al sistema ¿Cuáles han sido sus principales reivindicaciones? Ahí van algunas: Acceso democrático a la información y el conocimiento; preservar el anonimato de nuestras comunicaciones frente al estado y/o empresas; asegurar la privacidad sobre datos que puedan revelar nuestros hábitos de consumo y/o costumbres; no permitir la aplicación de patentes sobre algoritmos; fomentar el uso de software libre en la administración pública; acortar los plazos para que una obra pase al dominio público universal…
Como comprobarás, la mayor parte de la imaginería ciber se ha diluido o integrando totalmente en nuestras vidas pero sus reivindicaciones siguen vigentes, quizás ahora más que nunca pues hay numerosos estados que filtran el acceso a páginas web; existen sistemas que rastrean nuestras comunicaciones; se pretende criminalizar la utilización de aplicaciones que permita intercambiar información; grandes multinacionales han puesto en el mercado simpáticos dispositivos o navegadores que memorizan que nos gusta visitar o escuchar; muchas obras universales no son accesibles de ninguna forma; las compañías comercian con bases de datos donde reside nuestra información; entidades privadas, con la complicidad de algún gobierno, recaudan un canon cada vez que compramos un soporte para almacenar datos…
Sociedad de la Información y minería de datos
mayo 1, 2010 on 7:53 am | In análisis de datos, cibercultura, ciberseguridad, internet | 1 CommentAdolfo García | Ayer el Consejo de Ministros aprobó un plan para suprimir 29 empresas públicas y 32 altos cargos de la Administración y así ahorrar 16 millones de euros. Entre los órganos afectados desaparecerá la Dirección General para el Desarrollo de la Sociedad de la Información, dependiente del Ministerio de Industria, Turismo y Comercio. No puedo decir que me sorprenda, y tampoco creo que tenga consecuencias relevantes para el ciudadano. En cualquier caso, esta noticia me da pie para compartir algunas reflexiones.
La Sociedad de la Información es una bonita etiqueta para definir el mundo en el que vivimos. Sin lugar a dudas, esta denominación encierra un poderoso atractivo que la relaciona con el acceso democrático a la información y la comunicación global entre personas. Por esta razón, entre los quehaceres del Ministerio de Industria, se ha intentado fomentar el progreso social y económico a través del acceso a redes de datos y consumo de información. Más allá de esta visión tan idealista, el término Sociedad de la Información esconde otro significado menos saludable y a la vez más real e inquietante. Me refiero al hecho de que nuestras vidas y sociedades están dirigidas por los datos y la interpretación de estos.
La minería de datos, es decir, la recolección información y su posterior análisis es la auténtica esencia de la Sociedad de la Información. Instituciones públicas y entidades financieras son un ejemplo de organizaciones que necesitan conocer detalles de nuestra cotidianeidad para poder tomar decisiones. A veces, la posesión de información, su manipulación e interpretación interesada tiene consecuencias desastrosas, especialmente cuando se trata de la clase política. No es muy difícil asistir a intervenciones donde, flagrantemente, se falsean o malinterpretan datos para justificar una u otra política… ¿Y qué podemos decir de aquellas compañías que invaden la intimidad de nuestro hogar -o correo electrónico- ofreciéndonos productos a la medida de nuestras necesidades? Por último, seguro que todos conocemos alguna página en Internet que nos ha sorprendido presentando nuestros datos personales, domicilio, teléfono, etc. Caramba, ahora que me doy cuenta ¿No será más acertado emplear el término Información de la Sociedad?
Contra lo que muchos puedan pensar la minería de datos no es nueva. De hecho es bastante anterior a la existencia de ordenadores y redes de datos. Esta hunde sus raíces en los albores de otra Sociedad -esta vez la Industrial- a comienzos del siglo XIX en Inglaterra. Allí apareció una corriente de pensamiento denominada utilitarismo que influyó notablemente en la vida política y económica del país. Al igual que siglos antes Francis Bacon (1561-1626) llegó a la conclusión de que el único camino para desentrañar los misterios de la naturaleza era -partiendo de una posición escéptica- observar, tomar mediciones (datos) e interpretar estos, los utilitaristas se dieron cuenta de la importancia de recoger datos de cualquier aspecto de la vida en sociedad para, posteriormente, interpretarlos y tomar decisiones políticas… A la cabeza de este movimiento estaba el excéntrico Jeremy Benthan (1748 – 1832).
Cada día es más difícil establecer los límites en el acceso y manipulación a los datos que definen nuestra vida y costumbres porque, al vivir en un mundo dominado por la tecnología, vamos dejando (consciente o inconscientemente) tras nuestros pasos un reguero de valiosa información. Es este sentido es oportuno recordar la regulación procedente de la Administración Pública a través de la Agencia de Protección de Datos y la LOPD (Ley Orgánica de Protección de Datos).
Quiero acabar este post citando AbreDatos 2010. Este concurso se celebró los días 17 y 18 de abril con la pretensión de generar un debate en torno a la necesidad de que los organismos públicos proporcionen sus datos de forma accesible, para permitir su uso y reutilización por parte de los ciudadanos. Los participantes tenían como objetivo desarrollar una aplicación en menos de 48 horas que hiciera uso de al menos una fuente de datos públicos y transformara estos en información útil.
Dirección General Desarrollo de la Sociedad de la Información www.mityc.es/dgdsi
Agencia de Protección de Datos www.agpd.es
AbreDatos 2010 www.abredatos.es
Fuentes de Datos Abiertos en España https://datospublicos.jottit.com/
(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress