Realidad Virtual (2). Llegada al mercado

marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.

Algo común en los visores de aquella época es su baja resolución de imagen y que carecen de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de estos ordenadores -o consolas- tenían suficiente capacidad para generar gráficos en tiempo real adaptados a cada perspectiva.

Industria de Videojuego
Como he comentado, la industria del videojuego fue la primera en introducir la RV aunque, en honor a la verdad, aquellas primeras apuestas de visores carecían de nivel para ser tomadas en serio. El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor 3D para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.

El mercado no tardó en darse cuenta de que aquello era bastante malo y, al poco de nacer, empezaba a deshincharse el globo de la expectación. Por si esto fuera poco, el StuntMaster no disponía de una óptica para acomodar la visión a las dioptrías del usuario y esto a algunas personas les provocaba molestias o, directamente, la incapacidad de ver con claridad lo que presentaba el visor.

A pesar de este tropezón el mundo del videojuego no cejó en el intento. El siguiente paso lo dio Nintendo con la Virtual Boy poniendo de manifiesto que no tenían claro cómo llegar al mercado. Lo primero, y más llamativo, es que aun tratándose de un visor RV este tenía un trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior, lo que suponía una gran incomodidad y fatiga. Parece ser que esta aproximación la introdujo por Nintendo para evitar posibles accidentes si alguien decide desplazarse con el visor puesto…

Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la consola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.

Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.

Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. Hay que reconocer lo ingenioso de este método al conseguir incrementar la resolución, a la vez que se conseguía estereoscópica, que era el “gran diferencial” de la Virtual Boy. Aun así, esta consola con visor RV fue un estrepitoso fracaso y apenas duró un año en el mercado.

Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.

Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.

Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte. Alguna incluso pretendían ir más allá y recurrían a visores con óptica polarizada junto a controladores de vídeo para hacer del PC un equipo en 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.

Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro

Realidad Virtual (1). Regreso al Futuro

febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…

Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.

Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un algún desajuste emocional.

Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.

Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.

Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.

También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.

Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.

Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.

Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.

Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.

En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove– con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.

Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (2). Llegada al mercado

Apple Lisa y el GUI

febrero 3, 2022 on 7:52 pm | In colección, hist. informática | No Comments

Adolfo García Yagüe | Hace unos días recordaba la aparición de la versión 3.0 de Windows. Como decía, con esta versión Microsoft logró que los usuarios de un PC empezáramos a considerar el uso de un GUI (Graphic User Interface). También ayudó el lanzamiento de un conjunto de herramientas ofimáticas específicas para este entorno. Aunque Microsoft llevaba ofreciendo Windows desde el año 1985, siempre fue algo secundario y este GUI no terminaba de convencer. Quizás, una de las razones, tenía que ver con que este entono no era un sistema operativo real y era un añadido gráfico al MS-DOS. Evidentemente, esto limitaba su capacidad multitarea y potencia. Por otra parte, hay que recordar, que en aquellos años la mayoría de los PCs estaban basados en el Intel 8088/8086 y eran pocos los usuarios que contaban con un disco duro.

Las citadas limitaciones de los PCs no tenían nada que ver con los Apple Macintosh. Apple, y más concretamente Steve Jobs (1955-2011), supieron ver la importancia de un entorno gráfico para lograr que los ordenadores llegaran a más gente. Realmente, antes que Jobs, el mérito de la invención y uso de un GUI corresponde Xerox con sus ordenadores Alto (1973) y Star (1981). En cualquier caso, los aportes de Apple fueron decisivos y consiguieron que el GUI fuera conocido tras el lanzamiento del Apple Lisa en 1983.

El desarrollo de esta máquina sería el origen de agrios enfrentamientos entre Jobs y el equipo encargado de su desarrollo. Fruto de estas tensiones Steve fue apartado para no interferir en las decisiones de diseño y expulsado a un edificio donde empezó, según su criterio, el desarrollo del Apple Macintosh. En lo personal Lisa también encierra uno de los demonios que acompañaron a Jobs durante algún tiempo acerca de la paternidad y la áspera relación que mantuvo con su hija Lisa Brennan-Jobs (1978). En aquel momento Steve se refería a LISA como un acrónimo de Local Integrated Software Architecture.

En los primeros meses de su comercialización Lisa venía equipado con dos unidades de diskettes llamadas FileWare. Rápidamente, Apple se percató de su error al querer salirse de los estándares y el Lisa 2 ya se suministró con un floppy de 3” ½ y a los clientes de FileWare se les ofreció -sin coste- el cambio de unidad. Este ordenador también contaba con la posibilidad de añadir un disco duro de 5MB gracias al Apple ProFile, que ya era conocido desde el Apple III. No obstante, lo más impactante, fue la incorporación de un entorno gráfico y un ratón inspirados en lo que los ingenieros de Apple conocieron en Xerox.

Colección | IBM Personal Computer 5150 | BIOS y Clean-room Design

 

Microsoft Windows 3.0

enero 29, 2022 on 9:45 am | In colección, hist. informática | No Comments

Adolfo García Yagüe | Microsoft Windows versión 3… Qué lejos queda… Esta versión fue lanzada en 1990 y con ella se empezó a popularizar el uso de un entorno gráfico entre los que éramos usuarios de un PC. Compartió época con el asentado escritorio de los Apple Macintosh, el OS/2 de IBM, el GEM de Digital Research y, sobre todo, el de ordenadores domésticos como el Atari ST, Commodore Amiga o Acorn Archimedes y otros equipos muy avanzados para su época como eran las estaciones de trabajo NeXT.

Para fomentar el uso de Windows, Microsoft acompañó la versión 3 con el famosísimo juego de cartas el Solitario. Aquel juego causo furor y se hizo un hueco en los escritorios de casi todos los puestos de trabajo provocando una pequeña y simpática crisis de productividad laboral. ¿Quién no se ha echado un Solitario? 😊

Colección | IBM Personal Computer 5150 | BIOS y Clean-room Design

 

El Videodisco

agosto 25, 2021 on 7:04 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Acceso aleatorio frente a otro de tipo secuencial. De esta forma podríamos resumir la diferencia más significativa entre usar un soporte basado en disco frente a otro de cinta magnética. Como conocéis, esta característica nos permite el acceso directo a un corte musical de un LP o localizar directamente un fichero en nuestro disco duro.

Este avance fue decisivo en la reproducción de vinilos de música o en el uso de discos para almacenar y recuperar información, pero ¿Qué pasó con el vídeo? Como veremos, el empleo de videodiscos parecía algo inminente en los años cincuenta, pero no fue hasta 1967 cuando se presentó el primer producto. Este era el HS-100 de Ampex y estaba dirigido al mundo profesional para grabar y reproducir hasta 30 segundos de vídeo sobre un disco magnético y era empleado para la producir la famosa “moviola”, es decir, la repetición a cámara lenta de un instante, generalmente de tipo deportivo. También, en aquel año, David Paul Gregg (1923-2001) obtuvo la patente de un disco óptico transparente que, como veremos más adelante, guarda parentesco con el LaserDisc.

Antes del HS-100 y de la patente de Paul Gregg el impulso innovador llevó a algunas compañías e inventores a plantear ideas donde se trasladaban conceptos ya conocidos al mundo del vídeo. Así fue como un anónimo Antonio Rubbiani presentó en 1957, en el Salone Internazionale della Tecnica de Italia, un disco transparente donde estaba registrado un caudal de vídeo con un corto mensaje de texto. Aquello, haciendo un atrevido ejercicio de imaginación, debería de ser similar al registro óptico de audio que se hacía en el cine donde las vibraciones sonoras son convertidas a imagen y registradas en el celuloide junto al resto de fotogramas para, posteriormente y durante la reproducción, proyectar un haz de luz a su través y excitar a una célula fotoeléctrica. Supongo que Rubianni hizo una aproximación parecida, pero no hay detalles de su invento y aunque el principio pueda parecer atinado, las diferencias de ancho de banda y densidad de información entre audio e imagen hacen imposible este planteamiento por eso, como veremos más adelante, la clave estaba en la aproximación de Gregg.

Videodisco de Capacidad Electrónica
Aquella reutilización de principios también llevó a RCA (Radio Corporation of America) a concebir en los años ‘60 un sistema de videodisco de solo lectura inspirado en los tradicionales microsurcos del vinilo. Este invento, conocido como CED (Capacitance Electronic Disc), se basaba en un disco del mismo tamaño que el de un LP de música, pero cuya densidad era de 10000 surcos por pulgada formando una única pista espiral. En estos microsurcos estaba registrada la señal de video como una sucesión de variaciones de capacidad que eran leídas por un estilete o aguja de tan solo 2,5µm. Aquel estilete, fabricado en diamante, tenía en su parte posterior un electrodo que hacía las veces de una de las placas de un condensador electrónico. De esta forma, la variación de profundidad del surco era el elemento dieléctrico y el interior de disco era la otra placa del citado condensador. Estas variaciones de capacidad eran del orden de picofaradios y con ellas se actuaba sobre un oscilador de alta frecuencia a partir del cual se reconstruía la señal de vídeo modulada en FM.

El disco CED giraba a 450 rpm y en cada rotación del surco se mantenían 8 campos. Recordar que un cuadro está formado por dos campos, lo que significa que en cada vuelta estaban grabados cuatro fotogramas. Por lo tanto, en aquellos surcos era posible registrar hasta una hora de vídeo por cara.

Los discos CED eran tremendamente delicados y venían en una especie de funda o caddy para evitar ser tocados por el usuario y expuestos al polvo o suciedad. Por otra parte, al ser un soporte que requería contacto físico para realizar la lectura, la fragilidad del estilete y el desgaste que éste sufría durante la reproducción obligaba a sustituirlo tras un uso continuado.

El desarrollo de CED pasó por muchos altibajos y, aunque el invento demostró ser viable en 1964, era una proeza técnica para la que fue necesario perfeccionar la tecnología de fabricación del propio disco, el sistema de control y el estilete. Estas razones técnicas hicieron que hasta 1981 no fue presentado el SelectaVision SGT-100, apareciendo este como una alternativa al sistema LaserDisc lanzado en 1978.

Gracias al acuerdo entre RCA y Columbia Pictures, el sistema CED prometía un catálogo de miles de títulos cinematográficos con los que se intentaba animar su adopción. Recordemos que el CED, al igual que LaserDisc, eran sistemas de solo lectura y sus posibilidades de éxito dependían de la existencia de películas para ser adquiridas por un particular. Por eso, una de las razones de la pobre acogida de ambos sistemas, está relacionada con la falta de títulos disponibles y porque en aquellos años pocos usuarios tenían la costumbre de acumular películas en casa y eso que, en teoría, CED y LaserDisc ofrecían más calidad de imagen y prometían ser más baratos que una cinta VHS o Beta.

LaserDisc
El soporte que estaba llamado a revolucionar el mercado era el LaserDisc. Este nacía en el momento adecuado, en 1978, justo cuando Betamax y VHS empezaban a captar la atención del público. LaserDisc venía rodeado de una aureola de modernidad al ser la primera vez que un usuario común tenía acceso a la tecnología láser… y aquello le daba un aire de ciencia ficción y sofisticación inigualable…

LaserDisc, que en su inicio se llamó DiscoVision, fue fruto del trabajo de varias compañías entre las que destacan, Paul Gregg y su patente, MCA (Music Corporation of America), Philips, Magnavox y Pioneer. La primera etapa se corresponde con los trabajos de Gregg apoyados por MCA en su intención de contar con un sistema de vídeo con el que dar salida a la gigantesca colección de títulos cinematográficos de Universal Pictures y sus asociadas. Esto sucedió a finales de los ’60. A pesar de que MCA no era una empresa de electrónica, gracias a diversos acuerdos y un abultado presupuesto, logro presentar un prototipo de videodisco transparente en 1972 según las ideas de Gregg. A pesar de este hito aun quedaba un proceso largo de desarrollo hasta contar con un producto. Fue en aquellos años cuando conoció que Philips estaba trabajando en un sistema de videodisco de tecnología reflectiva -que difería de la suya- y entendió que para continuar necesitaba el impulso de una gran compañía experta en electrónica. Por eso, ambas compañías, MCA y Philips, firmaron un acuerdo de colaboración en 1974. Resumidamente, a través de este acuerdo MCA se hacía cargo de la fabricación de discos y Philips se responsabilizaba del desarrollo y fabricación del reproductor. Para ser capaz de fabricar en EE.UU. y contar allí con una marca reconocida, Philips adquiriría en 1974 la histórica Magnavox y trasladaría a sus viejas plantas de Knoxville, Tennessee, la responsabilidad de fabricar un producto de alta tecnología para aquella época. Los retrasos en la adaptación de la citada fabrica y algunos problemas de calidad obligaron a que miles de unidades de los primeros Magnavox 8000 fueran realmente fabricadas en Holanda y volaran en avión para atender los primeros pedidos a finales de 1978 y 1979.

Hacia 1977 MCA firmó otro acuerdo con la compañía electrónica japonesa Pioneer. Se pretendía que este fuera un acuerdo menor que, ante todo, sirviese de respaldo ante la posibilidad de que Philips decidiese abandonar el proyecto DiscoVision, además, también era una forma de atacar el mercado japonés. Por este motivo en el citado acuerdo se daba derecho a Pioneer a estampar discos, desarrollar reproductores y comercializarlos bajo su marca en Japón. Pioneer, en su aspiración de seguir la estela de fabricantes como Sony y JVC y así hacerse un hueco en el incipiente mundo de vídeo doméstico, empezó a planchar discos ópticos en 1980 y puso en el mercado el VP-1000 en 1981, ya comercializado con el sobrenombre de LaserDisc. A partir de aquí podéis intuir como sigue la historia, Philips-Magnavox van retrocediendo porque DiscoVision no terminaba de captar la cuota de mercado esperada y Pioneer va adquiriendo cada vez más control sobre la tecnología hasta convertirse en la cara visible en todos los mercados.

Si uno ojea la patente de Paul Grebb advierte que se citan dos elementos esenciales para reproducir vídeo y audio en un disco trasparente. Por una parte, al tratarse de sonido e imágenes, la densidad de marcas ópticas será muy alta y de un tamaño microscópico y solo será posible su lectura con una fuente de luz coherente: el recién inventado rayo láser (desarrollado en 1960 por Theodore Maiman). Por otro lado, conocedor de los requisitos de ancho de banda de un caudal de imágenes, Gregg estima que el disco debería girar a una velocidad comprendida entre 1800 y 3600 revoluciones por minuto.

Se podría concluir que aquí se encuentran las dos ideas originales sobre las que se asienta esta tecnología, no obstante, las aportaciones de Philips son esenciales porque avanzan en la codificación del vídeo y audio como una sucesión de microscópicos hoyos donde un láser de 632nm se refleja y sufre un desfase de 180º. Gracias al citado desfase de la señal láser es posible reconstruir una señal eléctrica donde la anchura de esta señal se corresponde con la detección o no de hoyo. Esta señal eléctrica ya es una representación en FM de señal de audio y vídeo.

Este planteamiento de disco óptico con lectura “reflejada” difería de la aproximación de Gregg donde se apostaba por discos trasparentes donde emisor láser y transductor estuvieran a cada lado del disco. Así, en la propuesta de Philips el disco giraba a 1800 revoluciones por minuto y tenía dos caras útiles, situando toda la electrónica y el láser a un lado del disco y con solo dar la vuelta a éste se continuaba la reproducción en la otra cara. También es de destacar que, en lugar de pensar en un único surco en espiral que se lee de fuera hacia dentro, Philips pensó en un disco con pistas concéntricas e independientes que se leen de dentro hacia fuera y donde en cada una de estas pistas solo hay grabado un cuadro o fotograma. Gracias a la tecnología CAV (Constant Angular Velocity) esto permitía congelar la imagen perfectamente y así conseguir registrar hasta 30 minutos de imágenes en cada cara.

En contra de lo que se podría pensar -y lo que le sucedió al CED-, LaserDisc no tuvo una muerte prematura y se mantuvo en el mercado hasta el año 2000. Su caída se aceleró a partir de 1996, momento en el cual apareció el DVD. En aquel año su cuota de mercado alcanzaba un 2% en EE.UU. y un 10% en Japón donde fue el formato preferido en los Karaokes. Durante todo el tiempo fue una tecnología que subsistió como una forma de poseer a nivel particular una videoteca con alta calidad de imagen. En este sentido es importante recordar que el hábito de comprar películas por los usuarios no despego hasta la llegada del DVD ya que en los años 80 y principios de los ‘90 lo normal era alquilar en un videoclub. También merece recordar el empleo del LaserDisc en el mundo de los videojuegos en 1983 en el clásico Dragon’s Lair. En la versión de este juego para máquinas recreativas se recurrió a una solución hibrida de LaserDisc y ordenador donde se presentaban imágenes de fondo logrando una videoaventura de una riqueza visual nunca vista.

En muchos sentidos el LaserDisc era un producto adelantado a su tiempo. Como habéis podido comprobar no tiene nada que ver con lo visto anteriormente, como la grabación magnética o los surcos del vinilo, y sienta las bases de lo que más tarde sería el Compac Disc y el DVD, especialmente en las técnicas de lectura láser y servocontrol porque, recordemos, en el LaserDisc el vídeo y el audio eran registros analógicos, aunque ya podía incluir una pista de audio digital PCM. Es un ornitorrinco de la tecnología.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Home Video

julio 7, 2021 on 7:24 pm | In colección, hist. fotografía, vídeo y tv | 1 Comment

Adolfo García Yagüe | Dentro de unos días la MTV cumplirá cuarenta años. Fue en agosto del ‘81 cuando, con el simbólico “Video Killed the Radio Star” de The Buggles, arrancaban sus emisiones iniciándose así una nueva época para el pop y el rock. Como años antes le sucedió al periodismo, la tecnología del vídeo modificó esta industria con una nueva narrativa que amplificaba la imagen de nuestros ídolos. Estos cambios coincidían con otra transformación de mayor impacto donde los video-reproductores estaban ocupando un hueco en el entretenimiento doméstico, a la vez que se ponía en manos (o al hombro) de un usuario normal la capacidad de videograbar.

Philips N1500 VCR
Realmente fue Philips con su N1500 VCR (Video Cassette Recording) quien dio en 1972 el primer paso hacia el hogar. A pesar del intento previo de Sony, sus U-Matic era caros y las máquinas con bobina de cinta eran complejas y delicadas. Tampoco ayudaba el hecho de que aquellos equipos careciesen de un sintonizador RF y un programador horario (o timer) para grabar contenidos emitidos por televisión. En resumen, Philips lanzó el primer equipo de vídeo pensando en el mercado doméstico con casetes de 30, 45 y 60 minutos, fácil de utilizar y útil para grabar “de la tele”. El pistoletazo de salida ya se había dado y aunque aquel equipo tuvo unas cuantas evoluciones, no terminó de ganarse la confianza del mercado por algunos problemas mecánicos y, sobre todo, porque los VCR de Philips solo eran compatibles con el sistema europeo PAL, no existiendo una versión NTSC (EE.UU. y Japón). Europa, aunque gran consumidora, no estaba destinada a ser referente tecnológico del desarrollo del vídeo.

Sony Betamax
Así, en 1975 Sony puso en el mercado el LV-1901. Este era un sistema monolítico que reunía televisión, reproductor de vídeo y timer en un mismo bloque. Aquel equipo tampoco gozó de gran popularidad porque obligaba al usuario a desechar su anterior TV y su envergadura condicionaba su ubicación, además de ser complicada su reubicación dentro del hogar. A pesar de esto se notaba que era un equipo de gran calidad que podía grabar y reproducir hasta 1 hora en casetes ofreciendo 250 líneas por cuadro. En este equipo Sony condesaba su experiencia previa con U-Matic y, aunque era incompatible con él, ponía en el mercado un sistema de vídeo de prestaciones similares a menor precio haciéndolo accesible para muchos hogares y suficiente para la mayoría de las aplicaciones profesionales. A este sistema de vídeo Sony lo llamó Betamax y, tras la pobre acogida del LV-1901, lanzó el modelo SL-7200 que iba sin timer siendo este una opción de ampliación.

Con Philips y otros fabricantes moviendo levemente el mercado del vídeo doméstico y con Sony empujando con fuerza, se empieza a intuir la revolución que se cernía sobre el mundo audiovisual. Son años donde las grandes compañias cinematográficas empiezan a mirar con recelo, sospechando incluso que la grabación en video acabará con la industria del cine. Nada más lejos de la realidad porque, si alguien salió beneficiado, fueron las propios majors al tener un nuevo canal para comercializar en vídeo -una y otra vez- sus títulos de cine. El punto álgido de aquellas tensiones lo protagonizó Disney y Universal Studios cuando en 1976 emprendieron acciones legales contra Sony haciéndola responsable de la vulneración de derechos de autor por facilitar a los usuarios grabar un espacio de televisión protegido por derechos de autor, aunque esto fuera porque no se podía ver en el horario original de emisión. Tras un proceso que se extendió hasta 1984 la justicia eximió de responsabilidad a Sony pero aquel caso ejemplifica como, desde siempre, las grandes compañías han intentado frenar cualquier avance tecnológico que pueda rozar levemente sus intereses, sin importar que esta tecnología también tenga otros usos e incluso les beneficie.

JVC y el VHS (Video Home System)
La aspiración de Sony con Betamax, como en otras tecnologías, era establecer un estándar que fuera seguido por el resto de los fabricantes y así, además de vender sus reproductores, ver incrementados los ingresos con el licenciamiento de sus patentes para la fabricación de equipos y casetes compatibles con Betamax. Por eso, mientras Sony promocionaba su sistema entre otros fabricantes, conoció que JVC (perteneciente al grupo Matsushita) estaba trabajando en un sistema de vídeo doméstico que era prácticamente igual al suyo denominado Video Home System (VHS). Aquello hizo saltar todas las alarmas de Sony quién incluso llegó a apelar al gobierno nipón contra JVC por menoscabar los supuestos beneficios para la economía y la industria japonesa al existir dos estándares de vídeo.

Aquella rivalidad entre sistemas desencadenó la famosa “guerra de los formatos” y, aunque Betamax ofreciera 250 líneas por campo frente a 240 de VHS, nació con la limitación de 60m en la duración de sus cassettes mientras que VHS soportaba 120m. Evidentemente, esto penalizaba la publicación de largometrajes cinematográficos en una única cinta de vídeo o la grabación de programas que duraran más de una hora. Esta debilidad siempre pesó sobre Betamax aunque fuera resuelta por Sony con nuevas cintas y equipos, incluso antes de que se desarrollara el mercado de la publicación de títulos de cine y los videoclubs. Más allá de este hecho, es importante no olvidar que cuando una tecnología nace tutelada por una única empresa las opciones de asentarse como estándar son pocas, y más aún si se trata de un mercado masivo y altamente competitivo como era este. Por eso, la clave de aquel conflicto, fue que JVC siempre tuvo una política de licenciamiento más laxa que Sony redundando en que cualquier empresa podía fabricar o publicar un vídeo VHS, incluso aquellas que basaban su producto en un diseño de referencia de un tercero o que, simplemente, se limitaban a revender un producto OEM. Ejemplo de aquella flexibilidad es que el primer equipo VHS comercializado en EE.UU. no fue un JVC sino el RCA SelectaVision VBT 200, que estaba diseñado y fabricado originalmente por Panasonic (también del grupo Matsushita). Tampoco olvidemos el «pequeño» detalle de que hasta enero de 1984 el conflicto de Sony con dos de los mayores estudios de Hollywood permaneció abierto. También recordar que este clima de tensión de Sony con la industria audiovisual solo se acabaría cuando los japoneses se hicieron en 1988 con el control de Columbia Records y, al año siguiente, con Columbia Pictures… y ya era demasiado tarde para Betamax.

Hacia el final de la década de los ‘80 quedaba claro que la posición de mercado de VHS era superior a la de Betamax y por esta razón Sony abandonó su sistema dando por perdida la guerra, pero manteniendo el liderazgo en el sector de las videocámaras basadas en el sistema Video8 que era, en gran parte, una evolución de Betamax. Por otro lado, durante la citada década, Sony consolidó su hegemonía en el ámbito profesional o broadcast con sus cámaras de vídeo y el sistema Betacam. En este sistema, en lugar trabajar con una señal de vídeo compuesto como se hacía en U-Matic, Betamax o VHS, se grababa una pista con la señal de luminancia y en otra distinta la crominancia. Además, Betacam era un sistema que, aunque sacrificaba tiempo de grabación al incrementar la velocidad de paso de la cinta, ofrecía 300 líneas por campo llegando incluso a alcanzar las 340 líneas con Betacam SP en 1986.

Philips Video 2000
Aunque sea testimonialmente, acabo recordando que en 1979 Philips intentó reconducir su mala experiencia de los sistemas VCR y hacer valer su veteranía en el hogar presentando junto a Grundig el sistema Video 2000. La principal novedad de estos equipos era el uso de unos cassettes de doble cara. A pesar de alguna mejora más frente a VHS y Betamax, el sistema Video 2000 nació tarde y (una vez más) enfocado en el mercado europeo… y no olvidemos que Europa es un mercado formado por distintos países con economías y niveles de riqueza dispares, y cada uno con sus regulaciones y sus tiempos. Es decir, estamos fragmentados y apenas tenemos escala para poder apostar por un estándar, con la excepción del lejano sistema de telefonía móvil GSM o 2G. Además, carecemos de una industria audiovisual -como la americana- para poder empujar hacia una dirección y ya, para colmo, en los años ochenta, se había empezado a desmontar la industria de electrónica de consumo y solo Philips resistía. Por estas razones Video 2000 desapareció en 1988 sin dejar rastro.

Es curioso comprobar como el sistema VHS soportó el paso de tiempo y solo fue destronado por el DVD al final de la década de los ’90. Con VHS crecimos, compusimos nuestras preferencias cinematográficas y lo más importante, almacenamos grandes recuerdos.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Grabación magnética de vídeo

junio 20, 2021 on 5:19 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Para conocer los orígenes de la tecnología para la grabación magnética de imágenes hay que remontarse a la época dorada de la televisión, allá por los años 50 del siglo pasado. Tras sus primeros pasos y, en especial, en países con varias franjas horarias como EE.UU., se hizo evidente que el dinamismo de este medio en su forma de presentar las noticias, la emisión en diferido, la publicidad y, en definitiva, asegurar la continuidad entre espacios, no estaba acompasado con la filmación en Kinescopio y su logística.

Fue en aquellos años cuando los ingenieros pensaron en adaptar los conceptos de la grabación magnética del audio al mundo de la imagen, a pesar de la disparidad entre ambos medios. Esta diferencia tiene que ver con el ancho de banda de cada señal o la anchura espectral entre la frecuencia más baja y la más alta que, el caso del audio es de 20KHz frente a los 4MHz del vídeo. Una señal con semejante ancho de banda presenta grandes dificultades cuando se intenta registrar en un medio magnético por la propia naturaleza ferromagnética, el tamaño del entrehierro del cabezal de grabación y la velocidad a la que este se tiene que desplazar sobre la cinta.

Algunas empresas como Bing Crosby Enterprises y RCA (Radio Corporation of America) presentaron soluciones que intentaban sortear los citados retos aumentando la velocidad a la circulaba la cinta a su paso por el cabezal que, en el caso de RCA, alcanzaba las 300 pulgadas por segundo (7,62m/s). Evidentemente, tal velocidad obligaba a trabajar con aparatosas bobinas de cinta magnética de un diámetro cercano a los 50cm y con apenas capacidad para registrar 15 minutos de imágenes. Aquellos equipos, al trabajar a muy alta velocidad y disponer de delicados cabezales tendían a fallar mecánicamente, eran costosos de mantener y no se alcanzaba la calidad deseada. Mientras que las citadas empresas se esforzaban en hacer demostraciones públicas de sus avances, Ampex trabajaba en secreto en un grabador de vídeo en donde optaron por no partir de la base de lo ya conocido en audio y así esquivar estas dificultades. Empezaron tomando la señal de vídeo y con ella modularon en FM una portadora cuyos extremos se situaban entre 4,5MHz y 6MHz, reduciendo así el ancho de banda a 1,5MHz. A continuación, esta señal era entregada síncronamente a cuatro cabezales ubicadas en un tambor que rotaba transversalmente a 240rps sobre una cinta magnética de 2” de ancho y que avanzaba a una velocidad de tan solo 15 pulgadas por segundo. El éxito fue rotundo y en 1956, tras una efectista demostración ante ejecutivos de la CBS, sus máquinas VR-1000 y las cintas magnéticas Quadruplex de 90 minutos de duración se convertirán en un estándar para la industria de la televisión.

Grabación helicoidal
Durante los ’60 Ampex estuvo presente en todos los sectores donde la grabación magnética de voz, vídeo y datos fuese esencial. Esta diversificación los llevó en 1964 a desarrollar propuestas tan avanzadas como Videofile, que era un sistema de gestión documental basado en imágenes de vídeo y empleado, por ejemplo, en Scotland Yard para el archivo de huellas dactilares. También, siguiendo la evolución de la tecnología electrónica, empezaron a reducir el tamaño de sus equipos para ir abriéndose a otra áreas y sectores más allá del estudio de producción de televisión. Así, en 1965, cuando lazaron el equipo VR-7000 se aproximaron al mundo de la seguridad electrónica y el CCTV. Aquella disminución de tamaño repercutía en el precio y, aunque aún no era razonable para una familia, se empezaba a pensar en el Home Video. Quien sí se benefició claramente de esta disminución de tamaño fue, una vez más, el sector de periodístico y la TV. Equipos como el VR-3000, junto a la videocámara Ampex BC-100, empezaron a ser usados en la retrasmisión de eventos como los Juegos Olímpicos de México de 1968.

El denominador común de los equipos lanzados durante estos años fue la técnica de grabación helicoidal que dejó obsoleta a la transversal. En esta nueva técnica el tambor también rotaba, pero esta vez era rodeado oblicuamente por la cinta magnética. Es decir, el video quedaba registrado en la cinta como una sucesión de segmentos dispuestos diagonalmente. Esta técnica permitía hacer pausas de un fotograma y, sobre todo, economizaba la cinta magnética al reducir su anchura de 2” hasta 1” e, incluso, ½ pulgada. Aunque desde el inicio de los años 50 Ampex y RCA hicieron aproximaciones teóricas al sistema helicoidal, fue el equipo dirigido por Norikazu Sawazaki de Toshiba quien presentó en 1959 el primer prototipo de un videograbador con este nuevo sistema.

El primer equipo comercial basado en la técnica helicoidal fue el fugaz VR-8000 de Ampex, en 1961. De esta máquina solo se fabricaron cuatro unidades y fue seguido por el VR-1100, ambos con cinta magnética de 2” de anchura. En 1964 Philips presentó el EL-3400 que empleaba cintas de 1” y, al año siguiente, Sony lanzo el mítico CV-2000 cuyo precio se situaba entre los 1000 y 1500 dólares. El CV-2000, además de reducir la achura de la cinta a solo ½”, fue una revolución que puso a Sony en el mapa de la grabación de vídeo acercando ésta al ámbito doméstico (CV, Consumer Video). Esta accesibilidad hizo posible que, por ejemplo, algunos grupos activistas dieran sus primeros pasos en el llamado periodismo de guerrilla y, en la búsqueda de nuevas formas de expresión a través de la tecnología, con esta serie de equipos de Sony dio comienzo el videoarte de la mano de artistas como Nam June Paik (1932-2006).

Si aplicamos los estándares de hoy diríamos que el Sony CV-2000 era un equipo de modestas prestaciones que grababa en blanco y negro con tan solo 200 líneas horizontales por campo. Recordemos que en una señal de televisión clásica un fotograma es llamado cuadro y este se forma en el tubo de imagen por la representación consecutiva de dos campos: uno con las líneas impares y en el otro las pares. Por eso decimos que la señal de televisión NTSC es de 525 líneas por cuadro y la PAL de 625. Aclarado este concepto volvemos al CV-2000 comentado que con este equipo se presentaron algunos problemas en el intercambio y reproducción de cintas grabadas en sistemas del mismo modelo y, aunque a veces se menciona como un equipo portátil, no estaba alimentado por baterías y pesaba 20Kg -cámara aparte- por lo que es más correcto referirse a él como un equipo transportable. Tras la serie CV se sucedieron otras más elaboradas y ligeras como la AV donde ya se puede hablar de equipo portátil, baterías y cuyos últimos modelos grababan en color. Mientras esto sucedía, Sony acumulaba conocimiento en el diseño de videocámaras y magnetoscopios e impulsaba, junto a otros fabricantes, un estándar en la técnica de grabación para facilitar la interoperabilidad entre ellos. Aquel empeño desembocó en un sistema que, en lugar de estar basado en bobinas abiertas, utilizaba cassettes en cuyo interior había unos carretes de una cinta de ¾ de pulgada dando a la grabación de vídeo un cariz más automático y robusto. Este fue el origen de U-Matic (U por como la cinta magnética rodea al tambor y Matic de automatic). En 1971 Sony sería el primer fabricante que presentó un producto: el VO-1600, un equipo con el que se podía grabar y reproducir vídeo y el VP-1000, que solo reproducía. Las elevadas prestaciones y el coste de aquellos equipos los dejaban fuera de una economía doméstica pero los acercaba a todos aquellos sectores profesionales donde era útil la grabación de imágenes como la industria, educación y, por supuesto, el periodismo donde Sony empezó a ser tenido en cuenta y, con los años, desplazó a Ampex e impuso un nuevo estándar.

ColecciónKodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Marconi y el Día Internacional de la Radio

febrero 13, 2021 on 7:59 pm | In colección, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | No quería dejar pasar este Día Internacional de la Radio sin recordar a través de dos piezas de la colección los orígenes de esta. El primero de ellos es una bobina de inducción o carrete de Ruhmkorff, inventado por Heinrich Ruhmkorff (1803-1877). En estos dispositivos, a partir de una tensión continua, se conseguía elevar el voltaje a la vez que funcionaba como un conmutador produciendo, a su salida, alta tensión intermitente o alterna. Esta tensión “alternante” tenía propiedades de radiofrecuencia, es decir, se propagaba una señal por el espacio. Estos ingenios –o primitivos osciladores- fueron empleados en los primeros Telégrafos Sin Hilos (TSH).

Por otra parte, como detector se utilizó el Cohesor de Branly, inventado por Édouard Branly (1844-1940). Este pequeño dispositivo es una ampolla de cristal que contiene limaduras de hierro en su interior donde, a ambos lados, se encuentran unos bornes. En estado normal, cuando no detecta una señal de radiofrecuencia, su resistencia eléctrica es muy alta y apenas circula tensión entre los citados bornes. En cambio, cuando una señal de radiofrecuencia es detectada, las limaduras de hierro de su interior experimentan “rotura” de la microoxidación existente entre ellas y en ese momento el cohesor es un elemento conductor. Cuando esto sucede, se activa un pequeño martillito con el que se golpea la ampolla y las limaduras vuelven a su estado normal, o a ser un componente aislante. Una vez más serían los primeros telégrafos sin hilos donde se empezó a utilizar este ingenio.

Marconi y la Invención de la Radio
La paternidad de la invención de la radio es consecuencia del trabajo de múltiples personas. Aunque Guillermo Marconi (1874-1937) es la persona que se ha instalado en nuestra cultura, es preciso recordar que las primeras experiencias con radiofrecuencia son obra de los antes citados Ruhmkorff y Branly, además de Heinrich Rudolf Hertz (1857-1894), Nikolai Tesla (1856-1943) y Aleksandr Popov (1859-1905) entre otros, sin olvidar que la teória del electromagnetismo fue expuesta en 1865 por James Clerk Maxwell (1831-1879).

El mérito de Marconi está en que, además de ser un gran inventor, supo desarrollar un servicio útil (la telegrafía sin hilos) y centrarse en un proyecto empresarial, cosa de la que siempre adoleció el gran Tesla motivando que muchos de los descubrimientos e iniciativas de este no lograsen cristalizar en la sociedad por su dispersión y escasa gestión. No obstante, aunque muy tarde, hay que recordar que en 1943 la Corte Suprema de Estados Unidos devolvió a Tesla la patente de Marconi reconociéndo así su invención de la radio.

La citada faceta empresarial de Marconi queda resumida en que al comienzo del siglo XX la Marconi´s Wireless Telegraph Company Limited obtiene la patente del invento y en 1904 Marconi firma un acuerdo con la Oficina de Correos Británica para trasmitir mensajes telegráficos. Años después, en 1909, el prestigio de Marconi era inmenso y fue reconocido con el Nobel de Física. Con semejante aureola de sabiduría Marconi era recibido con los más altos honores como recuerda la siguiente noticia donde se relata su visita a Madrid en 1912 junto a su majestad Alfonso XIII.

Todo lo anterior daría para que una persona “normal” se retirase y viviese de su éxito pero, en el caso de Marconi, la telegrafía sin hilos no fue suficiente y avanzó en la radiodifusión de voz fundando Radio Vaticano en 1931. Incluso, entre las inquietudes de Marconi, estaba la búsqueda de vida extraterrestre a través de la escucha de emisiones de radio.

Produce cierto vértigo comprobar como el legado empresarial de Marconi ha logrado evolucionar hasta el siglo XXI a través de innumerables compañías, adquisiciones y mutaciones.

Colección | Telegrafía y Telefonía | Telégrafo y Telecomunicación | Construcción de un Telégrafo | La Música Eléctrica del Cura Castillejo

1G o primera generación de telefonía móvil

febrero 8, 2021 on 7:43 pm | In colección, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Ahora que es tan popular el término 5G y que los gobiernos y empresas se afanan en insistir en su importancia, hay gente que por su juventud no ha conocido como empezó todo, es decir, el 1G. Aprovechando que he añadido unos textos comentando alguna pieza de la galería, he querido recordarlo aquí.

Indelec 3833-01, 1986
El equipo anterior es uno de los primeros teléfonos móviles que se comercializaron para ser usados en la red de Telefónica. Este móvil pertenece a la primera generación -o 1G- compatible con el sistema NMT-450 (Nordic Mobile Telephony) en la banda radio de 450MHz. NMT coincidió con otros sistemas de telefonía –incompatibles entre si- como AMPS en EE.UU, TACS en Reino Unido o B-Netz en Alemania. España adoptó el sistema nórdico por ser uno de los más maduros. Aquello garantizaba a Telefónica una mayor oferta en equipos terminales y de red (especialmente Ericsson, Nokia y Philips). También cabe destacar que las especificaciones de NMT eran abiertas para que cualquier fabricante desarrollara un terminal o estación base sin tener que pagar royalties. En el Indelec 3833-01 llama la atención su volumen y peso cercano a los 12Kg, incluyendo su batería y maleta de transporte. Este era un equipo que, a pesar de ser portable y gozar de autonomía al tener batería, estaba pensado para ser transportado en el coche.

Con este terminal se escribe uno de los capítulos de nuestra historia tecnología y su aspiración por hacerse un hueco entre los grandes vendors. En efecto, el 3833-01 fue diseñado y fabricado en Dinamarca entre los años 1984 y 1985 por la compañía AP Radiotelefon con el nombre BV 31-A. La comercialización de este equipo dentro de Telefónica fue posible gracias a Indelec, una joven compañía que estaba impulsada por el Gobierno Vasco, Telefónica como cliente preferente y Philips como socio tecnológico. Esta participación de Philips permitiría a Indelec alcanzar el conocimiento necesario para desarrollar sus propias soluciones.

Standard Eléctrica ITT-7700, 1986
Ante la revolución que estaba comenzando, ITT Standard Eléctrica, el histórico aliado tecnológico de Telefónica, no podía permanecer sin plantear una solución. Por eso, a pesar de que en esta época atravesaba por serias dificultades financieras, optó por introducir en Telefónica un móvil diseñado y fabricado por la japonesa Mitsubishi, que en aquel entonces era un líder en esta tecnología. Inicialmente, el ITT-7700 se comercializó bajo la firma ITT Standard Eléctrica hasta que la citada compañía fue absorbida en 1987 por la francesa Alcatel y ya etiquetado con esta marca. Aunque este equipo es contemporáneo del Indelec 3833-01, las mejoras en su diseño electrónico y autonomía y, sobre todo, sus 8Kg de peso son significativos frente a este.

Indelec I-4000, 1988
Durante la primera mitad de los años ochenta del pasado siglo, la telefonía móvil era un servicio que, aunque ya disponible, era poco visible debido a su alto coste y, sobre todo, porque los terminales no estaban pensados para ser transportados fuera del vehículo. Esto empezó a cambiar con el Indelec o Telyco I-4000 que, aunque seguía siendo utilizado en coches, podía ser transportado “cómodamente” gracias a sus 4Kg de peso. Por esta razón, equipos como este, empezaban a ser vistos por la calle en manos –o al hombro- de algunos ejecutivos.

El origen de este equipo hay que buscarlo una vez más en Dinamarca, en la antes mencionada AP Radiotelefon. Allí fue donde originalmente se diseñó para ser presentado por Philips en abril de 1986. Desconozco los detalles de la relación entre AP Radiotelefon y Philips pero sospecho que, hacia 1986-87, AP Radiotelefon fue adquirida por Philips. En la información que ha llegado hasta mis manos -anterior a este equipo- ya existía la conexión entre ambas empresas y el patrón se repite: equipos diseñados y fabricados por AP Radiotelefon y vendidos bajo marca Philips. Al existir la citada relación con Philips, una vez más, este equipo llegó a España de la mano de Indelec e incluso fue comercializado con la marca Telyco de la cual Telefónica era propietario. Con este equipo también se cierra la época NMT-450 o, como Telefónica la denominó, TMA-450 (Telefonía Móvil Automática).

TMA-900 y Motorola DynaTAC, 1990
Si hay un móvil donde se simboliza el estatus y el poder económico en la época 1G es con el Motorola DynaTAC. Algunos lo recordaréis de la interpretación de Michael Douglas en el papel de Gordon Gekko en Wall Street (1987).

Este era un teléfono realmente móvil al poder ser trasportado con facilidad. Fue desarrollado en 1983 por un equipo de Motorola liderado por Martin Cooper. Desde aquel año hasta 1993 se sucedieron diferentes versiones con algunas mejoras y adaptando su uso a cada país y sistema radio. Hay que destacar que la principal razón de su “pequeño” tamaño y bajo consumo eléctrico obedece a que trabaja en frecuencias altas, concretamente en 850MHz de AMPS (Advanced Mobile Phone System), mientras que en España veníamos usando el sistema nórdico (NMT) a 450MHz. También, en este móvil, se aprecia el avance que se estaba sucediendo en la integración electrónica y el desarrollo de chips a medida en lugar de recurrir a componentes genéricos.

En nuestro país fue distribuido por Amper, otra de las empresas históricas en la órbita de Telefónica. Popularmente este móvil fue conocido con el sobrenombre de “el ladrillo”. En España se introdujo cuando se empezó a prestar servicio a 900MHz con el sistema TACS. A este sistema Telefónica lo denominaría TMA-900 y años después pasó a llamarlo Moviline.

Mapas de cobertura 1G
Para terminar he querido incluir dos mapas de cobertura en abril de 1990 para los servicios 1G  y la prevista a diciembre del mismo año. En el primero se muestra la penetración de TMA-450 y en el segundo TMA-900.

Colección | Los Móviles | HarmonyOS y los Sistemas Operativos Móviles

Redes LAN inalámbricas: WaveLAN, Altair y ARLAN

octubre 12, 2020 on 9:40 am | In colección, hist. informática, hist. telecomunicaciones, telecomunicaciones | No Comments

Adolfo García Yagüe | El establecimiento de las bandas ISM sobre ciertas porciones del espectro radio fue un terremoto que no dejó indiferente a casi nadie. Este movimiento sísmico zarandeó el mercado y agitó los cimientos de muchas empresas en su intento por posicionarse en esta novedosa oportunidad. Por ejemplo, NCR intuía el potencial que podían ofrecer las redes inalámbricas a su negocio tradicional, que era (y es) el de los puntos de venta o POS de los supermercados. Otros, como Telxon, llegaron a la conclusión de que las comunicaciones RF (radiofrecuencia) apenas tenían que ver con la lectura de códigos de barras por eso, en 1994, escindieron su expertise en radio en una nueva compañía llamada Aironet. Otro ejemplo era el de Motorola que, conscientes de su sabiduría en el mundo de la radiofrecuencia, decidieron alejarse de lo que otros competidores hacían mientras que a ambos lado del Atlántico se empujaba hacia una estandarización. Incluso, en el colmo de esta agitación del mercado, había quién apostaba por una comunicación a distancia mediante rayos infrarrojos.

NCR WaveLAN
Muchos de vosotros conocéis que NCR (National Cash Register) es una de las firmas más antiguas de este sector. Fue fundada en el siglo XIX por John Henry Patterson (1844-1922) y por allí pasó gente tan carismática como Thomas Watson (1874–1956) de IBM. Aunque NCR ha jugado en todas las posiciones del mundo de las IT (tecnologías de la información), siempre ha mantenido una posición de liderazgo en las soluciones relacionadas con formas de pago: desde lectores bancarios de cheques y cajeros automáticos hasta cajas registradoras o terminales puntos de venta (TPV). En los ’80 venía investigando en las capacidades de la comunicación infrarroja porque, como podéis intuir, en las grandes superficies no siempre es fácil, rápido ni barato llevar un cable de datos a un determinado punto del centro comercial para ubicar un TPV. Por esta razón, cuando en 1985 se establecieron las bandas ISM, la tecnología radio llamó su atención y empezaron a indagar en sus posibilidades.

NCR contaba con un Centro de Ingeniería en Nieuwegein, una pequeña ciudad a las afueras de Utrecht, Holanda, donde principalmente se trabajaba en la adaptación de sus soluciones al mercado europeo. Allí estaba empleado Bruce Tuch, un americano afincado en Holanda con gran experiencia en radiofrecuencia tras su paso por Philips. Bruce y su colegas holandeses empezaron a investigar en las posibilidades de ISM y en 1987 construyeron un prototipo que permitía la comunicación inalámbrica a 100Kbits por segundo, y al año siguiente hicieron otro cuyo ancho de banda alcanzaba los 500Kbits/s. Aun siendo un gran salto, aquello no era suficiente para una caja registradora que, en esencia, era un ordenador compatible IBM PC donde ya era común la comunicación Ethernet LAN a 10Mbps. En este sentido, NCR estableció un mínimo de 1Mbps de ancho de banda para considerar el lanzamiento de un producto comercial.

El reto era grande. Como hemos visto en el artículo anterior, para velocidades del orden de miles de bits por segundo de las comunicaciones RS-232 o RS-485, era factible aplicar los mecanismos habituales de Spread Spectrum. En cambio, con cualquiera de estas técnicas de espectro ensanchado, era complejo y costoso ofrecer un ancho de banda de 1Mbps. Pensemos que en la técnica DSSS emisor y receptor comparten un código binario (Código Chip) con el que se realiza una operación -por ejemplo un XOR sobre cada bit del mensaje. Por esta razón, un bit que se desea enviar se convertirá en una cadena de bits antes de ser transmitidos por radio. Este ensanchamiento del mensaje hace que la comunicación cuente más robustez frente a interferencias, refiriéndonos a esta como ganancia de procesado. En FHSS, la otra técnica de Spread Spectrum, emisor y receptor acuerdan varias frecuencias por las que “saltarán” y enviarán pequeños fragmentos del mensaje. Así, en ambos casos, si se desconoce el código chip o las frecuencias de salto, resulta difícil entender el mensaje por alguien que intercepte la comunicación.

Ante este muro infranqueable, en 1988 Bruce Tuch viajó a Washington y planteó a la FCC la cuestión sobre cómo interpretar las reglas de Spread Spectrum y la longitud mínima que tenía que tener el código chip pues, a mayor longitud de este, más complejidad en la electrónica de proceso y menos ancho de banda. Bruce quedo sorprendido cuando FCC le confirmó que con una longitud de 10 bits era suficiente. Aquella respuesta despejó el camino y, al llegar a Holanda, su compañero Hans van Driest ya tenía implementado un chip de 11 bits de longitud llamado Secuencia Barker (+1, –1, +1, +1, –1, +1, +1, +1, –1, –1, –1).

Aplicando las técnicas de espectro ensanchado DSSS descritas y la modulación DQPSK (Differential Quadrature Phase-Shift Keying) en la banda ISM de 902-928MHz, NCR logró un ancho de banda cercano a los 2Mbps. Este nivel físico necesitaba de un nivel MAC (o de acceso al medio) capaz de detectar la portadora de otra estación y así evitar la colisión que se produce cuando varios equipos simultanean su comunicación. Para este fin adaptó el funcionamiento del procesador Ethernet N82586 de Intel para que, en lugar de CSMA/CD (escucha portadora y detecta colisión), funcionara como CSMA/CA (escucha portadora y evita colisión) junto con el envío de unos mensajes de acuse de recibo desde el receptor. De esta forma, además de beneficiarse de un chip comercial y acelerar el desarrollo de una solución inalámbrica, Tuch y su equipo se acercaban a lo que ya se venía haciendo en el estándar Ethernet.

En 1990 NCR lanzó al mercado WaveLAN, un adaptador inalámbrico en 902 a 928MHz compatible con el IBM PC. Como hemos visto en otros textos, trabajar en esta banda ISM abarataba el diseño electrónico pero ofrecía menor capacidad, sin olvidar que estos productos no eran compatibles con el plan de frecuencias europeo. Por estas razones, al año siguiente, presentarían una versión para trabajar en 2,4GHz. Las WaveLAN eran tarjetas que se insertaban en un ordenador normal y eran compatibles NDIS (Network Driver Interface Specification), es decir incluían drivers para ser usadas por sistemas operativos de red como Netware o LAN Manager. Además estos adaptadores, al igual que las tarjetas de Ethernet y Token Ring, disponían de un zócalo donde instalar una ROM con un programa de autoarranque para redes Netware. Así mismo, con WaveLAN, NCR ya fue consciente de las vulnerabilidades de la comunicación inalámbrica e incluyó, como opción de ampliación, la posibilidad de instalar un chip para el cifrado DES de 56 bits a través de la configuración de una clave o Network ID.

En 1991 NCR fue comprada por AT&T pero la historia del equipo de Nieuwegein no acaba aquí y continuó con su participación en el desarrollo del estándar 802.11 en representación de Lucent Technologies.

Motorola y las LAN inalámbrica
Escribir sobre las comunicaciones radio y no mencionar a Motorola es difícil. Esta compañía se fundó en Chicago en 1928 como Galvin Manufacturing Corporation y paso a llamarse -dos años después- Motorola para ser identificada con su producto estrella, un autorradio (Motor + Victrola). Esta especialización en el campo de la radiofrecuencia fue clave para que en los años 40 suministrara al ejército americano el famoso Walkie Talkie SCR-536. De esta época también es el radioteléfono Handie-Talkie FHTRU-1A. Los buscapersonas, la telefonía móvil celular o la red de satélites Iridium llevan el sello de Motorola, por no hablar de sus avances en semiconductores. Con semejante currículo ¿Cómo no iba a desarrollar una solución inalámbrica para las LAN?

Altair (comercializado como Rialta en el mercado español) fue un producto que se alejó del planteamiento seguido por NCR y otros fabricantes que, como hemos comentado, eran prácticos y cercanos a las normas de la FCC. Motorola, en lugar de seguir estas recomendaciones de uso de las bandas ISM, consideró que no merecía la pena trabajar con espectro ensanchado y optaron por las frecuencias de 18 y 19GHz… Para evitar trámites al usuario final y facilitar la adopción de este producto, Motorola tuvo que obtener una autorización para vender Altair en cada país y el usuario tenía que rellenar un formulario de registro, ya que el uso de estas frecuencias no es libre. La realidad era que en 18 o 19GHz la penetración radio es muy baja y un simple tabique representa un obstáculo insalvable. Por eso, en el marketing de la época, Motorola hablaba del uso en oficinas con espacios abiertos y recomendaba que existiese visibilidad directa entre equipos Altair.

El Altair de Motorola se asemeja a un Bridge donde uno de sus puertos es radio y el otro Ethernet. Esto significa que estaba pensado para ser conectado a un segmento Ethernet y trabajaba a nivel trama, sin importar el tráfico cursado: NetBIOS, Novell IPX, SNA o TCP/IP. Esto, a priori, es una ventaja que permite ser agnóstico a lo que viaja por el cable. No obstante, poco a poco, TCP/IP iba ganando protagonismo en redes donde era necesario establecer una jerárquica separando con routers las diferentes LANs. Por esta razón, la tendencia era ir migrando hacia TCP/IP desde otros protocolos de red, bien con técnicas de encapsulado o directamente. Además, otra de las señales que se aprecian con claridad en los ’90 es el auge de Internet e IP. Dejando a un lado frecuencias y protocolos de red, la topología de una solución Altair consistía en una máquina central denominada Control Module cuyo coste era de 3.995 dólares y al que se conectaban por radio diferentes User Module a un precio de 3.495 dólares por unidad. Un precio desorbitado en 1991 -y a día de hoy- para la mayoría de las empresas teniendo en cuenta, además, que el throughput de una comunicación no superaba los 2Mbps y la instalación de estos equipos tenía numerosos condicionantes relacionados con las frecuencias usadas y su propagación.

Con estas líneas dedicadas a Motorola Altair solo pretendía ilustrar como las redes LAN inalámbricas despertaron iniciativas arriesgadas y el coste que supone desarrollar productos de espaldas al mercado, guiándote solo por el nivel de sofisticación técnica al que puedes aspirar. Así, Altair, fue descontinuado hacia el ‘93-‘94 y Motorola se enroló en 1996 en el consocio Wireless LAN Interoperability Forum (WLIF) que promovía la adopción de la tecnología OpenAir (RangeLAN2) de Proxim.

Aironet ARLAN y la movilidad
Para conocer el origen de Aironet (1994) hay que mirar a Telxon (1974) y antes, incluso, a Telesystems SLW (1986) y Marconi Wireless (fundada a principios del XX). Ahí es donde empieza esta historia, cuando empleados de la Marconi canadiense deciden montar Telesystems. Aironet, además de por sus productos y sus aportaciones al estándar IEEE 802.11, será recordada por haber sido absorbida en 1999 por Cisco Systems, convirtiéndose así en el inicio inalámbrico de esta compañía.

En los párrafos anteriores hemos visto diferentes enfoques para abordar las LAN inalámbricas y si NCR planteaba un modelo descentralizado basado en sus tarjetas WaveLAN, Motorola se decantaba por una topología centralizada donde un Altair Control Module ejercía de controlador de la red inalámbrica. Ambos enfoques tienen pros y contras pero es cierto que en una red local los recursos suelen estar en un lugar central y es recomendable que todo el tráfico pase por ahí pero, a la vez, es acertado que este equipo no regule “la libertad” de cada participante en la red para hablar y usar el medio (aunque, nadie le escuche). Esto nos hace pensar en un punto de acceso que hace de intermediario o bridge con los recursos y hacia el que todas las estaciones son libres para dirigir su tráfico. Cuando hablamos de recursos podemos pensar en la asignación de direcciones IP que hace un DHCP, los servidores o la salida a Internet.

El ARLAN 630 y fue uno de estos primeros puntos de acceso que comercializó Aironet para las bandas ISM de 900MHz y 2,4GHz. Operaban en DSSS y ya estaban cerca de la norma 802.11 pero, por ejemplo, carecía de mecanismos de cifrado y el único sistema de seguridad se basaba en el establecimiento de filtros que impedían que ciertas estaciones y protocolos pudiesen cruzar a través de él es decir, un AAA muy básico (Authentication, Authorization and Accounting).

En el lado de los usuarios, Aironet y otros fabricantes se dieron cuenta que carecía de sentido seguir promoviendo adaptadores ISA y PCI para LANs inalámbricas dirigidos a equipos de sobremesa que, normalmente, no se mueven y son conectados por cable, sin obviar que el uso de ordenadores portátiles y el término “movilidad” empezaba a ser una realidad para muchas empresas. Por este motivo, Aironet intensificó sus esfuerzos en integrar toda la electrónica y la antena en una tarjeta PCMCIA insertable en un portátil. El formato PCMCIA y más tarde PC Card, fue concebido a principios de los ‘90 para utilizar tarjetas de memoria con un tamaño similar al de una tarjeta de crédito. Unos años después esta norma se fue ampliando para permitir la conexión de tarjetas de red, módems y otros periféricos que necesitaban un interfaz de alta velocidad. Así, bajo este formato, aparecieron unos cuantos productos que desdoblaban en dos elementos la solución: una tarjeta PCMCIA donde residía todo el proceso y tratamiento de datos conectada a una pequeña unidad externa donde residía la parte de radiofrecuencia junto a su antena.

Mientras aproximaciones como las citadas en esta líneas llegaban al mercado, varios fabricantes trabajaban para intentar consensuar una norma que unificara los diferentes planteamientos y así conseguir la interoperabilidad entre ellos. Como se comentará en el próximo texto, de estas iniciativas destaca IEEE 802.11, pero es necesario recordar que coincidió en el tiempo con otras como HIPERLAN, HomeRF y OpenAir (continuará).

Colección | Código de Barras y Comunicación Inalámbrica | Redes de Área Local (1) | Sistemas Operativos de Red (2) | Electrónica de Red (y 3)

 

Página siguiente »


(c) 1999-2022 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress