Realidad Virtual (2). Llegada al mercado

marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.

Algo común en los visores de aquella época es su baja resolución de imagen y que carecen de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de estos ordenadores -o consolas- tenían suficiente capacidad para generar gráficos en tiempo real adaptados a cada perspectiva.

Industria de Videojuego
Como he comentado, la industria del videojuego fue la primera en introducir la RV aunque, en honor a la verdad, aquellas primeras apuestas de visores carecían de nivel para ser tomadas en serio. El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor 3D para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.

El mercado no tardó en darse cuenta de que aquello era bastante malo y, al poco de nacer, empezaba a deshincharse el globo de la expectación. Por si esto fuera poco, el StuntMaster no disponía de una óptica para acomodar la visión a las dioptrías del usuario y esto a algunas personas les provocaba molestias o, directamente, la incapacidad de ver con claridad lo que presentaba el visor.

A pesar de este tropezón el mundo del videojuego no cejó en el intento. El siguiente paso lo dio Nintendo con la Virtual Boy poniendo de manifiesto que no tenían claro cómo llegar al mercado. Lo primero, y más llamativo, es que aun tratándose de un visor RV este tenía un trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior, lo que suponía una gran incomodidad y fatiga. Parece ser que esta aproximación la introdujo por Nintendo para evitar posibles accidentes si alguien decide desplazarse con el visor puesto…

Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la consola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.

Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.

Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. Hay que reconocer lo ingenioso de este método al conseguir incrementar la resolución, a la vez que se conseguía estereoscópica, que era el “gran diferencial” de la Virtual Boy. Aun así, esta consola con visor RV fue un estrepitoso fracaso y apenas duró un año en el mercado.

Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.

Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.

Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte. Alguna incluso pretendían ir más allá y recurrían a visores con óptica polarizada junto a controladores de vídeo para hacer del PC un equipo en 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.

Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro

Realidad Virtual (1). Regreso al Futuro

febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…

Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.

Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un algún desajuste emocional.

Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.

Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.

Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.

También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.

Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.

Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.

Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.

Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.

En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove– con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.

Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (2). Llegada al mercado

El Videodisco

agosto 25, 2021 on 7:04 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Acceso aleatorio frente a otro de tipo secuencial. De esta forma podríamos resumir la diferencia más significativa entre usar un soporte basado en disco frente a otro de cinta magnética. Como conocéis, esta característica nos permite el acceso directo a un corte musical de un LP o localizar directamente un fichero en nuestro disco duro.

Este avance fue decisivo en la reproducción de vinilos de música o en el uso de discos para almacenar y recuperar información, pero ¿Qué pasó con el vídeo? Como veremos, el empleo de videodiscos parecía algo inminente en los años cincuenta, pero no fue hasta 1967 cuando se presentó el primer producto. Este era el HS-100 de Ampex y estaba dirigido al mundo profesional para grabar y reproducir hasta 30 segundos de vídeo sobre un disco magnético y era empleado para la producir la famosa “moviola”, es decir, la repetición a cámara lenta de un instante, generalmente de tipo deportivo. También, en aquel año, David Paul Gregg (1923-2001) obtuvo la patente de un disco óptico transparente que, como veremos más adelante, guarda parentesco con el LaserDisc.

Antes del HS-100 y de la patente de Paul Gregg el impulso innovador llevó a algunas compañías e inventores a plantear ideas donde se trasladaban conceptos ya conocidos al mundo del vídeo. Así fue como un anónimo Antonio Rubbiani presentó en 1957, en el Salone Internazionale della Tecnica de Italia, un disco transparente donde estaba registrado un caudal de vídeo con un corto mensaje de texto. Aquello, haciendo un atrevido ejercicio de imaginación, debería de ser similar al registro óptico de audio que se hacía en el cine donde las vibraciones sonoras son convertidas a imagen y registradas en el celuloide junto al resto de fotogramas para, posteriormente y durante la reproducción, proyectar un haz de luz a su través y excitar a una célula fotoeléctrica. Supongo que Rubianni hizo una aproximación parecida, pero no hay detalles de su invento y aunque el principio pueda parecer atinado, las diferencias de ancho de banda y densidad de información entre audio e imagen hacen imposible este planteamiento por eso, como veremos más adelante, la clave estaba en la aproximación de Gregg.

Videodisco de Capacidad Electrónica
Aquella reutilización de principios también llevó a RCA (Radio Corporation of America) a concebir en los años ‘60 un sistema de videodisco de solo lectura inspirado en los tradicionales microsurcos del vinilo. Este invento, conocido como CED (Capacitance Electronic Disc), se basaba en un disco del mismo tamaño que el de un LP de música, pero cuya densidad era de 10000 surcos por pulgada formando una única pista espiral. En estos microsurcos estaba registrada la señal de video como una sucesión de variaciones de capacidad que eran leídas por un estilete o aguja de tan solo 2,5µm. Aquel estilete, fabricado en diamante, tenía en su parte posterior un electrodo que hacía las veces de una de las placas de un condensador electrónico. De esta forma, la variación de profundidad del surco era el elemento dieléctrico y el interior de disco era la otra placa del citado condensador. Estas variaciones de capacidad eran del orden de picofaradios y con ellas se actuaba sobre un oscilador de alta frecuencia a partir del cual se reconstruía la señal de vídeo modulada en FM.

El disco CED giraba a 450 rpm y en cada rotación del surco se mantenían 8 campos. Recordar que un cuadro está formado por dos campos, lo que significa que en cada vuelta estaban grabados cuatro fotogramas. Por lo tanto, en aquellos surcos era posible registrar hasta una hora de vídeo por cara.

Los discos CED eran tremendamente delicados y venían en una especie de funda o caddy para evitar ser tocados por el usuario y expuestos al polvo o suciedad. Por otra parte, al ser un soporte que requería contacto físico para realizar la lectura, la fragilidad del estilete y el desgaste que éste sufría durante la reproducción obligaba a sustituirlo tras un uso continuado.

El desarrollo de CED pasó por muchos altibajos y, aunque el invento demostró ser viable en 1964, era una proeza técnica para la que fue necesario perfeccionar la tecnología de fabricación del propio disco, el sistema de control y el estilete. Estas razones técnicas hicieron que hasta 1981 no fue presentado el SelectaVision SGT-100, apareciendo este como una alternativa al sistema LaserDisc lanzado en 1978.

Gracias al acuerdo entre RCA y Columbia Pictures, el sistema CED prometía un catálogo de miles de títulos cinematográficos con los que se intentaba animar su adopción. Recordemos que el CED, al igual que LaserDisc, eran sistemas de solo lectura y sus posibilidades de éxito dependían de la existencia de películas para ser adquiridas por un particular. Por eso, una de las razones de la pobre acogida de ambos sistemas, está relacionada con la falta de títulos disponibles y porque en aquellos años pocos usuarios tenían la costumbre de acumular películas en casa y eso que, en teoría, CED y LaserDisc ofrecían más calidad de imagen y prometían ser más baratos que una cinta VHS o Beta.

LaserDisc
El soporte que estaba llamado a revolucionar el mercado era el LaserDisc. Este nacía en el momento adecuado, en 1978, justo cuando Betamax y VHS empezaban a captar la atención del público. LaserDisc venía rodeado de una aureola de modernidad al ser la primera vez que un usuario común tenía acceso a la tecnología láser… y aquello le daba un aire de ciencia ficción y sofisticación inigualable…

LaserDisc, que en su inicio se llamó DiscoVision, fue fruto del trabajo de varias compañías entre las que destacan, Paul Gregg y su patente, MCA (Music Corporation of America), Philips, Magnavox y Pioneer. La primera etapa se corresponde con los trabajos de Gregg apoyados por MCA en su intención de contar con un sistema de vídeo con el que dar salida a la gigantesca colección de títulos cinematográficos de Universal Pictures y sus asociadas. Esto sucedió a finales de los ’60. A pesar de que MCA no era una empresa de electrónica, gracias a diversos acuerdos y un abultado presupuesto, logro presentar un prototipo de videodisco transparente en 1972 según las ideas de Gregg. A pesar de este hito aun quedaba un proceso largo de desarrollo hasta contar con un producto. Fue en aquellos años cuando conoció que Philips estaba trabajando en un sistema de videodisco de tecnología reflectiva -que difería de la suya- y entendió que para continuar necesitaba el impulso de una gran compañía experta en electrónica. Por eso, ambas compañías, MCA y Philips, firmaron un acuerdo de colaboración en 1974. Resumidamente, a través de este acuerdo MCA se hacía cargo de la fabricación de discos y Philips se responsabilizaba del desarrollo y fabricación del reproductor. Para ser capaz de fabricar en EE.UU. y contar allí con una marca reconocida, Philips adquiriría en 1974 la histórica Magnavox y trasladaría a sus viejas plantas de Knoxville, Tennessee, la responsabilidad de fabricar un producto de alta tecnología para aquella época. Los retrasos en la adaptación de la citada fabrica y algunos problemas de calidad obligaron a que miles de unidades de los primeros Magnavox 8000 fueran realmente fabricadas en Holanda y volaran en avión para atender los primeros pedidos a finales de 1978 y 1979.

Hacia 1977 MCA firmó otro acuerdo con la compañía electrónica japonesa Pioneer. Se pretendía que este fuera un acuerdo menor que, ante todo, sirviese de respaldo ante la posibilidad de que Philips decidiese abandonar el proyecto DiscoVision, además, también era una forma de atacar el mercado japonés. Por este motivo en el citado acuerdo se daba derecho a Pioneer a estampar discos, desarrollar reproductores y comercializarlos bajo su marca en Japón. Pioneer, en su aspiración de seguir la estela de fabricantes como Sony y JVC y así hacerse un hueco en el incipiente mundo de vídeo doméstico, empezó a planchar discos ópticos en 1980 y puso en el mercado el VP-1000 en 1981, ya comercializado con el sobrenombre de LaserDisc. A partir de aquí podéis intuir como sigue la historia, Philips-Magnavox van retrocediendo porque DiscoVision no terminaba de captar la cuota de mercado esperada y Pioneer va adquiriendo cada vez más control sobre la tecnología hasta convertirse en la cara visible en todos los mercados.

Si uno ojea la patente de Paul Grebb advierte que se citan dos elementos esenciales para reproducir vídeo y audio en un disco trasparente. Por una parte, al tratarse de sonido e imágenes, la densidad de marcas ópticas será muy alta y de un tamaño microscópico y solo será posible su lectura con una fuente de luz coherente: el recién inventado rayo láser (desarrollado en 1960 por Theodore Maiman). Por otro lado, conocedor de los requisitos de ancho de banda de un caudal de imágenes, Gregg estima que el disco debería girar a una velocidad comprendida entre 1800 y 3600 revoluciones por minuto.

Se podría concluir que aquí se encuentran las dos ideas originales sobre las que se asienta esta tecnología, no obstante, las aportaciones de Philips son esenciales porque avanzan en la codificación del vídeo y audio como una sucesión de microscópicos hoyos donde un láser de 632nm se refleja y sufre un desfase de 180º. Gracias al citado desfase de la señal láser es posible reconstruir una señal eléctrica donde la anchura de esta señal se corresponde con la detección o no de hoyo. Esta señal eléctrica ya es una representación en FM de señal de audio y vídeo.

Este planteamiento de disco óptico con lectura “reflejada” difería de la aproximación de Gregg donde se apostaba por discos trasparentes donde emisor láser y transductor estuvieran a cada lado del disco. Así, en la propuesta de Philips el disco giraba a 1800 revoluciones por minuto y tenía dos caras útiles, situando toda la electrónica y el láser a un lado del disco y con solo dar la vuelta a éste se continuaba la reproducción en la otra cara. También es de destacar que, en lugar de pensar en un único surco en espiral que se lee de fuera hacia dentro, Philips pensó en un disco con pistas concéntricas e independientes que se leen de dentro hacia fuera y donde en cada una de estas pistas solo hay grabado un cuadro o fotograma. Gracias a la tecnología CAV (Constant Angular Velocity) esto permitía congelar la imagen perfectamente y así conseguir registrar hasta 30 minutos de imágenes en cada cara.

En contra de lo que se podría pensar -y lo que le sucedió al CED-, LaserDisc no tuvo una muerte prematura y se mantuvo en el mercado hasta el año 2000. Su caída se aceleró a partir de 1996, momento en el cual apareció el DVD. En aquel año su cuota de mercado alcanzaba un 2% en EE.UU. y un 10% en Japón donde fue el formato preferido en los Karaokes. Durante todo el tiempo fue una tecnología que subsistió como una forma de poseer a nivel particular una videoteca con alta calidad de imagen. En este sentido es importante recordar que el hábito de comprar películas por los usuarios no despego hasta la llegada del DVD ya que en los años 80 y principios de los ‘90 lo normal era alquilar en un videoclub. También merece recordar el empleo del LaserDisc en el mundo de los videojuegos en 1983 en el clásico Dragon’s Lair. En la versión de este juego para máquinas recreativas se recurrió a una solución hibrida de LaserDisc y ordenador donde se presentaban imágenes de fondo logrando una videoaventura de una riqueza visual nunca vista.

En muchos sentidos el LaserDisc era un producto adelantado a su tiempo. Como habéis podido comprobar no tiene nada que ver con lo visto anteriormente, como la grabación magnética o los surcos del vinilo, y sienta las bases de lo que más tarde sería el Compac Disc y el DVD, especialmente en las técnicas de lectura láser y servocontrol porque, recordemos, en el LaserDisc el vídeo y el audio eran registros analógicos, aunque ya podía incluir una pista de audio digital PCM. Es un ornitorrinco de la tecnología.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Home Video

julio 7, 2021 on 7:24 pm | In colección, hist. fotografía, vídeo y tv | 1 Comment

Adolfo García Yagüe | Dentro de unos días la MTV cumplirá cuarenta años. Fue en agosto del ‘81 cuando, con el simbólico “Video Killed the Radio Star” de The Buggles, arrancaban sus emisiones iniciándose así una nueva época para el pop y el rock. Como años antes le sucedió al periodismo, la tecnología del vídeo modificó esta industria con una nueva narrativa que amplificaba la imagen de nuestros ídolos. Estos cambios coincidían con otra transformación de mayor impacto donde los video-reproductores estaban ocupando un hueco en el entretenimiento doméstico, a la vez que se ponía en manos (o al hombro) de un usuario normal la capacidad de videograbar.

Philips N1500 VCR
Realmente fue Philips con su N1500 VCR (Video Cassette Recording) quien dio en 1972 el primer paso hacia el hogar. A pesar del intento previo de Sony, sus U-Matic era caros y las máquinas con bobina de cinta eran complejas y delicadas. Tampoco ayudaba el hecho de que aquellos equipos careciesen de un sintonizador RF y un programador horario (o timer) para grabar contenidos emitidos por televisión. En resumen, Philips lanzó el primer equipo de vídeo pensando en el mercado doméstico con casetes de 30, 45 y 60 minutos, fácil de utilizar y útil para grabar “de la tele”. El pistoletazo de salida ya se había dado y aunque aquel equipo tuvo unas cuantas evoluciones, no terminó de ganarse la confianza del mercado por algunos problemas mecánicos y, sobre todo, porque los VCR de Philips solo eran compatibles con el sistema europeo PAL, no existiendo una versión NTSC (EE.UU. y Japón). Europa, aunque gran consumidora, no estaba destinada a ser referente tecnológico del desarrollo del vídeo.

Sony Betamax
Así, en 1975 Sony puso en el mercado el LV-1901. Este era un sistema monolítico que reunía televisión, reproductor de vídeo y timer en un mismo bloque. Aquel equipo tampoco gozó de gran popularidad porque obligaba al usuario a desechar su anterior TV y su envergadura condicionaba su ubicación, además de ser complicada su reubicación dentro del hogar. A pesar de esto se notaba que era un equipo de gran calidad que podía grabar y reproducir hasta 1 hora en casetes ofreciendo 250 líneas por cuadro. En este equipo Sony condesaba su experiencia previa con U-Matic y, aunque era incompatible con él, ponía en el mercado un sistema de vídeo de prestaciones similares a menor precio haciéndolo accesible para muchos hogares y suficiente para la mayoría de las aplicaciones profesionales. A este sistema de vídeo Sony lo llamó Betamax y, tras la pobre acogida del LV-1901, lanzó el modelo SL-7200 que iba sin timer siendo este una opción de ampliación.

Con Philips y otros fabricantes moviendo levemente el mercado del vídeo doméstico y con Sony empujando con fuerza, se empieza a intuir la revolución que se cernía sobre el mundo audiovisual. Son años donde las grandes compañias cinematográficas empiezan a mirar con recelo, sospechando incluso que la grabación en video acabará con la industria del cine. Nada más lejos de la realidad porque, si alguien salió beneficiado, fueron las propios majors al tener un nuevo canal para comercializar en vídeo -una y otra vez- sus títulos de cine. El punto álgido de aquellas tensiones lo protagonizó Disney y Universal Studios cuando en 1976 emprendieron acciones legales contra Sony haciéndola responsable de la vulneración de derechos de autor por facilitar a los usuarios grabar un espacio de televisión protegido por derechos de autor, aunque esto fuera porque no se podía ver en el horario original de emisión. Tras un proceso que se extendió hasta 1984 la justicia eximió de responsabilidad a Sony pero aquel caso ejemplifica como, desde siempre, las grandes compañías han intentado frenar cualquier avance tecnológico que pueda rozar levemente sus intereses, sin importar que esta tecnología también tenga otros usos e incluso les beneficie.

JVC y el VHS (Video Home System)
La aspiración de Sony con Betamax, como en otras tecnologías, era establecer un estándar que fuera seguido por el resto de los fabricantes y así, además de vender sus reproductores, ver incrementados los ingresos con el licenciamiento de sus patentes para la fabricación de equipos y casetes compatibles con Betamax. Por eso, mientras Sony promocionaba su sistema entre otros fabricantes, conoció que JVC (perteneciente al grupo Matsushita) estaba trabajando en un sistema de vídeo doméstico que era prácticamente igual al suyo denominado Video Home System (VHS). Aquello hizo saltar todas las alarmas de Sony quién incluso llegó a apelar al gobierno nipón contra JVC por menoscabar los supuestos beneficios para la economía y la industria japonesa al existir dos estándares de vídeo.

Aquella rivalidad entre sistemas desencadenó la famosa “guerra de los formatos” y, aunque Betamax ofreciera 250 líneas por campo frente a 240 de VHS, nació con la limitación de 60m en la duración de sus cassettes mientras que VHS soportaba 120m. Evidentemente, esto penalizaba la publicación de largometrajes cinematográficos en una única cinta de vídeo o la grabación de programas que duraran más de una hora. Esta debilidad siempre pesó sobre Betamax aunque fuera resuelta por Sony con nuevas cintas y equipos, incluso antes de que se desarrollara el mercado de la publicación de títulos de cine y los videoclubs. Más allá de este hecho, es importante no olvidar que cuando una tecnología nace tutelada por una única empresa las opciones de asentarse como estándar son pocas, y más aún si se trata de un mercado masivo y altamente competitivo como era este. Por eso, la clave de aquel conflicto, fue que JVC siempre tuvo una política de licenciamiento más laxa que Sony redundando en que cualquier empresa podía fabricar o publicar un vídeo VHS, incluso aquellas que basaban su producto en un diseño de referencia de un tercero o que, simplemente, se limitaban a revender un producto OEM. Ejemplo de aquella flexibilidad es que el primer equipo VHS comercializado en EE.UU. no fue un JVC sino el RCA SelectaVision VBT 200, que estaba diseñado y fabricado originalmente por Panasonic (también del grupo Matsushita). Tampoco olvidemos el «pequeño» detalle de que hasta enero de 1984 el conflicto de Sony con dos de los mayores estudios de Hollywood permaneció abierto. También recordar que este clima de tensión de Sony con la industria audiovisual solo se acabaría cuando los japoneses se hicieron en 1988 con el control de Columbia Records y, al año siguiente, con Columbia Pictures… y ya era demasiado tarde para Betamax.

Hacia el final de la década de los ‘80 quedaba claro que la posición de mercado de VHS era superior a la de Betamax y por esta razón Sony abandonó su sistema dando por perdida la guerra, pero manteniendo el liderazgo en el sector de las videocámaras basadas en el sistema Video8 que era, en gran parte, una evolución de Betamax. Por otro lado, durante la citada década, Sony consolidó su hegemonía en el ámbito profesional o broadcast con sus cámaras de vídeo y el sistema Betacam. En este sistema, en lugar trabajar con una señal de vídeo compuesto como se hacía en U-Matic, Betamax o VHS, se grababa una pista con la señal de luminancia y en otra distinta la crominancia. Además, Betacam era un sistema que, aunque sacrificaba tiempo de grabación al incrementar la velocidad de paso de la cinta, ofrecía 300 líneas por campo llegando incluso a alcanzar las 340 líneas con Betacam SP en 1986.

Philips Video 2000
Aunque sea testimonialmente, acabo recordando que en 1979 Philips intentó reconducir su mala experiencia de los sistemas VCR y hacer valer su veteranía en el hogar presentando junto a Grundig el sistema Video 2000. La principal novedad de estos equipos era el uso de unos cassettes de doble cara. A pesar de alguna mejora más frente a VHS y Betamax, el sistema Video 2000 nació tarde y (una vez más) enfocado en el mercado europeo… y no olvidemos que Europa es un mercado formado por distintos países con economías y niveles de riqueza dispares, y cada uno con sus regulaciones y sus tiempos. Es decir, estamos fragmentados y apenas tenemos escala para poder apostar por un estándar, con la excepción del lejano sistema de telefonía móvil GSM o 2G. Además, carecemos de una industria audiovisual -como la americana- para poder empujar hacia una dirección y ya, para colmo, en los años ochenta, se había empezado a desmontar la industria de electrónica de consumo y solo Philips resistía. Por estas razones Video 2000 desapareció en 1988 sin dejar rastro.

Es curioso comprobar como el sistema VHS soportó el paso de tiempo y solo fue destronado por el DVD al final de la década de los ’90. Con VHS crecimos, compusimos nuestras preferencias cinematográficas y lo más importante, almacenamos grandes recuerdos.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Grabación magnética de vídeo

junio 20, 2021 on 5:19 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Para conocer los orígenes de la tecnología para la grabación magnética de imágenes hay que remontarse a la época dorada de la televisión, allá por los años 50 del siglo pasado. Tras sus primeros pasos y, en especial, en países con varias franjas horarias como EE.UU., se hizo evidente que el dinamismo de este medio en su forma de presentar las noticias, la emisión en diferido, la publicidad y, en definitiva, asegurar la continuidad entre espacios, no estaba acompasado con la filmación en Kinescopio y su logística.

Fue en aquellos años cuando los ingenieros pensaron en adaptar los conceptos de la grabación magnética del audio al mundo de la imagen, a pesar de la disparidad entre ambos medios. Esta diferencia tiene que ver con el ancho de banda de cada señal o la anchura espectral entre la frecuencia más baja y la más alta que, el caso del audio es de 20KHz frente a los 4MHz del vídeo. Una señal con semejante ancho de banda presenta grandes dificultades cuando se intenta registrar en un medio magnético por la propia naturaleza ferromagnética, el tamaño del entrehierro del cabezal de grabación y la velocidad a la que este se tiene que desplazar sobre la cinta.

Algunas empresas como Bing Crosby Enterprises y RCA (Radio Corporation of America) presentaron soluciones que intentaban sortear los citados retos aumentando la velocidad a la circulaba la cinta a su paso por el cabezal que, en el caso de RCA, alcanzaba las 300 pulgadas por segundo (7,62m/s). Evidentemente, tal velocidad obligaba a trabajar con aparatosas bobinas de cinta magnética de un diámetro cercano a los 50cm y con apenas capacidad para registrar 15 minutos de imágenes. Aquellos equipos, al trabajar a muy alta velocidad y disponer de delicados cabezales tendían a fallar mecánicamente, eran costosos de mantener y no se alcanzaba la calidad deseada. Mientras que las citadas empresas se esforzaban en hacer demostraciones públicas de sus avances, Ampex trabajaba en secreto en un grabador de vídeo en donde optaron por no partir de la base de lo ya conocido en audio y así esquivar estas dificultades. Empezaron tomando la señal de vídeo y con ella modularon en FM una portadora cuyos extremos se situaban entre 4,5MHz y 6MHz, reduciendo así el ancho de banda a 1,5MHz. A continuación, esta señal era entregada síncronamente a cuatro cabezales ubicadas en un tambor que rotaba transversalmente a 240rps sobre una cinta magnética de 2” de ancho y que avanzaba a una velocidad de tan solo 15 pulgadas por segundo. El éxito fue rotundo y en 1956, tras una efectista demostración ante ejecutivos de la CBS, sus máquinas VR-1000 y las cintas magnéticas Quadruplex de 90 minutos de duración se convertirán en un estándar para la industria de la televisión.

Grabación helicoidal
Durante los ’60 Ampex estuvo presente en todos los sectores donde la grabación magnética de voz, vídeo y datos fuese esencial. Esta diversificación los llevó en 1964 a desarrollar propuestas tan avanzadas como Videofile, que era un sistema de gestión documental basado en imágenes de vídeo y empleado, por ejemplo, en Scotland Yard para el archivo de huellas dactilares. También, siguiendo la evolución de la tecnología electrónica, empezaron a reducir el tamaño de sus equipos para ir abriéndose a otra áreas y sectores más allá del estudio de producción de televisión. Así, en 1965, cuando lazaron el equipo VR-7000 se aproximaron al mundo de la seguridad electrónica y el CCTV. Aquella disminución de tamaño repercutía en el precio y, aunque aún no era razonable para una familia, se empezaba a pensar en el Home Video. Quien sí se benefició claramente de esta disminución de tamaño fue, una vez más, el sector de periodístico y la TV. Equipos como el VR-3000, junto a la videocámara Ampex BC-100, empezaron a ser usados en la retrasmisión de eventos como los Juegos Olímpicos de México de 1968.

El denominador común de los equipos lanzados durante estos años fue la técnica de grabación helicoidal que dejó obsoleta a la transversal. En esta nueva técnica el tambor también rotaba, pero esta vez era rodeado oblicuamente por la cinta magnética. Es decir, el video quedaba registrado en la cinta como una sucesión de segmentos dispuestos diagonalmente. Esta técnica permitía hacer pausas de un fotograma y, sobre todo, economizaba la cinta magnética al reducir su anchura de 2” hasta 1” e, incluso, ½ pulgada. Aunque desde el inicio de los años 50 Ampex y RCA hicieron aproximaciones teóricas al sistema helicoidal, fue el equipo dirigido por Norikazu Sawazaki de Toshiba quien presentó en 1959 el primer prototipo de un videograbador con este nuevo sistema.

El primer equipo comercial basado en la técnica helicoidal fue el fugaz VR-8000 de Ampex, en 1961. De esta máquina solo se fabricaron cuatro unidades y fue seguido por el VR-1100, ambos con cinta magnética de 2” de anchura. En 1964 Philips presentó el EL-3400 que empleaba cintas de 1” y, al año siguiente, Sony lanzo el mítico CV-2000 cuyo precio se situaba entre los 1000 y 1500 dólares. El CV-2000, además de reducir la achura de la cinta a solo ½”, fue una revolución que puso a Sony en el mapa de la grabación de vídeo acercando ésta al ámbito doméstico (CV, Consumer Video). Esta accesibilidad hizo posible que, por ejemplo, algunos grupos activistas dieran sus primeros pasos en el llamado periodismo de guerrilla y, en la búsqueda de nuevas formas de expresión a través de la tecnología, con esta serie de equipos de Sony dio comienzo el videoarte de la mano de artistas como Nam June Paik (1932-2006).

Si aplicamos los estándares de hoy diríamos que el Sony CV-2000 era un equipo de modestas prestaciones que grababa en blanco y negro con tan solo 200 líneas horizontales por campo. Recordemos que en una señal de televisión clásica un fotograma es llamado cuadro y este se forma en el tubo de imagen por la representación consecutiva de dos campos: uno con las líneas impares y en el otro las pares. Por eso decimos que la señal de televisión NTSC es de 525 líneas por cuadro y la PAL de 625. Aclarado este concepto volvemos al CV-2000 comentado que con este equipo se presentaron algunos problemas en el intercambio y reproducción de cintas grabadas en sistemas del mismo modelo y, aunque a veces se menciona como un equipo portátil, no estaba alimentado por baterías y pesaba 20Kg -cámara aparte- por lo que es más correcto referirse a él como un equipo transportable. Tras la serie CV se sucedieron otras más elaboradas y ligeras como la AV donde ya se puede hablar de equipo portátil, baterías y cuyos últimos modelos grababan en color. Mientras esto sucedía, Sony acumulaba conocimiento en el diseño de videocámaras y magnetoscopios e impulsaba, junto a otros fabricantes, un estándar en la técnica de grabación para facilitar la interoperabilidad entre ellos. Aquel empeño desembocó en un sistema que, en lugar de estar basado en bobinas abiertas, utilizaba cassettes en cuyo interior había unos carretes de una cinta de ¾ de pulgada dando a la grabación de vídeo un cariz más automático y robusto. Este fue el origen de U-Matic (U por como la cinta magnética rodea al tambor y Matic de automatic). En 1971 Sony sería el primer fabricante que presentó un producto: el VO-1600, un equipo con el que se podía grabar y reproducir vídeo y el VP-1000, que solo reproducía. Las elevadas prestaciones y el coste de aquellos equipos los dejaban fuera de una economía doméstica pero los acercaba a todos aquellos sectores profesionales donde era útil la grabación de imágenes como la industria, educación y, por supuesto, el periodismo donde Sony empezó a ser tenido en cuenta y, con los años, desplazó a Ampex e impuso un nuevo estándar.

ColecciónKodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Polaroid, la fotografía instantanea y Kodak (y 3)

febrero 28, 2020 on 9:58 am | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | A pesar de la cotidianeidad de su uso, las etapas de las que consta el proceso fotográfico tradicional han sido poco conocidos por el gran público. Incluso, dominar la física y controlar las reacciones químicas que hacían posible una foto de calidad, no estuvieron al alcance de la industria hasta bien entrado el Siglo XX. Por eso se suele decir que la perfección se empezó a acariciar a finales de los años 30 con la película Kodachrome de Kodak.

Si pudiésemos analizar detalladamente una película comprobaríamos que, en su escaso grosor, se identifican diferentes capas cada una de ellas con un desempeño concreto. Resumidamente, la primera capa, la que está en contacto con el exterior, protege a la película de ralladuras o roces. A continuación identificamos tres capas sensibles a los colores básicos: la primera, al color azul y su copulante el amarillo, que es el color complementario que se representará en esta capa; sensibilidad al verde y su copulante magenta; sensibilidad al rojo y copulante cian. La penúltima evita el efecto halo, absorbiendo la luz que pueda “rebotar” en la capa de soporte y así volver a quedar registrada en las capas anteriores y, por último, una capa plástica que sirve de soporte a las anteriores. Para el registro de la luz se recurre a las propiedades físicas de la plata y sus compuestos, los haluros, y las reacciones de estos cuando interactúan con un fotón de luz. Tras la toma fotográfica debíamos entregar el carrete a un laboratorio para su posterior tratamiento químico que consistía, en primer lugar, en bañar la película fotográfica para revelar los puntos donde se ha registrado luz. Tras esta etapa inicial se sumerge la película en otro líquido con el que se fija la imagen revelada. El siguiente paso es lavar la película para que no queden rastros de los elementos fotosensibles que no han registrado luz. Llegados a este punto obtendremos una imagen en la película que, al observarla al trasluz, muestra una figura negativa e invertida: el negativo fotográfico. Ahora es el momento de trabajar en la reproducción de la imagen en un papel a diferentes tamaños. En este paso una ampliadora proyecta sobre sobre un papel fotográfico -y través del negativo- un haz de luz con los colores cían, magenta y amarillo. Este papel fotográfico también está formado por capas fotosensibles a los colores básicos antes citados y, de una manera similar a la película, la imagen queda registrada en él, tras lo cual es necesario revelar, fijar y lavar. Al finalizar estas etapas tenemos una fotografía impresa. Es importante recordar que, gracias al negativo, podremos hacer tantas fotos en papel como queramos.

Con el repaso anterior solo pretendo poner de manifiesto la complejidad y coste económico del proceso, su lentitud y poca fiabilidad y, sobre todo, la perdida de privacidad a la que se expone un usuario al depender de otras personas en el proceso de revelado fotográfico. Además, no quiero ni pensar en el impacto medioambiental producido en la fabricación y uso de los compuestos químicos. Dejando a un lado estas reflexiones, en 1947, la pequeña Jennifer Land, hija de Edwin Herbert Land (1909-1991) hacia una pregunta más sencilla donde cuestionaba la necesidad de esperar varios días hasta poder disponer de una foto en papel. Aquella pregunta tan inocente llevó a su padre –inventor años atrás del filtro polarizador- a replantearse todo el proceso y desarrollar una técnica lo suficientemente sencilla y compacta para que de una cámara fotográfica saliese, al instante, una fotografía en papel. Aquel sería uno de los hitos técnicos más importantes del Siglo XX y la razón por la que Polaroid se convirtió en una firma mundialmente conocida.

El concepto sobre el que se apoyaba la invención de Erwin Land era la transferencia química hacia una capa de papel de los colores que previamente habían quedado registrados en las capas sensibles a la luz. Esto, que parece fácil, requería desarrollar los agentes químicos involucrados y una forma de aplicarlos de manera controlada. Con esta idea en la cabeza Polaroid desarrolló su primera cámara de fotos, el modelo Land 95. Aunque era aparatosa y su manejo requería un poco de pericia, aquella cámara fue un éxito rotundo. Este primer modelo se cargaba con el conocido Picture Roll que constaba de dos carretes con los que se podían tomar ocho fotos. El primero de ellos era la película donde se registraba el negativo de la imagen y el otro de papel fotográfico. Al realizar la foto, el usuario estiraba del sándwich formado entre película y papel mientras un líquido reactivo se desplegaba entre ambos a la vez que se ejercía presión mecánica. Tras unos segundos de reacción química podíamos acceder a la foto de papel a través de una puertecilla posterior. Es importante recordar que este tiempo de reacción tenía que ser controlarlo porque influía en el contraste de la imagen recién tomada. A continuación, al extraer la foto, era necesario limpiar esta con un cepillo incluido en el Picture Roll eliminando restos de reactivos químicos y deteniendo cualquier efecto sobre la fotografía. Por último era recomendable alisar la foto para eliminar su abarquillamiento.

Durante la década de los sesenta, con el lanzamiento en 1963 de la serie Land 100, el concepto de foto instantánea se asentó. Esta máquina incluía mejoras en su óptica y simplificaba el proceso de carga y manipulación de la película fotográfica gracias al empleo de un cartucho llamado Pack Film. Este incluía ocho papeles fotográficos junto a sus respectivas capas sensibles y, entre ambos, los reactivos químicos. Tras cada disparo, para acceder a la foto, también era necesario estirar para extraer, llevar un control de los tiempos y separar manualmente el papel fotográfico de las capas sensibles. Aunque siga pareciendo un proceso engorroso, con la Land 100 se avanzó en la sencillez y rapidez lo que llamó la atención de numerosos profesionales de la fotografía que empezaron a usarla, antes de tomar una fotografía tradicional, como foto rápida para probar las condiciones de iluminación o encuadre. Incluso, el antes citado proceso de transferencia de imagen, empezó a ser aprovechado con fines artísticos porque era posible interferir en él y obtener unos resultados únicos, a veces de gran belleza y originalidad. Es preciso recordar que en esta serie de máquinas Paloraid introdujo la funcionalidad de obturador electrónico.

En los años sesenta Polaroid no era un gran rival para Kodak, incluso esta compañía era uno de sus proveedores de químicos y películas. En aquel momento la compra de una cámara Polaroid seguía siendo una opción minoritaria y fácil de desactivar comercialmente a menos que fueras un usuario muy selecto, artista gráfico, fotógrafo profesional u oficina de pasaportes en busca de inmediatez. Este statu quo cambio en 1972 con el lanzamiento de la Land SX-70. Aquella cámara fue fruto de años de desarrollo y con ella se simplificaba notablemente el proceso de revelado al instante. Tras encuadrar y pulsar el disparador, el usuario disponía de una foto donde, tras un minuto, comezaba a visualizar el resultado. Los Pack Films de esta cámara también contenían 8 papeles fotográficos y una pequeña batería con la que se alimentaba la electrónica y mecánica responsable de la expulsión automática de la foto. A su vez, cada papel de estas ocho fotos, contenía las capas sensibles a la luz, junto con la superficie donde quedaba impresa la foto y unos depósitos de agentes químicos reactivos apenas apreciables a simple vista. En resumen, todo en uno. Cuando pulsábamos el disparador, la mecánica de la foto hacia el resto y expulsaba el papel con un rodillo que ejercía presión a la vez que liberaba los productos químicos.

El eco comercial fue inmenso. Incluso artistas como Andy Warhol (1928-1987) presumían de su Polaroid SX-70 y su capacidad para captar momentos únicos. Gracias a aquellas fotos instantáneas se pudieron recoger situaciones cotidianas en la vida de grandes personalidades de la cultura pop que, normalmente, solo se conocían a través de una calculada foto de estudio.

La SX-70 de Polaroid había logrado redefinir el histórico eslogan de Kodak “Usted aprieta el botón, nosotros hacemos el resto”. Era cuestión de tiempo de que los de Rochester se girasen hacia este sector y que Polaroid se sintiese acosada. Por razones obvias, la óptica, mecánica y química tras la técnica de transferencia empleada por Polaroid apenas guardaba secretos para Kodak por lo que no tardó en lanzar su familia Instant en 1976. Algunos dicen que aquel producto fue la copia más descarada de la historia pero es cierto que incluía algunas mejoras, especialmente en su óptica. Desde aquel momento ambas empresas, como púgiles embravecidos, estuvieron dándose golpes en los juzgados durante 9 largos años. Al final un juez dio la razón a Polaroid y sentenció que Kodak cometió una violación de 7 de las 12 patentes y la condenó a indemnizar a Polaroid con 925 millones de dólares y retirar del mercado las máquinas Instant vendidas.

Aquella contienda judicial no impidió que Polaroid siguiese sacando modelos. De hecho, en 1977, presentó el icónico modelo 1000 con el que ponía la fotografía instantánea en manos de cualquiera. Esta cámara estaba construida en plástico y no tenía ninguna mecánica exterior salvo la interior que mueve y expulsa la fotografía. Evidentemente el coste de fabricación y su precio era más barato y accesible. Y qué decir de su aspecto y de los colores del arco iris que durante mucho tiempo han sido el símbolo de Polaroid… A la 1000 le siguieron otros modelos de aspecto parecido pero incorporando autofocus o flash.

En los ochenta Polaroid siguió manteniendo un negocio respetable con sus cámaras de fotografía instantánea pero afloraron importantes problemas financieros y organizacionales desde el fracaso de Polavision. Este sistema también fue presentado en 1977 y con él se pretendía trasladar el principio de instantaneidad al mundo de la filmación portátil. Polavision se posicionó como alternativa a la grabación Super 8 y supuso un gran esfuerzo de desarrollo técnico que no estaba alineado con la realidad comercial del momento ni marcaba un horizonte acertado en la evolución de la compañía. Además de los problemas técnicos a los que los tuvieron que enfrentarse sus usuarios, los tomavistas Polavision y su técnica de trasferencia, requerían una elevada iluminación exterior y carecían de grabación de sonido. Tampoco ayudaba nacer en un momento donde los sistemas de vídeo como Betamax o VHS ganaban en popularidad. Aquella crisis provocó la marcha de la compañía de Edwin H. Land en 1980 y se agravó con el importante agujero de deuda que afloró en el año 1988.

Como vemos las capacidades con las que Polaroid enfrentaba la nueva década eran limitadas. En otros textos he contado como los años ´90 fueron un periodo de transición donde muchas compañías desarrollaron el concepto digital y tomaron posiciones. Incluso Kodak aprovechó estos años para diversificar su negocio tradicional con soluciones como Photo CD, el tratamiento fotográfico digital o presentando algunas cámaras realmente revolucionarias. No así Polaroid que se declaró en bancarrota en el año 2001. A partir de ahí la historia es muy triste porque asistimos a la posterior declaración de quiebra en 2008 y el desmembramiento de la compañía incluyendo la colección de fotografías instantáneas que Edwin Land atesoró durante décadas gracias a la relación que mantuvo con los artistas que usaban sus cámaras. De aquella legendaria Polaroid apenas queda algo de valor salvo su marca. Ésta se ha venido licenciando como reclamo comercial por firmas desconocidas para vender productos tan diversos como televisores LCD, reproductores DVD, marcos digitales, gafas de sol o intentar relanzar la fabricación de Pack Films.

Colección | Kodak, química y vídeo (1)Fotografía digital y Kodak (2) | Grabación magnética de vídeo | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Fotografía digital y Kodak (2)

febrero 13, 2020 on 6:39 pm | In colección, hist. fotografía, vídeo y tv | 1 Comment

Adolfo García Yagüe | En 1985, tras el lanzamiento de la Sony Handycam, aparecen las primeras cámaras fotográficas con CCD. Son años donde compañías japonesas como Canon, Nikon, Casio y la citada Sony empiezan a liderar un mercado que, a diferencia con lo que sucede con el vídeo, no termina de ser masivo. Esta lentitud en la adopción obedece a su elevado precio, aparatosidad y pobre calidad de imagen en comparación a una fotografía convencional y, sobre todo, porque los usuarios seguimos queriendo tener fotos impresas. Ésta “querencia” al papel contrastaba con la necesidad de contar con un reproductor de Video Floppy Disk -o la propia cámara fotos electrónica- conectada a un televisor para poder presumir de vacaciones.

Es a principios de los ’90 del siglo pasado, coincidiendo con aquella lenta adopción de la fotografía digital, cuando aparece Kodak Photo CD, un servicio con el que Kodak pretendía seguir manteniendo las ventas de sus tradicionales carretes y ofrecer al usuario un CD con las fotos digitalizadas para que estas fuesen visualizadas en una televisión conectada a un reproductor Photo CD de Kodak. Eso sí, en la codificación digital de las fotos y su compresión se empleaba un algoritmo cuyo funcionamiento nunca fue divulgado por Kodak. Este modelo comercial, con el que Kodak pretendía mantener cautivos a sus clientes, fue efímero ante la bajada de precios de los escáneres, los CDROM grabables y empleo de la codificación y compresión JPEG.

En 1992, con la aparición de JPEG (Joint Photographic Experts Group), se disponía -por fin- de un estándar público que permitía bajar el tamaño de una fotografía. Aunque ésta compresión sacrificase detalles de una imagen y era de menor calidad que el estándar TIFF (Tagged Image File Format), desarrollado en 1986 por Aldus Corporation, era una alternativa de uso libre que terminó siendo adoptada por todo el mercado. Esta disminución del tamaño del fichero mediante JPEG o TIFF tenía dos aplicaciones claras que un usuario podía percibir. Por un lado era posible recurrir a sistemas de almacenamiento en la propia cámara con memorias de estado sólido, prescindiendo así de costosos sistemas mecánicos como el Video Floppy Disk. Por otra parte, aunque un poco lento, era posible hacer una transferencia de fotos entre la cámara y un ordenador a través de una conexión serie RS-232 abriendo la puerta al uso de herramientas software de edición fotográfica como Adobe Photoshop.

En esta lenta evolución de la fotografía digital era necesario contar con un visor electrónico que reforzase la inmediatez de esta tecnología. Para atender esta necesidad Casio presentó en 1995 la QV-10, convirtiéndose en la primera cámara fotográfica que disponía de una pequeña pantalla de cristal líquido (LCD) con la que era posible tomar una instantánea de lo que realmente se estaba visualizando en el LCD o revisar las fotos ya hechas. Como se demostró, este visor resultaba también de mucha utilidad al informar a través de él de detalles técnicos de la foto o de la configuración de la propia cámara.

Si los cambios anteriores fueron seguidos de manera unificada por todos fabricantes, con las memorias y sistemas de almacenamiento hubo menos consenso. A esta conclusión es fácil llegar tras echar un vistazo a aquellos años. Por un lado vemos como en 1995 Ricoh se adelantaba presentando una cámara fotográfica con capacidad para grabar video y tarjeta PCMCIA de memoria Flash de Intel de 4Mb y, en el polo opuesto, comprobamos como en 1998 las máquinas Mavica de Sony basaban el almacenamiento de sus fotos en un diskette de 3” ½ de 1,4Mb. Y ya, en el colmo de querer imponer sus estándares, Sony sorprendió a todos presentando en octubre de 1998 la tarjeta Memory Stick, cuando la batalla por el futuro del almacenamiento ya se dirimía entre el formato CompactFlash (SanDisk) y SmartMedia (Toshiba).

Aquella apuesta por discos flexibles que Sony hacía en la serie Mavica solo se podía explicar si se pensaba en la necesidad de comunicar de una forma rápida la cámara de fotos con un ordenador y no depender así de la lentitud del RS-232 ya que, este disquete, al poder ser formateado con una estructura de archivos compatible con MS-DOS, podía ser leído por cualquier ordenador personal. Aquel uso de los diskettes evidenciaba que era necesario mejorar la comunicación entre ordenadores y dispositivos multimedia, entre los que se encuentran las cámaras de fotos y los incipientes reproductores MP3, y es la razón por la que aparecieron dos interfaces de conexión que venían a relevar al viejo RS-232. FireWire, el primero de ellos, fue presentado por Apple en 1995 para transferir archivos a una velocidad de hasta 400Mbps e inmediatamente fue adoptado por los fabricantes de cámaras de vídeo MiniDV y normalizado como IEEE 1394. Aunque fue seguido por muchas compañías, sus patentes y su licenciamiento eran caros. Es por eso que al año siguiente, en 1996, se desarrolló el interface USB (Universal Serial Bus) por un consorcio de compañías entre las que destacaban Intel, Compaq, Microsoft e IBM. Como vemos, poco a poco se iba dando forma a lo que hoy es básico en cualquier cámara digital.

Eran años en los que Kodak era protagonista de estos cambios con sus cámaras digitales pero sin desatender su negocio tradicional. De hecho, el 14 febrero de 1997, el precio de sus acciones alcanzó su máximo histórico. ¿Con semejantes datos, qué Consejo de Administración es capaz de intuir lo que sucedería en los años siguientes? No obstante la situación era engañosa y lanzamientos de cámaras como la DC 260 (disponía de USB y memoria CompactFlash) y los ranking de ventas de cámaras digitales en EE.UU. -que le situaban entre los primeros puestos- eran un espejismo tras él que se escondía una organización de 86.000 personas de las cuales, un porcentaje muy alto, se dedicaba a la industria química de la fabricación y procesado de carretes. Es decir, gran parte de su tamaño, instalaciones y equipo directivo dependía de un ecosistema -la foto tradicional- y ante cualquier cambio en ese mercado sería imposible sustentar a la compañía. Así pasó. Por un lado el uso de la fotografía tradicional se empezó a resentir unido a la presión competitiva de compañías como FujiFlim. Por otra lado, en la fotografía digital era difícil innovar y diferenciarte sin ser Sony, Nikon o Canon.

En estos casos no es fácil tomar decisiones acertadas pero, quizás, en los ’90, Kodak tendría que haber tomado la iniciativa de desinversión ordenada en fotografía tradicional, y décadas antes poner en marcha una nueva Kodak -con otro equipo gestor- que no estuviese tan influenciado por el legado de éxitos pasados y ajeno al conflicto de intereses con el negocio histórico. Sólo así, con esta separación organizativa, se hubiese podido valorar y desarrollar adecuadamente la introducción en el mundo de la televisión y del vídeo en los años sesenta del siglo anterior; o dar continuidad a una invención como la cámara fotográfica con CCD en 1975; acertar en los ochenta en la correcta introducción en el mercado de las videocámaras o ya, en el principio de la década de los ’90, con Photo CD, las nuevas cámaras o la impresión digital. Una vez más a Kodak le faltó dar continuidad a una buena idea inicial, como en su entrada en Internet al comienzo del Siglo XXI con la compra de la plataforma Ofoto. O el error de haber litigado con Apple, Samsung, HTC o RIM (Blackberry) en el 2010 por la propiedad intelectual de la representación de imágenes en un teléfono móvil, cuando hubiese sido más acertado aproximarse amistosamente a estos y otros fabricantes de telefonía para introducir su conocimiento en fotografía. Fijaros que en cada década cometieron un error con un impacto trascendental… por todo ello Kodak acabó declarándose en bancarrota en enero del 2012.

Colección | Kodak, química y vídeo (1) | Polaroid, la fotografía instantanea y Kodak (y 3) | Grabación magnética de vídeo | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

Kodak, química y vídeo (1)

enero 30, 2020 on 5:58 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Hay veces que toda una industria y los principios que la sustentan cambian y, en ese momento, quien era líder de un sector languidece en favor de compañías más humildes o desconocidas. Esos cambios -que rara vez son súbitos- son fáciles de analizar desde la perspectiva que da el tiempo para encontrar una explicación que ponga algo de cordura a lo sucedido. No obstante, cuando el cambio se está produciendo, los Consejos de Administración y sus analistas más sabios no suelen ponerse de acuerdo en lo que pasa y rara vez, la compañía hegemónica afectada, es capaz de valorar el riesgo al que se enfrenta y así reaccionar a tiempo. Esto es lo que pasó con la industria fotográfica y cinematográfica basada en procesos químicos y Kodak.

En 1888 George Eastman (1854-1932) patentaba un sistema que revolucionaría la fotografía y poco después puso en marcha una empresa para comercializarlo: la Eastman Kodak Company. Hasta aquel invento el arte de fotografiar resultaba complejo y lento al requerir la manipulación de delicadas placas de cristal impregnadas en productos químicos que registraban una imagen. El invento de Eastman se basaba en una cinta de papel ya tratada químicamente, enrollada en un carrete, con la que era posible sacar hasta 100 fotos. Este carrete se vendía junto con la cámara de fotos y, al concluir el trabajo fotográfico, se entregaba la cámara a Kodak -con el carrete en su interior- para que fuese revelado en papel. Con el fin de simplificar y abaratar este proceso, en 1910 se estableció como estándar un carrete extraíble de película fotográfica inventado por el alemán Oskar Barnack (1879-1936), que a su vez derivaba de una película de celuloide de 35mm de anchura empleada en el Quinetoscopio de William Dickson (1860-1935) y Thomas Edison (1847-1931). Aquel carrete extraíble permitió desligar película y cámara facilitando así el desarrollo de otros fabricantes de máquinas fotográficas, de esta época son especialmente relevantes las cámaras de la alemana Leica (1913) o la japonesa Nippon Kōgaku Kōgyō Kabushikigaisha (1917), posteriormente renombrada como Nikon.

Así mismo, el proceso de revelado se fue abriendo para que ciertos establecimientos autorizados por Kodak lo realizasen. A cambio estos laboratorios estaban obligados a emplear los productos químicos y carretes de 35mm de esta firma. Este compromiso con Kodak era una forma de frenar la entrada de Agfa (Alemania) o la japonesa Fuji Photo Film. Existía competencia pero Kodak podía presumir de una posición dominante en los mercados fotográfico, cinematográfico e incluso en el médico con las radiografías. En este sentido merece la pena recordar que no fue hasta 1955 cuando un tribunal de EE.UU. sentenció que Kodak debía hacer público el proceso aplicado al revelado de sus películas Kodachrome y no incluir –en un carrete vendido en EE.UU- el precio del revelado para que así el usuario tuviera otras opciones.

A pesar de los conflictos judiciales y del incremento de la competencia, Kodak y el resto de compañías se encontraban cómodas en su mercado y atesoraban un control absoluto de su ciencia básica. Aparecieron cámaras legendarias como las de la propia Kodak o las de las compañías antes citadas; la película de cine incorporó sonido; color gracias a Technicolor e incluso Polaroid inventó la fotografía instantánea y la película Kodachrome de Kodak era sinónimo de calidad absoluta. En grandes producciones se podía filmar en 70mm para ofrecer mayor calidad de imagen y, para trabajos de aficionados y profesionales de la información, se podía recurrir a formatos más portables y cómodos como 16mm, 8mm o el entrañable y familiar Super 8. Se puede decir que desde su invención, un siglo antes, el cine y la fotografía basada en procesos químicos y físicos alcanzaron la cúspide de la perfección.

En la década de los ’50 del siglo pasado la televisión no podía competir con la calidad de imagen ofrecida en una filmación en 35mm. Quizás fue la época cuando los grandes colosos de la imagen, entre ellos Kodak, llegaron a la conclusión que la ciencia de la captación de imágenes mediante un tubo de vacío llamado Iconoscopio ofrecía poca calidad y que aquello resultaba ajeno a su negocio principal y no merecía la pena ser tomado en consideración. Incluso, a pesar de que los primeros sistemas para el registro de imágenes de televisión, o Kinescopios, estaban basados en una película de 35mm y una cámara Kodak, cuando aparecieron las cintas magnéticas esta compañía volvió a infravalorar la electrónica y no supo entender su potencial.

Aunque ya se conocían los semiconductores o electrónica de estado sólido, la captación de imágenes dependía de un tubo de vació llamado Iconoscopio inventado en RCA (Radio Coporation of America) en 1931 por Vladimir Zworykin (1888-1982) y, posteriormente, el Orticón y el Vidicón, desarrollado también en RCA en 1950 por Paul Weimer, Stanley Forgue y Robert Goodrich, o sus mejoras como el Plumbicón (Philips), Saticón (Thomson) o Trinicón (Sony). De igual forma, para la representación de imágenes en una pantalla electrónica, se recurría a pesados tubos catódicos de cristal. Y por último, para la grabación del vídeo, se contaba con magnetoscopios de bobina de cinta magnética. Como podemos comprobar el paisaje tecnológico cambiaba radicalmente y, para una empresa que llegase desde la fabricación y venta de productos químicos y carretes fotográficos, aquello era todo un desafío por su complejidad. Aun así, la mayoría de las compañías que operaban en el mercado tradicional de la fotografía gozaban de mayor capitalización y tamaño y, si hubiesen querido, podrían haberse hecho un hueco a través de la absorción de empresas electrónicas.

En los años 50 y 60 del siglo asistimos al desarrollo de compañías que lograron hacerse un hueco en este nuevo mercado. Compañías como Sony y la también japonesa JVC (Japan Victor Company), en sus orígenes subsidiaria de la americana Victor Talking Machine, carecían del tamaño y reconocimiento de compañías occidentales como RCA o Philips pero, a pesar de esta inferioridad, se ganaron el reconocimiento con grandes productos para visualizar vídeo (televisores), captar (videocámaras) o grabarlo (magnetoscopios).

Al finalizar la década se precipitó la innovación en este sector con la invención en 1969 del sensor CCD (Charge-coupled device) por Willard Boyle (1924-2011) y George E. Smith (1930), de los Laboratorios Bell, y su comercialización al año siguiente por Fairchild. Con el CCD se abría la puerta al registro de una imagen a través de un dispositivo semiconductor, de menor consumo eléctrico, mucho más pequeño y resistente que un tubo vidicón. Por otra parte, Sony presentaría el mismo año el sistema profesional U-Matic y en 1975 el sistema Betamax para uso doméstico, ambos sistemas de grabación estaban basados en casetes de cinta magnética mucho más cómodos y menos aparatosas que las bobinas de cinta. Con cierta similitud en su aspecto, pero más flexible en su licenciamiento por otras compañías, en 1976 JVC lanzaría al mercado el sistema VHS (Video Home System).

En los años sucesivos se mejoró y disminuyó el tamaño de grabadores y cámaras Beta y VHS. Sin embargo, la adopción del CCD en las cámaras fue lenta al no ofrecer la misma calidad de imagen que un tubo vidicón, quedando relegado a aplicaciones muy concretas como los primeros escáner, OCR (reconocimiento óptico de caracteres) e inspección industrial. Es por eso que sorprende conocer que Kodak fue el primer fabricante que construyó un prototipo de una cámara fotográfica basada en CCD. En efecto, en 1975, el joven Steven J. Sasson (1950) empleó un CCD de Fairchild de 100×100 pixel y un grabador de casetes para montar una cámara que registraba imágenes. Cada imagen tardaba 23 segundos en ser grabada y aquel hito pudo haber sido el comienzo de algo mayor, sin embargo, no despertó el suficiente interés de Kodak. En cambio Sony abrió una decidida línea de trabajo y presento en 1981 un prototipo llamado Mavica (Magnetic Video Camera), también basado en CCD, donde una cámara fotográfica entregaba una señal de vídeo que era grabada en un disquete de 2 pulgadas conocido como Mavipak y más tarde rebautizado como Video Floppy Disk.

A lo largo de los ’80 fueron apareciendo videocámaras que disminuían su tamaño a la vez que integraban en un mismo elemento la unidad de grabación con la de captura. De esta forma hablamos de cámaras autocontenidas o Camcorder que operaban sobre el hombro del usuario. Una vez más fue Sony con su legendaria Betamovie BMC-100P (1983) y JVC con la icónica GR-C1 (1984) -usada por Marty McFly en la película Regreso al Futuro– eran quién marcaban tendencia sobre el resto de competidores del mercado doméstico. Es importante destacar que ambas cámaras seguían basadas en un tubo de vacío similar al vidicón para la captación de la imagen.

Fue en el año 1984 cuando Kodak, en un intento de hacerse un hueco en el creciente mercado de las cámaras de vídeo y dar continuidad a sus éxitos en el mundo del Super 8, presentó la Kodak Vision Series 2000. Ésta cámara fue diseñada y fabricada en Japón por Matsushita y nos recuerda que, a pesar de los grandes productos que allí se hacen, hay veces que la estética y usabilidad difiere de los estándares occidentales. Este comentario tiene que ver con el extraño repositorio o cradle -con aspecto de reproductor de video- donde era necesario introducir la cámara para poder conectarla a una televisión y así ver el vídeo. Rarezas aparte, esta cámara presentaba el novedoso sistema de almacenamiento en videocasetes de 8mm y estaba basada en CCD. Al año siguiente todo cambiaría con el lanzamiento de la Sony Handycam Video 8 CCD-M8u. Su portabilidad la convirtió en la primera cámara de mano pero seguía necesitando un reproductor externo para visualizar el material grabado. Empleaba CCDs y los mismos casetes de 8mm antes citados a los que Sony denominó Video 8. A partir de este producto se produjo una evolución en las capacidades de las videocámaras, en especial la posibilidad de reproducir vídeo, el uso de CCDs de mayor resolución y la grabación en sistemas Hi8 y S-VHS. El gran salto en el mundo domestico llegaría en 1995 con el sistema MiniDV y la plena digitalización de la captación del vídeo, su procesado y grabación.

ColecciónFotografía digital y Kodak (2) | Polaroid, la fotografía instantanea y Kodak (y 3) | Grabación magnética de vídeo | Home Video | El Videodisco | Realidad Virtual (1). Regreso al Futuro | Realidad Virtual (2). Llegada al mercado

 

Presentando la colección

noviembre 12, 2017 on 8:02 pm | In colección, hist. fotografía, vídeo y tv, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Nunca veo el momento de empezar a contar esta historia: la historia de la colección de ordenadores y diverso material electrónico que amontono desde hace años. Llevo casi media vida buscando, adquiriendo y clasificando piezas con el ilusorio objetivo de montar un museo. Mientras llega ese día (si es que llega), ya es hora de pasar a la acción y compartir este pequeño tesoro, aunque sea virtualmente.

En esta recopilación de piezas he intentado alejarme de la acumulación de material -a veces irracional- en la solemos caer los frikis de la subespecie geek. En esa búsqueda y selección de material me he autoimpuesto un guion a través del cual sea más fácil contar historias, enlazando objetos y, sobre todo, explicando el impacto de cada uno de ellos.

El guión comienza en 1890. De aquel año es el objeto más antiguo que tengo en la colección. No se trata de una máquina, es una revista. Es un ejemplar de Scientific American en cuya portada se presenta al mundo la máquina que permitirá automatizar el undécimo censo de Estados Unidos. Aquella máquina, inventada por Herman Hollerith, sería el remoto antecesor de lo que hoy denominamos Big Data. Además, está máquina, a la que llamaremos tabuladora, sería el embrión de una gran compañía: IBM (International Business Machines).

Contemporáneas a aquellas primeras tabuladoras de principios del Siglo XX, poseo alguna calculadora mecánica. Como su nombre indica son máquinas para realizar cálculos básicos (suma y resta) y, en su momento, junto con los vehículos, representaban la cúspide la modernidad.

El anterior capítulo mecanicista da paso a publicaciones de principios de los años cuarenta que hablan de increíbles máquinas electrónicas capaces de emular un cerebro. Es en estos años donde se situarían los antecedentes de lo que vendría después: tubos de vacío, lenguajes de programación, transistores, sistemas operativos, memorias de ferrita, circuitos integrados, microprocesadores y, lo más importante, el nacimiento de una industria capaz de impulsar semejante innovación. Mi guion este periodo culmina hacia finales de los sesenta y principios de los ’70, cuando a toda esta tecnología acceden jóvenes idealistas decididos a cambiar el mundo con ella…

… Y vaya si cambiaron el mundo. Aquellos jóvenes idealistas apasionados por la tecnología hicieron posible que hoy tengamos un ordenador en casa, que exista Internet y que aún tengan sentido conceptos como libertad, código abierto, curiosidad técnica y comunidad. De esta época atesoro alguna de las piezas que más valoro, como un Altair 8800 o los cuadernos originales que publicó Bell Labs con el código fuente de la versión 6 de UNIX, elaborados John Lions, profesor australiano de la University of New South Wales, para que sus alumnos comprendieran el funcionamiento de un sistema operativo. Este periodo fue corto pero muy intenso y con un impacto que aún resuena en nuestros días.

La espontaneidad y pasión del periodo anterior desembocaría en dos formas de entender y emplear la informática. Por un lado, en la segunda mitad los ’70, negocios y profesionales empiezan a usar ordenadores como una poderosa herramienta que ayuda a incrementar su productividad. Por otra parte, en el comienzo de la nueva década, el ordenador llamará a la puerta de los hogares para ocupar un sitio destacado en la familia. A diferencia de hoy en día, en aquella época las máquinas de ambos mundos eran completamente diferentes. El Home Computer u ordenador doméstico solía ser una máquina humilde, de prestaciones limitadas pero tremendamente versátiles. En aquellas máquinas jugábamos y muchos de nosotros aprendimos a programar y allí se configuró nuestro futuro profesional. En cambio, los equipos profesionales o Personal Computer eran máquinas infinitamente más caras. Solo accesibles para profesionales acomodados y empresas deseosas de modernizarse.

Con el tiempo el mercado se fue homogenizando. El constante avance de la tecnología y su abaratamiento provocó que, a partir de la segunda mitad de los años ochenta, las fronteras entre ordenador doméstico y profesional fueran cada vez más difusas. El resultado es que a finales de los ’80 el mercado estaba unificado y no tenía sentido hablar de Home o Personal Computer.

El último capítulo de mi colección se lo he querido dedicar a las comunicaciones entre ordenadores. A mi entender, este salto evolutivo -conectar dos o más ordenadores entre si-, supuso algo parecido al instante que el ser humano empezó a hablar con sus semejantes. Hasta el momento estábamos solos, con nuestros pensamientos/ordenador. La llegada de las comunicaciones nos ha permitido llegar a otros rincones del planeta, acceder a todo tipo de información y, en definitiva, no sentirnos tan solos. De este momento me interesa el acceso remoto a sistemas a través de líneas telefónicas, las BBS, el nacimiento de las redes locales y la interconexión de estas para construir lo que hoy llamamos Internet.

Como dije al comienzo, mi intención es dar forma a una pequeña exposición virtual. Para ello, además de textos, me apoyaré en fotos de las piezas de la colección. Estás las iré subiendo a una galería en Ccäpitalia.

Colección



(c) 1999-2022 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress