El Aritmómetro

junio 1, 2022 on 7:25 pm | In colección, hist. informática, matemáticas | No Comments

Diccionario Enciclopédico Hispano-Americano (1887) | Del francés arithmomètre y del griego άριθμός, número y μέτρον, medida. La simplificación de los cálculos se ha considerado siempre asunto tan importante, que mereció, desde hace mucho tiempo, que los sabios matemáticos más notables dedicaran a este estudio su inteligencia y su actividad. Entre ellos citaremos a Neper, Pascal, Leibniz y Babbage.

Los instrumentos de cálculo inventados hasta ahora se pueden dividir en tres clases: aquellos que exigen el empleo de la inteligencia humana; 2ª las máquinas automáticas que suplen por completo a esta última, y las tablas donde se encuentran hechos los cálculos, o, por lo menos, preparados. Mr. Th. Olivier, en un folleto sobre la máquina de Roth, consignó que desde 1624, en que Gunther construyó la regla de cálculo, hasta 1840, se habían inventado 20 instrumentos de la primera especie y 17 de la segunda. En este artículo solo nos ocuparemos de estos últimos.

Las 17 máquinas autómatas citadas, se pueden clasificar en tres géneros distintos: 1º aparatos sumadores; 2º aparatos para ejecutar las cuatro operaciones fundamentales de la Aritmética, y 3º aparatos destinados a ejecutar cálculos superiores.

Primer género. Entre éstos citaremos la máquina de Pascal, cuya invención consumió parte de la vida de este matemático, y que, a pesar de la inteligencia de su autor, fue un aparato pesado, voluminoso, y, sobre todo, imperfecto; la de Lepine de difícil aplicación, y la de Roth, construida en 1843, y que resolvía por completo el problema.

Segundo género. Leibniz presentó el proyecto de una máquina de esta clase, que no llegó a construir por ser demasiado costosa. Lord Mahon inventó en 1776 dos máquinas de cálculo; una para sumas y restas; la otra para multiplicaciones y divisiones, cuyo mecanismo es desconocido. En 1822 M. Thomas de Colmar presentó a la Société d’encouragement una máquina de calcular, a la que dio el nombre de Aritmómetro, que, perfeccionada después, obtuvo un premio de esta Sociedad en 1851, y cuyo estudio va ser el objeto de este artículo.

Tercer género. Mr. Babbage proyectó en 1821 una máquina que daba los términos de una progresión por diferencia; después Mr. Scheutz otra para la formación de series, y más adelante se propusieron otras varias que juzgamos inútil citar.

Descripción del Aritmómetro. El aritmómetro se compone de una caja de 38 centímetros de longitud por 16 cm. de ancho y 7 cm. de alto, en el modelo pequeño, y de 55 cm. de largo, con el mismo ancho e igual altura en el tipo grande. Abierta la caja se encuentra una manivela N, terminada por un botón de marfil que se puede levantar y bajar; la citada manivela N no puede girar más que de izquierda a derecha, y sirve como motor al resto del mecanismo. A la izquierda de N hay una serie de ranuras paralelas, en donde deslizan botones A de cobre, y al lado de aquellas se escriben los números de cero a nueve.

La primera ranura de la derecha representa las unidades sencillas, la segunda las decenas, la tercera las centenas, y así sucesivamente. Se dice que se escribe un número, cuando se pone el botón A enfrente de la cifra que la representa. A la izquierda de este conjunto de ranuras hay otra más pequeña en donde se mueve el botón B; en su parte superior lleva escrito: Adición y Multiplicación, y en la inferior, Sustracción y División. Encima de este conjunto de partes, hay una larga y estrecha platina MM, susceptible de levantarse y de poderse correr de izquierda a derecha por medio del botón P. En la platina MM hay abiertos una serie de cuadros C, armado cada uno de ellos de un agujero que lleva las cifras de cero a nueve, y que se mueve por medio de un botón C. Debajo de estos, y sobre la misma platina, hay otros agujeros más pequeños, armados también con sus correspondientes cuadros y botones D, y, por último, a la derecha de la figura hay un botón O, destinado a poner el cero de los cuadros enfrente de los agujeros de la platina.

Mecanismo. Debajo de la platina general que cubre el aparato, hay un sistema de engranajes que constituyen su mecanismo, cuya teoría científica vamos a exponer en breves palabras. La máquina que forma el aritmómetro, se compone de cierto número de cilindros colocados paralelamente los unos a los otros, y movidos por el mismo árbol, de tal manera que cada vuelta de la manivela N, los cilindros hacen también una revolución.

Los cilindros están armados de resaltos en una parte de su circunferencia, la mitad generalmente, como veremos después, dispuestos de tal manera, que en unos puntos los cilindros están completamente lisos, en otros presentan una especie de diente, en otros dos, y así hasta nueve, número máximo de resaltos que tiene el sistema. Encima de cada cilindro hay un piñón, cuyo eje es paralelo al de éste, y que puede correr sobre él, de tal modo que es fácil colocarlo delante de la parte cilíndrica que se quiera. Estos piñones están unidos a los botones D, de tal suerte que cuando éstos se colocan enfrente de una de las cifras que llevan las ranuras, la pequeña rueda encuentra en el cilindro motor otros tantos resaltos o dientes y por tanto su eje, al moverse la máquina, da igual número de vueltas.

En el extremo del eje que conduce el piñón, hay otro fijo que hace girar a uno de los cuadros numerados que hay que hay debajo de los agujeros C de la platina, y hace que las cifras vayan apareciendo sucesivamente en el fondo de la abertura.

Supongamos, para fijar la atención, que el número de cilindros, cuadros, ranuras y piñones es seis; y admitamos además que todos los cuadros están a cero y que tenemos escrito en las ranuras de la máquina un número de seis cifras; por ejemplo: 745721. Es evidente que, al dar una vuelta a la manivela, el primer cuadro correrá tan solo una cifra, y el segundo dos, el tercero siete, el quinto cuatro y así los demás, con lo cual aparecerá en la fila superior de agujeros de la platina, el número 745721 que teníamos escrito en las ranuras de la máquina. Si ahora escribimos el número 133178, y damos de nuevo una vuelta a la manivela, se comprenderá fácilmente que en la platina aparecerá la suma de los números anteriores, o sea 878899. De esta manera se podría continuar hasta que la suma de las cifras de un cierto orden sea mayor que nueve, en cuyo caso hay que añadir una unidad a la suma siguiente, o lo que es lo mismo, correr un lugar el cuadro correspondiente. Para ejecutar este movimiento, al llegar uno de los cuadros a la cifra 9, arma un engalgue que va ligado al siguiente, y al terminar la operación de la suma, que se verifica en una semirevolución del eje, pues los resaltos o dientes solo ocupan una semicircunferencia, se aprovecha la motriz de la semirevolución restante, para soltar el engalgue y hacer avanzar un lugar el cuadro siguiente que sigue al que se considera. Tal es en pocas palabras la teoría del Aritmómetro, no entrando por falta de lugar, a describir los engranajes y piezas accesorias que facilitan estos movimientos.

Si la manivela N en lugar de girar de izquierda a derecha lo hiciera de derecha a izquierda, la operación anterior se transformaría en una resta; pero para evitar que la manivela N tenga estos dos movimientos, el aritmómetro lleva un botón B, que al deslizar en su ranura cambia, por medio de un sencillo conmutador, el sentido de la marcha.

Suma. Para sumar los números A, B y C se escribe primero la cantidad A en las ranuras de la máquina, se da una vuelta a la manivela N, y este número aparece en los agujeros C. Después se escribe en las ranuras A el número se escribe en las ranuras A el número B y se encuentra en la platina M la suma A+B sin más que hacer girar la pieza N. De una manera análoga se encontrará la cantidad A+B+C, y así sucesivamente si hubiera más sumandos. Hay que advertir que, para ejecutar esta operación, el botón B debe marcar: Adición y Multiplicación.

Resta. Para restar los números A y B se empieza por poner el botón B enfrente de la indicación: Sustracción y División. Se escribe el minuendo en los agujeros C de la platina, ya por medio de los botones C, ya previamente con las ranuras A; después se escribe en éstas el sustraendo B, se hace girar la manivela N y la resta aparece en las aberturas C de la platina M.

Multiplicación. Si se trata de multiplicar un número A por un dígito 5 por ejemplo, se escribe la cantidad dada en las ranuras A, y se da cinco vueltas la manivela N, y en los agujeros C de la platina M aparecerá el producto 5 A, y en las pequeños aberturas D el multiplicador 5. Si queremos multiplicar la cantidad S por el número polidígito 3457 por ejemplo, se procede de la siguiente manera: se multiplica primero S por 7, después se corre la platina M hasta que el segundo agujero D se encuentre enfrente de la primera ranura A, y se dan cinco vueltas a la manivela; se corre después otro lugar a la platina y se repite la operación con el cuatro y así sucesivamente. Es evidente que el numero final será el producto que se busca, puesto que es la suma, convenientemente colocada, de los productos parciales 7 S, 5 S, 4 S y 3 S.

División. Para hacer una división por medio del aritmómetro, se escribe el dividendo en las aberturas C y el divisor en las ranuras A, se toma la parte del dividendo que, dividida por divisor, da la primera cifra del cociente, y se corre la platina hasta que la ultima cifra de aquella coincida con la primera ranura A. Después se baja el botón B hasta que marque Sustracción y División, y se resta la parte del dividendo tantas veces como se pueda el divisor, cuyo numero aparecerá en la apertura correspondiente D y será la primera cifra del cociente. Hecho esto se corre un lugar hacia la izquierda la platina M, y se resta tantas veces como se pueda el nuevo dividiendo el divisor, y se encontrará en las aberturas D la segunda cifra del cociente. Por este procedimiento podremos encontrar todas las cifras de este número y el resto de la división.

Potencias. La cuestión queda reducida a multiplicar, por medio del aritmómetro, un numero por sí mismo para el cuadrado; este producto por el número primero por la tercera y así sucesivamente.

Raíz cuadrada. Para ejecutar esta operación basta seguir la regla general que indica la aritmética, haciendo por medio del aritmómetro las operaciones parciales.

Colección | Máquinas de Cálculo | Datos, censo y tabuladoras | Inicios de la Industria Informática

 

Realidad Virtual (2). Llegada al mercado

marzo 9, 2022 on 8:03 pm | In cibercultura, colección, hist. fotografía, vídeo y tv, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | Los ’90 prometían ser años de esplendor para la Realidad Virtual, sin embargo, sólo el mundo de los videojuegos logró arañar alguna referencia.

Algo común en los visores de aquella época es su baja resolución de imagen y la carencia de capacidad para el rastreo del usuario. Estos detalles evidencian que la tecnología de displays no estaba lo suficiente madura y que no se disponía de una técnica eficiente para trasladar al ordenador los movimientos y posición de la cabeza. Por otra parte, pocos de los ordenadores -o videoconsolas- de aquel momento contaban con capacidad suficiente para generar gráficos en tiempo real adaptados a cada perspectiva.

Industria de los Videojuegos
Como he comentado, la industria del videojuego fue la primera en introducir productos que intentaban aumentar la experiencia inmersiva del usuario, aunque, en honor a la verdad, aquellas primeras apuestas carecían de nivel para ser tomadas en serio.

Nintendo fue una de las empresas más activas en el terreno del visionado 3D y, aunque no se considere RV en el sentido estricto del término, en 1987 lanzó en Japón un visor para su consola Famicom. El Famicom 3D System contaba con unas gafas cuyas lentes eran de cristal líquido y empleaban la técnica Active Shutter. Como todos sabéis, al aplicar una tensión a un cristal líquido este cambia de polaridad óptica consiguiendo hacerlo opaco o transparente. Este cambio, que se hacía a alta velocidad, estaba sincronizado con la imagen proyectada en el televisor donde, secuencialmente, aparecían las dos imágenes con las que se formaba la ilusión estereoscópica. A diferencia de la videoconsola Nintendo Famicom, el fracaso comercial de Famicom 3D System fue mayúsculo y solo unos pocos títulos aprovecharon la citada capacidad.

El StuntMaster de VictorMaxx, que apareció en 1993, intentaba pasar por un sofisticado visor de realidad virtual para Super Nintendo y Sega Mega Drive (Sega Genesis en EE.UU.), pero en realidad era una pantalla LCD de 280 pixel horizontales por 86 pixel verticales colocada delante de los ojos del gamer para que éste tuviera una sensación inmersiva. Además, disponía de una especie de controlador -a modo de joystick- con el que -incómodamente- se podía interactuar con los movimientos del hombro.

A pesar de estos tropiezos, la industria del videojuego no tiró la toalla. Nintendo hizo una nueva aproximación al mercado con la extraña Virtual Boy. Lo primero, y más llamativo, es que era un visor con trípode para ser ubicado sobre una mesa. De esta forma se obligaba al usuario a inclinar la cabeza para poder ver en su interior con la consiguiente incomodidad y fatiga. Parece ser que con este diseño se pretendía evitar accidentes si alguien decidiese desplazarse con el visor puesto…

Otro cambio significativo fue que la Virtual Boy era un producto donde se aunaba consola más visor, es decir, no podías desligar el visor de la videoconsola y sus consiguientes juegos. Recordemos que la Virtual Boy se lanzó en 1995, año en el que se abrían paso una nueva generación de consolas como Sony PlayStation, Sega Saturn y Nintendo 64… La catástrofe estaba asegurada para una consola con pocos títulos, gráficos pobres y… monocromáticos… Sí, has leído bien, la Virtual Boy solo representaba imágenes en tonos rojos.

Como vimos anteriormente, la opción preferida para construir un visor era el cristal líquido (LCD) pero esta tecnología carecía suficiente resolución. Además, sucede que la visión óptima sobre un display LCD depende del ángulo de visión y esto se complica cuando se pretende abarcar todo el campo visual de un usuario de RV. Por último, la tecnología LCD necesita una fuente de luz intensa en la parte posterior de la pantalla lo que encarece y complica la electrónica, además de representar un importante gasto energético en el caso de funcionar con baterías, como era el caso de la Virtual Boy.

Estas razones hicieron que Nintendo recurriera una hilera vertical de 224 micro LED (Light Emission Display) rojos junto a un espejo que oscilaban para representar una imagen, y así dar la sensación de ser un display de 384 x 224 pixel por ojo. A pesar de este pseudo incremento de resolución y su capacidad estereoscópica, esta consola con visor RV fue otro sonado fracaso y apenas duró un año en el mercado.

Visores personales
Como sabéis en 1996 aparecieron los primeros reproductores DVD (Digital Versatile Disc) y, por las mismas fechas, aparecería la tecnología TFT LCD (Thin Film Transistor Liquid Crystal Display). Con esta variante del LCD se consigue, entre otras cosas, mayor resolución e incrementar el ángulo de visión y que la calidad de ésta no se vea afectada.

Con aquellos ingredientes y con un aspecto de un visor de RV Sony presentaría en 1997 el Glasstron PLM-A55E. La idea de este visor era que el usuario disfrutara en solitario de un DVD o de un juego mientras se aislaba por completo del entorno. Para ello, Glasstron ofrecía una resolución de 800 x 225 pixel y unos auriculares con los que sumergirse en la escena. Apenas captó interés, al igual que Philips, quién lo intentó con el tosco Scuba. Quién triunfo y marcó el camino del visionado personal fue Panasonic con su DVD-L10, pero ya era otra cosa.

Podríamos seguir enumerando iniciativas de los ’90 pero todas corrieron la misma suerte, incluso alguna volvió a recurrir a la técnica Active Shutter junto a controladores de vídeo especiales para hacer del PC un equipo 3D… Otras pretendían acercar la RV al mundo profesional de la simulación, pero todas eran efímeras.

Al final de la década de los años noventa la Realidad Virtual entró en un periodo de hibernación del que salía ocasionalmente como un reclamo de marketing donde se asociaba ésta con futuro y sofisticación. En cambio, experiencias comerciales exitosas pocas o ninguna. Tras los primeros años del nuevo milenio, y gracias al empuje tecnológico de los Smartphones, volvimos a ver signos de que algo podía cambiar… [continuará]

Colección | Realidad Virtual (1). Regreso al Futuro

Realidad Virtual (1). Regreso al Futuro

febrero 26, 2022 on 2:20 pm | In cibercultura, colección, hist. fotografía, vídeo y tv, hist. informática, hist. videoconsolas | No Comments

Adolfo García Yagüe | ¿Logrará el Metaverso convertir a la Realidad Virtual (RV o VR) en una tecnología de uso masivo? Mi pregunta, que tiene cierto tono escéptico, obedece a qué desde los años 80 del siglo pasado se nos alerta de su inminente adopción y gran impacto social. En efecto, ahora llega el Metaverso, que toma su flamante nombre de la novela Snow Crash (1992) de Neal Stephenson (1959), y ofrece ampliar el concepto «plataforma social» con el añadido de Realidad Virtual, síntesis 3D de mundos virtuales, tokens no fungibles (NFT), criptomonedas y otras «maravillas»…

Recordemos que la RV es de esas tecnologías sobre las que más se ha escrito y más beneficios ha prometido… y menos adopción ha cosechado. En un principio se pensaba que su lento despegue tenía que ver con aspectos técnicos como el realismo gráfico o la calidad de los visores. También se pensó que la falta de aplicaciones y de juegos VR frenaban su llegada masiva al público… en esta búsqueda de explicaciones se suele hablar de los efectos nocivos de esta tecnología en la salud como dolores de cabeza, mareos, picor en los ojos y causa de algún accidente al moverse en el plano físico.

Además, como se recoge en numerosas novelas y películas de ciencia ficción, la RV y el ciberespacio son tecnologías no exentas de conflictos personales y dilemas sociales. Tampoco olvidemos los argumentos que esgrime Jaron Lanier (1960), creador del término Realidad Virtual, recomendando el abandono urgente de las redes sociales y las relaciones virtuales. Quizás, estos pensamientos críticos se deban a que estas tecnologías nos desconectan de la realidad y favorecen el desarrollo de una fantasía, alejándonos de nuestros semejantes del mundo real y haciéndonos más influenciables y vulnerables al causar un desajuste emocional.

Regreso al futuro de la RV
El concepto de inmersión en otra realidad o el acceso a una experiencia no vivida es algo que a las personas siempre nos ha resultado atrayente y, como demuestra el visor estereoscópico de la colección, esta inquietud ya existía hace más de un siglo.

Esta, la estereoscopía, fue descubierta y explicada por Charles Wheatstone (1802-1875) en 1840. Gracias a nuestra visión estereoscopia percibimos la profundidad tridimensional del entorno que nos rodea a partir de las dos imágenes que recogen nuestros ojos. Básicamente, lo que hacían estos visores, era facilitar la visualización simultáneamente de dos fotografías que, previamente, habían sido tomadas con una cámara de fotos -también estereoscópica- constituida por dos cámaras oscuras con sus respectivos objetivos y película. Aquellos visores, y las correspondientes colecciones fotográficas estereoscópicas, permitieron a sus usuarios mantener recuerdos, conocer ciudades, monumentos y paisajes de todo el mundo.

Esta forma de acercar el mundo a un usuario siguió desarrollándose en el siglo XX y así aparecerían visores más sofisticados y miles de colecciones de fotografía para conocer cualquier lugar y evento internacional.

También, en esta búsqueda de realismo 3D, la fotografía y el cine lo han intentado a través de imágenes anaglíficas, inventadas en 1891 por Louis Ducos du Hauron (1837-1920), la proyección cinematográfica polarizada de Natural-Vision, Space-Vision, Stereovision, IMAX 3D, etc. Una vez más, ninguna de estas iniciativas ha trascendido de ser modas pasajeras y ningún sistema -incluida la reciente TV 3D– ha logrado afianzarse en el mercado.

Mientras esto sucedía, en 1962, Morton Heilig (1926-1997), quien era un cámara profesional de cine, construyó Sensorama empleando técnicas cinematográficas para recrear inversivamente un paseo en motocicleta a través de las calles de Brooklyn. A pesar de que Sensorama se recuerda como una anécdota técnica, es considerado el inicio de la RV pues ahí encontramos elementos como el visionado estereoscópico, la recreación sensorial de la velocidad mediante unos ventiladores, la vibración del asiento para simular el movimiento en moto e, incluso, la reproducción de algunos olores de la ciudad.

Coincidiendo con el fuerte desarrollo que se estaba produciendo en la tecnología electrónica y sus aplicaciones militares, durante la década de los ’60 y ’70 se empezó a experimentar con los HMD (Head-Mounted Display) o visores montados en los cascos de los pilotos de aeronaves militares. Realmente, este tipo de aplicación no es considerado RV pero ahí se abordan dos problemas cruciales: el visor y su tamaño, y como rastrear los movimientos de la cabeza y su inclinación. En este tipo de aplicaciones, para hacer un visor ligero, se empleaban pequeños tubos de rayos catódicos (CRT, Cathode Ray Tube) similares a los que se estilaban en el mundo de la televisión. Por otra parte, para deducir la posición de la cabeza del piloto, se usaban técnicas basadas en ultrasonidos o radiofrecuencia que se proyectaban desde diferentes ángulos. De esta forma era posible inferir la posición del casco al recibir varias de estas señales con diferentes intensidades.

Un paso más hacia la RV fueron los experimentos de Ivan Sutherland (1938) realizados durante la segunda mitad de los años 60. Sutherland, a partir de unos CRTs extraídos del casco de un piloto de helicóptero, construyó un visor y trabajó en dos tipos de rastreo: uno basado en la emisión y recepción de ultrasonidos, y otro de tipo mecánico que empleaba un brazo que pendía del techo y conectaba con la cabeza del usuario. A partir de sus coordenadas, se generaba en tiempo real un sencillo cubo 3D en el visor cuya perspectiva cambiaba según el movimiento y posición de la cabeza. Para tal fin se recurrió a las capacidades del ordenador TX-2 del Laboratorio Lincoln de MIT (Instituto Tecnológico de Massachusetts) y más tarde a un PDP-10 de Digital Equipment Corporation. Por motivos obvios, la aparatosa instalación de Sutherland se denominó La Espada de Damocles.

Como podéis imaginar los trabajos anteriores pasaron desapercibidos para el gran público y no sería hasta entrados los ´80 cuando el ciberespacio y la conexión con nuestra psique se instaló definitivamente en el imaginario colectivo. Sin duda, a ello contribuyeron películas de ciencia ficción como Proyecto Brainstorm (1983) o novelas como Neuromante (1984) de William Gibson (1948), pero, sobre todo, lo que nos cautivó, fueron las experiencias de la NASA.

En 1987 la revista Scientific American publicó un extenso artículo donde se presentaban los ensayos de la NASA en un nuevo interface hombre-máquina. El objetivo de tal experiencia estaba encaminado hacia el telecontrol de un robot mientras trabajaba en la futura estación espacial. En aquel entorno, el astronauta dispondría de un visor estereoscópico ligero y compacto gracias a la novedosa tecnología LCD, recientemente introducida en los mini televisores. Además, también contaría con un guante -el DataGlove con el que sería posible navegar en un entorno virtual generado desde un ordenador HP 9000. Aquel guante, que estaba confeccionado en licra, era recorrido internamente por unas fibras ópticas en las que en cada uno de sus extremos se situaba una fuente de luz led y en el otro un fototransistor con el que registrar las variaciones de luz recibidas ante la flexión de uno o varios dedos. Por último, se seguía dependiendo de campos electromagnéticos y la detección de las variaciones de estos para rastrear los movimientos y conocer las coordenadas de la cabeza del usuario.

Michael McGreevy, Scott Fisher (1951), Brenda Laurel (1950) y el citado Jaron Lanier, que junto a Thomas Zimmerman crearon del DataGlove, son algunos de los nombres tras aquella experiencia de la NASA. Gracias a su trabajo y entusiasmo lograron dar el impulso definitivo y situar la Realidad Virtual en la antesala de ser un producto comercial, y eso pasó al inicio de la década de los ’90.

Colección | Realidad Virtual (2). Llegada al mercado

Apple Lisa y el GUI

febrero 3, 2022 on 7:52 pm | In colección, hist. informática | No Comments

Adolfo García Yagüe | Hace unos días recordaba la aparición de la versión 3.0 de Windows. Como decía, con esta versión Microsoft logró que los usuarios de un PC empezáramos a considerar el uso de un GUI (Graphic User Interface). También ayudó el lanzamiento de un conjunto de herramientas ofimáticas específicas para este entorno. Aunque Microsoft llevaba ofreciendo Windows desde el año 1985, siempre fue algo secundario y este GUI no terminaba de convencer. Quizás, una de las razones, tenía que ver con que este entono no era un sistema operativo real y era un añadido gráfico al MS-DOS. Evidentemente, esto limitaba su capacidad multitarea y potencia. Por otra parte, hay que recordar, que en aquellos años la mayoría de los PCs estaban basados en el Intel 8088/8086 y eran pocos los usuarios que contaban con un disco duro.

Las citadas limitaciones de los PCs no tenían nada que ver con los Apple Macintosh. Apple, y más concretamente Steve Jobs (1955-2011), supieron ver la importancia de un entorno gráfico para lograr que los ordenadores llegaran a más gente. Realmente, antes que Jobs, el mérito de la invención y uso de un GUI corresponde Xerox con sus ordenadores Alto (1973) y Star (1981). En cualquier caso, los aportes de Apple fueron decisivos y consiguieron que el GUI fuera conocido tras el lanzamiento del Apple Lisa en 1983.

El desarrollo de esta máquina sería el origen de agrios enfrentamientos entre Jobs y el equipo encargado de su desarrollo. Fruto de estas tensiones Steve fue apartado para no interferir en las decisiones de diseño y expulsado a un edificio donde empezó, según su criterio, el desarrollo del Apple Macintosh. En lo personal Lisa también encierra uno de los demonios que acompañaron a Jobs durante algún tiempo acerca de la paternidad y la áspera relación que mantuvo con su hija Lisa Brennan-Jobs (1978). En aquel momento Steve se refería a LISA como un acrónimo de Local Integrated Software Architecture.

En los primeros meses de su comercialización Lisa venía equipado con dos unidades de diskettes llamadas FileWare. Rápidamente, Apple se percató de su error al querer salirse de los estándares y el Lisa 2 ya se suministró con un floppy de 3” ½ y a los clientes de FileWare se les ofreció -sin coste- el cambio de unidad. Este ordenador también contaba con la posibilidad de añadir un disco duro de 5MB gracias al Apple ProFile, que ya era conocido desde el Apple III. No obstante, lo más impactante, fue la incorporación de un entorno gráfico y un ratón inspirados en lo que los ingenieros de Apple conocieron en Xerox.

Colección | IBM Personal Computer 5150 | BIOS y Clean-room Design

 

Microsoft Windows 3.0

enero 29, 2022 on 9:45 am | In colección, hist. informática | No Comments

Adolfo García Yagüe | Microsoft Windows versión 3… Qué lejos queda… Esta versión fue lanzada en 1990 y con ella se empezó a popularizar el uso de un entorno gráfico entre los que éramos usuarios de un PC. Compartió época con el asentado escritorio de los Apple Macintosh, el OS/2 de IBM, el GEM de Digital Research y, sobre todo, el de ordenadores domésticos como el Atari ST, Commodore Amiga o Acorn Archimedes y otros equipos muy avanzados para su época como eran las estaciones de trabajo NeXT.

Para fomentar el uso de Windows, Microsoft acompañó la versión 3 con el famosísimo juego de cartas el Solitario. Aquel juego causo furor y se hizo un hueco en los escritorios de casi todos los puestos de trabajo provocando una pequeña y simpática crisis de productividad laboral. ¿Quién no se ha echado un Solitario? 😊

Colección | IBM Personal Computer 5150 | BIOS y Clean-room DesignApple Lisa y el GUI

 

El Videodisco

agosto 25, 2021 on 7:04 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Acceso aleatorio frente a otro de tipo secuencial. De esta forma podríamos resumir la diferencia más significativa entre usar un soporte basado en disco frente a otro de cinta magnética. Como conocéis, esta característica nos permite el acceso directo a un corte musical de un LP o localizar directamente un fichero en nuestro disco duro.

Este avance fue decisivo en la reproducción de vinilos de música o en el uso de discos para almacenar y recuperar información, pero ¿Qué pasó con el vídeo? Como veremos, el empleo de videodiscos parecía algo inminente en los años cincuenta, pero no fue hasta 1967 cuando se presentó el primer producto. Este era el HS-100 de Ampex y estaba dirigido al mundo profesional para grabar y reproducir hasta 30 segundos de vídeo sobre un disco magnético y era empleado para la producir la famosa “moviola”, es decir, la repetición a cámara lenta de un instante, generalmente de tipo deportivo. También, en aquel año, David Paul Gregg (1923-2001) obtuvo la patente de un disco óptico transparente que, como veremos más adelante, guarda parentesco con el LaserDisc.

Antes del HS-100 y de la patente de Paul Gregg el impulso innovador llevó a algunas compañías e inventores a plantear ideas donde se trasladaban conceptos ya conocidos al mundo del vídeo. Así fue como un anónimo Antonio Rubbiani presentó en 1957, en el Salone Internazionale della Tecnica de Italia, un disco transparente donde estaba registrado un caudal de vídeo con un corto mensaje de texto. Aquello, haciendo un atrevido ejercicio de imaginación, debería de ser similar al registro óptico de audio que se hacía en el cine donde las vibraciones sonoras son convertidas a imagen y registradas en el celuloide junto al resto de fotogramas para, posteriormente y durante la reproducción, proyectar un haz de luz a su través y excitar a una célula fotoeléctrica. Supongo que Rubianni hizo una aproximación parecida, pero no hay detalles de su invento y aunque el principio pueda parecer atinado, las diferencias de ancho de banda y densidad de información entre audio e imagen hacen imposible este planteamiento por eso, como veremos más adelante, la clave estaba en la aproximación de Gregg.

Videodisco de Capacidad Electrónica
Aquella reutilización de principios también llevó a RCA (Radio Corporation of America) a concebir en los años ‘60 un sistema de videodisco de solo lectura inspirado en los tradicionales microsurcos del vinilo. Este invento, conocido como CED (Capacitance Electronic Disc), se basaba en un disco del mismo tamaño que el de un LP de música, pero cuya densidad era de 10000 surcos por pulgada formando una única pista espiral. En estos microsurcos estaba registrada la señal de video como una sucesión de variaciones de capacidad que eran leídas por un estilete o aguja de tan solo 2,5µm. Aquel estilete, fabricado en diamante, tenía en su parte posterior un electrodo que hacía las veces de una de las placas de un condensador electrónico. De esta forma, la variación de profundidad del surco era el elemento dieléctrico y el interior de disco era la otra placa del citado condensador. Estas variaciones de capacidad eran del orden de picofaradios y con ellas se actuaba sobre un oscilador de alta frecuencia a partir del cual se reconstruía la señal de vídeo modulada en FM.

El disco CED giraba a 450 rpm y en cada rotación del surco se mantenían 8 campos. Recordar que un cuadro está formado por dos campos, lo que significa que en cada vuelta estaban grabados cuatro fotogramas. Por lo tanto, en aquellos surcos era posible registrar hasta una hora de vídeo por cara.

Los discos CED eran tremendamente delicados y venían en una especie de funda o caddy para evitar ser tocados por el usuario y expuestos al polvo o suciedad. Por otra parte, al ser un soporte que requería contacto físico para realizar la lectura, la fragilidad del estilete y el desgaste que éste sufría durante la reproducción obligaba a sustituirlo tras un uso continuado.

El desarrollo de CED pasó por muchos altibajos y, aunque el invento demostró ser viable en 1964, era una proeza técnica para la que fue necesario perfeccionar la tecnología de fabricación del propio disco, el sistema de control y el estilete. Estas razones técnicas hicieron que hasta 1981 no fue presentado el SelectaVision SGT-100, apareciendo este como una alternativa al sistema LaserDisc lanzado en 1978.

Gracias al acuerdo entre RCA y Columbia Pictures, el sistema CED prometía un catálogo de miles de títulos cinematográficos con los que se intentaba animar su adopción. Recordemos que el CED, al igual que LaserDisc, eran sistemas de solo lectura y sus posibilidades de éxito dependían de la existencia de películas para ser adquiridas por un particular. Por eso, una de las razones de la pobre acogida de ambos sistemas, está relacionada con la falta de títulos disponibles y porque en aquellos años pocos usuarios tenían la costumbre de acumular películas en casa y eso que, en teoría, CED y LaserDisc ofrecían más calidad de imagen y prometían ser más baratos que una cinta VHS o Beta.

LaserDisc
El soporte que estaba llamado a revolucionar el mercado era el LaserDisc. Este nacía en el momento adecuado, en 1978, justo cuando Betamax y VHS empezaban a captar la atención del público. LaserDisc venía rodeado de una aureola de modernidad al ser la primera vez que un usuario común tenía acceso a la tecnología láser… y aquello le daba un aire de ciencia ficción y sofisticación inigualable…

LaserDisc, que en su inicio se llamó DiscoVision, fue fruto del trabajo de varias compañías entre las que destacan, Paul Gregg y su patente, MCA (Music Corporation of America), Philips, Magnavox y Pioneer. La primera etapa se corresponde con los trabajos de Gregg apoyados por MCA en su intención de contar con un sistema de vídeo con el que dar salida a la gigantesca colección de títulos cinematográficos de Universal Pictures y sus asociadas. Esto sucedió a finales de los ’60. A pesar de que MCA no era una empresa de electrónica, gracias a diversos acuerdos y un abultado presupuesto, logro presentar un prototipo de videodisco transparente en 1972 según las ideas de Gregg. A pesar de este hito aun quedaba un proceso largo de desarrollo hasta contar con un producto. Fue en aquellos años cuando conoció que Philips estaba trabajando en un sistema de videodisco de tecnología reflectiva -que difería de la suya- y entendió que para continuar necesitaba el impulso de una gran compañía experta en electrónica. Por eso, ambas compañías, MCA y Philips, firmaron un acuerdo de colaboración en 1974. Resumidamente, a través de este acuerdo MCA se hacía cargo de la fabricación de discos y Philips se responsabilizaba del desarrollo y fabricación del reproductor. Para ser capaz de fabricar en EE.UU. y contar allí con una marca reconocida, Philips adquiriría en 1974 la histórica Magnavox y trasladaría a sus viejas plantas de Knoxville, Tennessee, la responsabilidad de fabricar un producto de alta tecnología para aquella época. Los retrasos en la adaptación de la citada fabrica y algunos problemas de calidad obligaron a que miles de unidades de los primeros Magnavox 8000 fueran realmente fabricadas en Holanda y volaran en avión para atender los primeros pedidos a finales de 1978 y 1979.

Hacia 1977 MCA firmó otro acuerdo con la compañía electrónica japonesa Pioneer. Se pretendía que este fuera un acuerdo menor que, ante todo, sirviese de respaldo ante la posibilidad de que Philips decidiese abandonar el proyecto DiscoVision, además, también era una forma de atacar el mercado japonés. Por este motivo en el citado acuerdo se daba derecho a Pioneer a estampar discos, desarrollar reproductores y comercializarlos bajo su marca en Japón. Pioneer, en su aspiración de seguir la estela de fabricantes como Sony y JVC y así hacerse un hueco en el incipiente mundo de vídeo doméstico, empezó a planchar discos ópticos en 1980 y puso en el mercado el VP-1000 en 1981, ya comercializado con el sobrenombre de LaserDisc. A partir de aquí podéis intuir como sigue la historia, Philips-Magnavox van retrocediendo porque DiscoVision no terminaba de captar la cuota de mercado esperada y Pioneer va adquiriendo cada vez más control sobre la tecnología hasta convertirse en la cara visible en todos los mercados.

Si uno ojea la patente de Paul Grebb advierte que se citan dos elementos esenciales para reproducir vídeo y audio en un disco trasparente. Por una parte, al tratarse de sonido e imágenes, la densidad de marcas ópticas será muy alta y de un tamaño microscópico y solo será posible su lectura con una fuente de luz coherente: el recién inventado rayo láser (desarrollado en 1960 por Theodore Maiman). Por otro lado, conocedor de los requisitos de ancho de banda de un caudal de imágenes, Gregg estima que el disco debería girar a una velocidad comprendida entre 1800 y 3600 revoluciones por minuto.

Se podría concluir que aquí se encuentran las dos ideas originales sobre las que se asienta esta tecnología, no obstante, las aportaciones de Philips son esenciales porque avanzan en la codificación del vídeo y audio como una sucesión de microscópicos hoyos donde un láser de 632nm se refleja y sufre un desfase de 180º. Gracias al citado desfase de la señal láser es posible reconstruir una señal eléctrica donde la anchura de esta señal se corresponde con la detección o no de hoyo. Esta señal eléctrica ya es una representación en FM de señal de audio y vídeo.

Este planteamiento de disco óptico con lectura “reflejada” difería de la aproximación de Gregg donde se apostaba por discos trasparentes donde emisor láser y transductor estuvieran a cada lado del disco. Así, en la propuesta de Philips el disco giraba a 1800 revoluciones por minuto y tenía dos caras útiles, situando toda la electrónica y el láser a un lado del disco y con solo dar la vuelta a éste se continuaba la reproducción en la otra cara. También es de destacar que, en lugar de pensar en un único surco en espiral que se lee de fuera hacia dentro, Philips pensó en un disco con pistas concéntricas e independientes que se leen de dentro hacia fuera y donde en cada una de estas pistas solo hay grabado un cuadro o fotograma. Gracias a la tecnología CAV (Constant Angular Velocity) esto permitía congelar la imagen perfectamente y así conseguir registrar hasta 30 minutos de imágenes en cada cara.

En contra de lo que se podría pensar -y lo que le sucedió al CED-, LaserDisc no tuvo una muerte prematura y se mantuvo en el mercado hasta el año 2000. Su caída se aceleró a partir de 1996, momento en el cual apareció el DVD. En aquel año su cuota de mercado alcanzaba un 2% en EE.UU. y un 10% en Japón donde fue el formato preferido en los Karaokes. Durante todo el tiempo fue una tecnología que subsistió como una forma de poseer a nivel particular una videoteca con alta calidad de imagen. En este sentido es importante recordar que el hábito de comprar películas por los usuarios no despego hasta la llegada del DVD ya que en los años 80 y principios de los ‘90 lo normal era alquilar en un videoclub. También merece recordar el empleo del LaserDisc en el mundo de los videojuegos en 1983 en el clásico Dragon’s Lair. En la versión de este juego para máquinas recreativas se recurrió a una solución hibrida de LaserDisc y ordenador donde se presentaban imágenes de fondo logrando una videoaventura de una riqueza visual nunca vista.

En muchos sentidos el LaserDisc era un producto adelantado a su tiempo. Como habéis podido comprobar no tiene nada que ver con lo visto anteriormente, como la grabación magnética o los surcos del vinilo, y sienta las bases de lo que más tarde sería el Compac Disc y el DVD, especialmente en las técnicas de lectura láser y servocontrol porque, recordemos, en el LaserDisc el vídeo y el audio eran registros analógicos, aunque ya podía incluir una pista de audio digital PCM. Es un ornitorrinco de la tecnología.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | Home Video | 40 años del Compact Disc

Home Video

julio 7, 2021 on 7:24 pm | In colección, hist. fotografía, vídeo y tv | 1 Comment

Adolfo García Yagüe | Dentro de unos días la MTV cumplirá cuarenta años. Fue en agosto del ‘81 cuando, con el simbólico “Video Killed the Radio Star” de The Buggles, arrancaban sus emisiones iniciándose así una nueva época para el pop y el rock. Como años antes le sucedió al periodismo, la tecnología del vídeo modificó esta industria con una nueva narrativa que amplificaba la imagen de nuestros ídolos. Estos cambios coincidían con otra transformación de mayor impacto donde los video-reproductores estaban ocupando un hueco en el entretenimiento doméstico, a la vez que se ponía en manos (o al hombro) de un usuario normal la capacidad de videograbar.

Philips N1500 VCR
Realmente fue Philips con su N1500 VCR (Video Cassette Recording) quien dio en 1972 el primer paso hacia el hogar. A pesar del intento previo de Sony, sus U-Matic era caros y las máquinas con bobina de cinta eran complejas y delicadas. Tampoco ayudaba el hecho de que aquellos equipos careciesen de un sintonizador RF y un programador horario (o timer) para grabar contenidos emitidos por televisión. En resumen, Philips lanzó el primer equipo de vídeo pensando en el mercado doméstico con casetes de 30, 45 y 60 minutos, fácil de utilizar y útil para grabar “de la tele”. El pistoletazo de salida ya se había dado y aunque aquel equipo tuvo unas cuantas evoluciones, no terminó de ganarse la confianza del mercado por algunos problemas mecánicos y, sobre todo, porque los VCR de Philips solo eran compatibles con el sistema europeo PAL, no existiendo una versión NTSC (EE.UU. y Japón). Europa, aunque gran consumidora, no estaba destinada a ser referente tecnológico del desarrollo del vídeo.

Sony Betamax
Así, en 1975 Sony puso en el mercado el LV-1901. Este era un sistema monolítico que reunía televisión, reproductor de vídeo y timer en un mismo bloque. Aquel equipo tampoco gozó de gran popularidad porque obligaba al usuario a desechar su anterior TV y su envergadura condicionaba su ubicación, además de ser complicada su reubicación dentro del hogar. A pesar de esto se notaba que era un equipo de gran calidad que podía grabar y reproducir hasta 1 hora en casetes ofreciendo 250 líneas por cuadro. En este equipo Sony condesaba su experiencia previa con U-Matic y, aunque era incompatible con él, ponía en el mercado un sistema de vídeo de prestaciones similares a menor precio haciéndolo accesible para muchos hogares y suficiente para la mayoría de las aplicaciones profesionales. A este sistema de vídeo Sony lo llamó Betamax y, tras la pobre acogida del LV-1901, lanzó el modelo SL-7200 que iba sin timer siendo este una opción de ampliación.

Con Philips y otros fabricantes moviendo levemente el mercado del vídeo doméstico y con Sony empujando con fuerza, se empieza a intuir la revolución que se cernía sobre el mundo audiovisual. Son años donde las grandes compañias cinematográficas empiezan a mirar con recelo, sospechando incluso que la grabación en video acabará con la industria del cine. Nada más lejos de la realidad porque, si alguien salió beneficiado, fueron las propios majors al tener un nuevo canal para comercializar en vídeo -una y otra vez- sus títulos de cine. El punto álgido de aquellas tensiones lo protagonizó Disney y Universal Studios cuando en 1976 emprendieron acciones legales contra Sony haciéndola responsable de la vulneración de derechos de autor por facilitar a los usuarios grabar un espacio de televisión protegido por derechos de autor, aunque esto fuera porque no se podía ver en el horario original de emisión. Tras un proceso que se extendió hasta 1984 la justicia eximió de responsabilidad a Sony pero aquel caso ejemplifica como, desde siempre, las grandes compañías han intentado frenar cualquier avance tecnológico que pueda rozar levemente sus intereses, sin importar que esta tecnología también tenga otros usos e incluso les beneficie.

JVC y el VHS (Video Home System)
La aspiración de Sony con Betamax, como en otras tecnologías, era establecer un estándar que fuera seguido por el resto de los fabricantes y así, además de vender sus reproductores, ver incrementados los ingresos con el licenciamiento de sus patentes para la fabricación de equipos y casetes compatibles con Betamax. Por eso, mientras Sony promocionaba su sistema entre otros fabricantes, conoció que JVC (perteneciente al grupo Matsushita) estaba trabajando en un sistema de vídeo doméstico que era prácticamente igual al suyo denominado Video Home System (VHS). Aquello hizo saltar todas las alarmas de Sony quién incluso llegó a apelar al gobierno nipón contra JVC por menoscabar los supuestos beneficios para la economía y la industria japonesa al existir dos estándares de vídeo.

Aquella rivalidad entre sistemas desencadenó la famosa “guerra de los formatos” y, aunque Betamax ofreciera 250 líneas por campo frente a 240 de VHS, nació con la limitación de 60m en la duración de sus cassettes mientras que VHS soportaba 120m. Evidentemente, esto penalizaba la publicación de largometrajes cinematográficos en una única cinta de vídeo o la grabación de programas que duraran más de una hora. Esta debilidad siempre pesó sobre Betamax aunque fuera resuelta por Sony con nuevas cintas y equipos, incluso antes de que se desarrollara el mercado de la publicación de títulos de cine y los videoclubs. Más allá de este hecho, es importante no olvidar que cuando una tecnología nace tutelada por una única empresa las opciones de asentarse como estándar son pocas, y más aún si se trata de un mercado masivo y altamente competitivo como era este. Por eso, la clave de aquel conflicto, fue que JVC siempre tuvo una política de licenciamiento más laxa que Sony redundando en que cualquier empresa podía fabricar o publicar un vídeo VHS, incluso aquellas que basaban su producto en un diseño de referencia de un tercero o que, simplemente, se limitaban a revender un producto OEM. Ejemplo de aquella flexibilidad es que el primer equipo VHS comercializado en EE.UU. no fue un JVC sino el RCA SelectaVision VBT 200, que estaba diseñado y fabricado originalmente por Panasonic (también del grupo Matsushita). Tampoco olvidemos el «pequeño» detalle de que hasta enero de 1984 el conflicto de Sony con dos de los mayores estudios de Hollywood permaneció abierto. También recordar que este clima de tensión de Sony con la industria audiovisual solo se acabaría cuando los japoneses se hicieron en 1988 con el control de Columbia Records y, al año siguiente, con Columbia Pictures… y ya era demasiado tarde para Betamax.

Hacia el final de la década de los ‘80 quedaba claro que la posición de mercado de VHS era superior a la de Betamax y por esta razón Sony abandonó su sistema dando por perdida la guerra, pero manteniendo el liderazgo en el sector de las videocámaras basadas en el sistema Video8 que era, en gran parte, una evolución de Betamax. Por otro lado, durante la citada década, Sony consolidó su hegemonía en el ámbito profesional o broadcast con sus cámaras de vídeo y el sistema Betacam. En este sistema, en lugar trabajar con una señal de vídeo compuesto como se hacía en U-Matic, Betamax o VHS, se grababa una pista con la señal de luminancia y en otra distinta la crominancia. Además, Betacam era un sistema que, aunque sacrificaba tiempo de grabación al incrementar la velocidad de paso de la cinta, ofrecía 300 líneas por campo llegando incluso a alcanzar las 340 líneas con Betacam SP en 1986.

Philips Video 2000
Aunque sea testimonialmente, acabo recordando que en 1979 Philips intentó reconducir su mala experiencia de los sistemas VCR y hacer valer su veteranía en el hogar presentando junto a Grundig el sistema Video 2000. La principal novedad de estos equipos era el uso de unos cassettes de doble cara. A pesar de alguna mejora más frente a VHS y Betamax, el sistema Video 2000 nació tarde y (una vez más) enfocado en el mercado europeo… y no olvidemos que Europa es un mercado formado por distintos países con economías y niveles de riqueza dispares, y cada uno con sus regulaciones y sus tiempos. Es decir, estamos fragmentados y apenas tenemos escala para poder apostar por un estándar, con la excepción del lejano sistema de telefonía móvil GSM o 2G. Además, carecemos de una industria audiovisual -como la americana- para poder empujar hacia una dirección y ya, para colmo, en los años ochenta, se había empezado a desmontar la industria de electrónica de consumo y solo Philips resistía. Por estas razones Video 2000 desapareció en 1988 sin dejar rastro.

Es curioso comprobar como el sistema VHS soportó el paso de tiempo y solo fue destronado por el DVD al final de la década de los ’90. Con VHS crecimos, compusimos nuestras preferencias cinematográficas y lo más importante, almacenamos grandes recuerdos.

Colección | Grabación magnética de vídeo | Kodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantanea y Kodak (y 3) | El Videodisco

Grabación magnética de vídeo

junio 20, 2021 on 5:19 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Para conocer los orígenes de la tecnología para la grabación magnética de imágenes hay que remontarse a la época dorada de la televisión, allá por los años 50 del siglo pasado. Tras sus primeros pasos y, en especial, en países con varias franjas horarias como EE.UU., se hizo evidente que el dinamismo de este medio en su forma de presentar las noticias, la emisión en diferido, la publicidad y, en definitiva, asegurar la continuidad entre espacios, no estaba acompasado con la filmación en Kinescopio y su logística.

Fue en aquellos años cuando los ingenieros pensaron en adaptar los conceptos de la grabación magnética del audio al mundo de la imagen, a pesar de la disparidad entre ambos medios. Esta diferencia tiene que ver con el ancho de banda de cada señal o la anchura espectral entre la frecuencia más baja y la más alta que, el caso del audio es de 20KHz frente a los 4MHz del vídeo. Una señal con semejante ancho de banda presenta grandes dificultades cuando se intenta registrar en un medio magnético por la propia naturaleza ferromagnética, el tamaño del entrehierro del cabezal de grabación y la velocidad a la que este se tiene que desplazar sobre la cinta.

Algunas empresas como Bing Crosby Enterprises y RCA (Radio Corporation of America) presentaron soluciones que intentaban sortear los citados retos aumentando la velocidad a la circulaba la cinta a su paso por el cabezal que, en el caso de RCA, alcanzaba las 300 pulgadas por segundo (7,62m/s). Evidentemente, tal velocidad obligaba a trabajar con aparatosas bobinas de cinta magnética de un diámetro cercano a los 50cm y con apenas capacidad para registrar 15 minutos de imágenes. Aquellos equipos, al trabajar a muy alta velocidad y disponer de delicados cabezales tendían a fallar mecánicamente, eran costosos de mantener y no se alcanzaba la calidad deseada. Mientras que las citadas empresas se esforzaban en hacer demostraciones públicas de sus avances, Ampex trabajaba en secreto en un grabador de vídeo en donde optaron por no partir de la base de lo ya conocido en audio y así esquivar estas dificultades. Empezaron tomando la señal de vídeo y con ella modularon en FM una portadora cuyos extremos se situaban entre 4,5MHz y 6MHz, reduciendo así el ancho de banda a 1,5MHz. A continuación, esta señal era entregada síncronamente a cuatro cabezales ubicadas en un tambor que rotaba transversalmente a 240rps sobre una cinta magnética de 2” de ancho y que avanzaba a una velocidad de tan solo 15 pulgadas por segundo. El éxito fue rotundo y en 1956, tras una efectista demostración ante ejecutivos de la CBS, sus máquinas VR-1000 y las cintas magnéticas Quadruplex de 90 minutos de duración se convertirán en un estándar para la industria de la televisión.

Grabación helicoidal
Durante los ’60 Ampex estuvo presente en todos los sectores donde la grabación magnética de voz, vídeo y datos fuese esencial. Esta diversificación los llevó en 1964 a desarrollar propuestas tan avanzadas como Videofile, que era un sistema de gestión documental basado en imágenes de vídeo y empleado, por ejemplo, en Scotland Yard para el archivo de huellas dactilares. También, siguiendo la evolución de la tecnología electrónica, empezaron a reducir el tamaño de sus equipos para ir abriéndose a otra áreas y sectores más allá del estudio de producción de televisión. Así, en 1965, cuando lazaron el equipo VR-7000 se aproximaron al mundo de la seguridad electrónica y el CCTV. Aquella disminución de tamaño repercutía en el precio y, aunque aún no era razonable para una familia, se empezaba a pensar en el Home Video. Quien sí se benefició claramente de esta disminución de tamaño fue, una vez más, el sector de periodístico y la TV. Equipos como el VR-3000, junto a la videocámara Ampex BC-100, empezaron a ser usados en la retrasmisión de eventos como los Juegos Olímpicos de México de 1968.

El denominador común de los equipos lanzados durante estos años fue la técnica de grabación helicoidal que dejó obsoleta a la transversal. En esta nueva técnica el tambor también rotaba, pero esta vez era rodeado oblicuamente por la cinta magnética. Es decir, el video quedaba registrado en la cinta como una sucesión de segmentos dispuestos diagonalmente. Esta técnica permitía hacer pausas de un fotograma y, sobre todo, economizaba la cinta magnética al reducir su anchura de 2” hasta 1” e, incluso, ½ pulgada. Aunque desde el inicio de los años 50 Ampex y RCA hicieron aproximaciones teóricas al sistema helicoidal, fue el equipo dirigido por Norikazu Sawazaki de Toshiba quien presentó en 1959 el primer prototipo de un videograbador con este nuevo sistema.

El primer equipo comercial basado en la técnica helicoidal fue el fugaz VR-8000 de Ampex, en 1961. De esta máquina solo se fabricaron cuatro unidades y fue seguido por el VR-1100, ambos con cinta magnética de 2” de anchura. En 1964 Philips presentó el EL-3400 que empleaba cintas de 1” y, al año siguiente, Sony lanzo el mítico CV-2000 cuyo precio se situaba entre los 1000 y 1500 dólares. El CV-2000, además de reducir la achura de la cinta a solo ½”, fue una revolución que puso a Sony en el mapa de la grabación de vídeo acercando ésta al ámbito doméstico (CV, Consumer Video). Esta accesibilidad hizo posible que, por ejemplo, algunos grupos activistas dieran sus primeros pasos en el llamado periodismo de guerrilla y, en la búsqueda de nuevas formas de expresión a través de la tecnología, con esta serie de equipos de Sony dio comienzo el videoarte de la mano de artistas como Nam June Paik (1932-2006).

Si aplicamos los estándares de hoy diríamos que el Sony CV-2000 era un equipo de modestas prestaciones que grababa en blanco y negro con tan solo 200 líneas horizontales por campo. Recordemos que en una señal de televisión clásica un fotograma es llamado cuadro y este se forma en el tubo de imagen por la representación consecutiva de dos campos: uno con las líneas impares y en el otro las pares. Por eso decimos que la señal de televisión NTSC es de 525 líneas por cuadro y la PAL de 625. Aclarado este concepto volvemos al CV-2000 comentado que con este equipo se presentaron algunos problemas en el intercambio y reproducción de cintas grabadas en sistemas del mismo modelo y, aunque a veces se menciona como un equipo portátil, no estaba alimentado por baterías y pesaba 20Kg -cámara aparte- por lo que es más correcto referirse a él como un equipo transportable. Tras la serie CV se sucedieron otras más elaboradas y ligeras como la AV donde ya se puede hablar de equipo portátil, baterías y cuyos últimos modelos grababan en color. Mientras esto sucedía, Sony acumulaba conocimiento en el diseño de videocámaras y magnetoscopios e impulsaba, junto a otros fabricantes, un estándar en la técnica de grabación para facilitar la interoperabilidad entre ellos. Aquel empeño desembocó en un sistema que, en lugar de estar basado en bobinas abiertas, utilizaba cassettes en cuyo interior había unos carretes de una cinta de ¾ de pulgada dando a la grabación de vídeo un cariz más automático y robusto. Este fue el origen de U-Matic (U por como la cinta magnética rodea al tambor y Matic de automatic). En 1971 Sony sería el primer fabricante que presentó un producto: el VO-1600, un equipo con el que se podía grabar y reproducir vídeo y el VP-1000, que solo reproducía. Las elevadas prestaciones y el coste de aquellos equipos los dejaban fuera de una economía doméstica pero los acercaba a todos aquellos sectores profesionales donde era útil la grabación de imágenes como la industria, educación y, por supuesto, el periodismo donde Sony empezó a ser tenido en cuenta y, con los años, desplazó a Ampex e impuso un nuevo estándar.

ColecciónKodak, química y vídeo (1) | Fotografía digital y Kodak (2)Polaroid, la fotografía instantánea y Kodak (y 3) | Home Video | El Videodisco

Marconi y el Día Internacional de la Radio

febrero 13, 2021 on 7:59 pm | In colección, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | No quería dejar pasar este Día Internacional de la Radio sin recordar a través de dos piezas de la colección los orígenes de esta. El primero de ellos es una bobina de inducción o carrete de Ruhmkorff, inventado por Heinrich Ruhmkorff (1803-1877).

En estos dispositivos, a partir de una tensión continua, se conseguía elevar el voltaje a la vez que funcionaba como un conmutador produciendo, a su salida, alta tensión intermitente. Con esta tensión se provocaba una chispa que generaba una onda electromagnética capaz de propagarse por el espacio. Estos ingenios y su correspondiente chispero fueron empleados en los primeros Telégrafos Sin Hilos (TSH).

Por otra parte, como detector se utilizó el Cohesor de Branly, inventado por Édouard Branly (1844-1940). Este pequeño dispositivo es una ampolla de cristal que contiene limaduras de hierro en su interior donde, a ambos lados, se encuentran unos bornes. En estado normal, cuando no detecta una onda electromagnética, su resistencia eléctrica es muy alta y apenas circula tensión entre los citados bornes. En cambio, cuando una onda es detectada, las limaduras de hierro de su interior experimentan “rotura” de la microoxidación existente entre ellas y en ese momento el cohesor es un elemento conductor. Cuando esto sucede, se activa un pequeño martillito con el que se golpea la ampolla y las limaduras vuelven a su estado normal, o a ser un componente aislante. Una vez más serían los primeros telégrafos sin hilos donde se empezó a utilizar este ingenio.

Marconi y la Invención de la Radio
La paternidad de la invención de la radio es consecuencia del trabajo de múltiples personas. Aunque Guillermo Marconi (1874-1937) es la persona que se ha instalado en nuestra cultura, es preciso recordar que las primeras experiencias con ondas electromagnéticas son obra de Heinrich Rudolf Hertz (1857-1894), Nikolai Tesla (1856-1943) y Aleksandr Popov (1859-1905) entre otros, sin olvidar que la teoría del electromagnetismo fue expuesta en 1865 por James Clerk Maxwell (1831-1879). Posteriormente, el desarrollo de la radio solo fue posible gracias a las invenciones de John Ambrose Fleming (1849-1945) y su diodo termoiónico y el triodo de Lee De Forest (1873-1961).

El mérito de Marconi está en que, además de ser un gran inventor, supo desarrollar un servicio útil (la telegrafía sin hilos) y centrarse en un proyecto empresarial, cosa de la que siempre adoleció el gran Tesla motivando que muchos de los descubrimientos e iniciativas de este no lograsen cristalizar en la sociedad por su dispersión y escasa gestión. No obstante, aunque muy tarde, hay que recordar que en 1943 la Corte Suprema de Estados Unidos devolvió a Tesla la patente de Marconi reconociendo así su invención de la radio.

La citada faceta empresarial de Marconi queda resumida en que al comienzo del siglo XX la Marconi´s Wireless Telegraph Company Limited obtiene la patente del invento y en 1904 Marconi firma un acuerdo con la Oficina de Correos Británica para trasmitir mensajes telegráficos. Años después, en 1909, el prestigio de Marconi era inmenso y fue reconocido con el Nobel de Física. Con semejante aureola de sabiduría Marconi era recibido con los más altos honores como recuerda la siguiente noticia donde se relata su visita a Madrid en 1912 junto a Su Majestad Alfonso XIII.

Todo lo anterior daría para que una persona “normal” se retirase y viviese de su éxito pero, en el caso de Marconi, la telegrafía sin hilos no fue suficiente y avanzó en la radiodifusión de voz fundando Radio Vaticano en 1931. Incluso, entre las inquietudes de Marconi, se encontraba la búsqueda de vida extraterrestre a través de la escucha de emisiones de radio y el envío de marconigramas.

Produce cierto vértigo comprobar como el legado empresarial de Marconi ha logrado evolucionar hasta el siglo XXI a través de innumerables compañías, adquisiciones y mutaciones.

Colección | Telegrafía y Telefonía | Telégrafo y Telecomunicación | Construcción de un Telégrafo | La Música Eléctrica del Cura Castillejo | Emisión Termoiónica y Lee De Forest

1G o primera generación de telefonía móvil

febrero 8, 2021 on 7:43 pm | In colección, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | Ahora que es tan popular el término 5G y que los gobiernos y empresas se afanan en insistir en su importancia, hay gente que por su juventud no ha conocido como empezó todo, es decir, el 1G. Aprovechando que he añadido unos textos comentando alguna pieza de la galería, he querido recordarlo aquí.

Indelec 3833-01, 1986
El equipo anterior es uno de los primeros teléfonos móviles que se comercializaron para ser usados en la red de Telefónica. Este móvil pertenece a la primera generación -o 1G- compatible con el sistema NMT-450 (Nordic Mobile Telephony) en la banda radio de 450MHz. NMT coincidió con otros sistemas de telefonía –incompatibles entre si- como AMPS en EE.UU, TACS en Reino Unido o B-Netz en Alemania. España adoptó el sistema nórdico por ser uno de los más maduros. Aquello garantizaba a Telefónica una mayor oferta en equipos terminales y de red (especialmente Ericsson, Nokia y Philips). También cabe destacar que las especificaciones de NMT eran abiertas para que cualquier fabricante desarrollara un terminal o estación base sin tener que pagar royalties. En el Indelec 3833-01 llama la atención su volumen y peso cercano a los 12Kg, incluyendo su batería y maleta de transporte. Este era un equipo que, a pesar de ser portable y gozar de autonomía al tener batería, estaba pensado para ser transportado en el coche.

Con este terminal se escribe uno de los capítulos de nuestra historia tecnología y su aspiración por hacerse un hueco entre los grandes vendors. En efecto, el 3833-01 fue diseñado y fabricado en Dinamarca entre los años 1984 y 1985 por la compañía AP Radiotelefon con el nombre BV 31-A. La comercialización de este equipo dentro de Telefónica fue posible gracias a Indelec, una joven compañía que estaba impulsada por el Gobierno Vasco, Telefónica como cliente preferente y Philips como socio tecnológico. Esta participación de Philips permitiría a Indelec alcanzar el conocimiento necesario para desarrollar sus propias soluciones.

Standard Eléctrica ITT-7700, 1986
Ante la revolución que estaba comenzando, ITT Standard Eléctrica, el histórico aliado tecnológico de Telefónica, no podía permanecer sin plantear una solución. Por eso, a pesar de que en esta época atravesaba por serias dificultades financieras, optó por introducir en Telefónica un móvil diseñado y fabricado por la japonesa Mitsubishi, que en aquel entonces era un líder en esta tecnología. Inicialmente, el ITT-7700 se comercializó bajo la firma ITT Standard Eléctrica hasta que la citada compañía fue absorbida en 1987 por la francesa Alcatel y ya etiquetado con esta marca. Aunque este equipo es contemporáneo del Indelec 3833-01, las mejoras en su diseño electrónico y autonomía y, sobre todo, sus 8Kg de peso son significativos frente a este.

Indelec I-4000, 1988
Durante la primera mitad de los años ochenta del pasado siglo, la telefonía móvil era un servicio que, aunque ya disponible, era poco visible debido a su alto coste y, sobre todo, porque los terminales no estaban pensados para ser transportados fuera del vehículo. Esto empezó a cambiar con el Indelec o Telyco I-4000 que, aunque seguía siendo utilizado en coches, podía ser transportado “cómodamente” gracias a sus 4Kg de peso. Por esta razón, equipos como este, empezaban a ser vistos por la calle en manos –o al hombro- de algunos ejecutivos.

El origen de este equipo hay que buscarlo una vez más en Dinamarca, en la antes mencionada AP Radiotelefon. Allí fue donde originalmente se diseñó para ser presentado por Philips en abril de 1986. Desconozco los detalles de la relación entre AP Radiotelefon y Philips pero sospecho que, hacia 1986-87, AP Radiotelefon fue adquirida por Philips. En la información que ha llegado hasta mis manos -anterior a este equipo- ya existía la conexión entre ambas empresas y el patrón se repite: equipos diseñados y fabricados por AP Radiotelefon y vendidos bajo marca Philips. Al existir la citada relación con Philips, una vez más, este equipo llegó a España de la mano de Indelec e incluso fue comercializado con la marca Telyco de la cual Telefónica era propietario. Con este equipo también se cierra la época NMT-450 o, como Telefónica la denominó, TMA-450 (Telefonía Móvil Automática).

TMA-900 y Motorola DynaTAC, 1990
Si hay un móvil donde se simboliza el estatus y el poder económico en la época 1G es con el Motorola DynaTAC. Algunos lo recordaréis de la interpretación de Michael Douglas en el papel de Gordon Gekko en Wall Street (1987).

Este era un teléfono realmente móvil al poder ser trasportado con facilidad. Fue desarrollado en 1983 por un equipo de Motorola liderado por Martin Cooper. Desde aquel año hasta 1993 se sucedieron diferentes versiones con algunas mejoras y adaptando su uso a cada país y sistema radio. Hay que destacar que la principal razón de su “pequeño” tamaño y bajo consumo eléctrico obedece a que trabaja en frecuencias altas, concretamente en 850MHz de AMPS (Advanced Mobile Phone System), mientras que en España veníamos usando el sistema nórdico (NMT) a 450MHz. También, en este móvil, se aprecia el avance que se estaba sucediendo en la integración electrónica y el desarrollo de chips a medida en lugar de recurrir a componentes genéricos.

En nuestro país fue distribuido por Amper, otra de las empresas históricas en la órbita de Telefónica. Popularmente este móvil fue conocido con el sobrenombre de “el ladrillo”. En España se introdujo cuando se empezó a prestar servicio a 900MHz con el sistema TACS. A este sistema Telefónica lo denominaría TMA-900 y años después pasó a llamarlo Moviline.

Mapas de cobertura 1G
Para terminar he querido incluir dos mapas de cobertura en abril de 1990 para los servicios 1G  y la prevista a diciembre del mismo año. En el primero se muestra la penetración de TMA-450 y en el segundo TMA-900.

Colección | Los Móviles | HarmonyOS y los Sistemas Operativos Móviles | GTP y la seguridad en redes 4G y 5G NSA

« Página anteriorPágina siguiente »


(c) 1999-2023 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress