Redes LAN inalámbricas: WaveLAN, Altair y ARLAN

octubre 12, 2020 on 9:40 am | In colección, hist. informática, hist. telecomunicaciones, telecomunicaciones | No Comments

Adolfo García Yagüe | El establecimiento de las bandas ISM sobre ciertas porciones del espectro radio fue un terremoto que no dejó indiferente a casi nadie. Este movimiento sísmico zarandeó el mercado y agitó los cimientos de muchas empresas en su intento por posicionarse en esta novedosa oportunidad. Por ejemplo, NCR intuía el potencial que podían ofrecer las redes inalámbricas a su negocio tradicional, que era (y es) el de los puntos de venta o POS de los supermercados. Otros, como Telxon, llegaron a la conclusión de que las comunicaciones RF (radiofrecuencia) apenas tenían que ver con la lectura de códigos de barras por eso, en 1994, escindieron su expertise en radio en una nueva compañía llamada Aironet. Otro ejemplo era el de Motorola que, conscientes de su sabiduría en el mundo de la radiofrecuencia, decidieron alejarse de lo que otros competidores hacían mientras que a ambos lado del Atlántico se empujaba hacia una estandarización. Incluso, en el colmo de esta agitación del mercado, había quién apostaba por una comunicación a distancia mediante rayos infrarrojos.

NCR WaveLAN
Muchos de vosotros conocéis que NCR (National Cash Register) es una de las firmas más antiguas de este sector. Fue fundada en el siglo XIX por John Henry Patterson (1844-1922) y por allí pasó gente tan carismática como Thomas Watson (1874–1956) de IBM. Aunque NCR ha jugado en todas las posiciones del mundo de las IT (tecnologías de la información), siempre ha mantenido una posición de liderazgo en las soluciones relacionadas con formas de pago: desde lectores bancarios de cheques y cajeros automáticos hasta cajas registradoras o terminales puntos de venta (TPV). En los ’80 venía investigando en las capacidades de la comunicación infrarroja porque, como podéis intuir, en las grandes superficies no siempre es fácil, rápido ni barato llevar un cable de datos a un determinado punto del centro comercial para ubicar un TPV. Por esta razón, cuando en 1985 se establecieron las bandas ISM, la tecnología radio llamó su atención y empezaron a indagar en sus posibilidades.

NCR contaba con un Centro de Ingeniería en Nieuwegein, una pequeña ciudad a las afueras de Utrecht, Holanda, donde principalmente se trabajaba en la adaptación de sus soluciones al mercado europeo. Allí estaba empleado Bruce Tuch, un americano afincado en Holanda con gran experiencia en radiofrecuencia tras su paso por Philips. Bruce y su colegas holandeses empezaron a investigar en las posibilidades de ISM y en 1987 construyeron un prototipo que permitía la comunicación inalámbrica a 100Kbits por segundo, y al año siguiente hicieron otro cuyo ancho de banda alcanzaba los 500Kbits/s. Aun siendo un gran salto, aquello no era suficiente para una caja registradora que, en esencia, era un ordenador compatible IBM PC donde ya era común la comunicación Ethernet LAN a 10Mbps. En este sentido, NCR estableció un mínimo de 1Mbps de ancho de banda para considerar el lanzamiento de un producto comercial.

El reto era grande. Como hemos visto en el artículo anterior, para velocidades del orden de miles de bits por segundo de las comunicaciones RS-232 o RS-485, era factible aplicar los mecanismos habituales de Spread Spectrum. En cambio, con cualquiera de estas técnicas de espectro ensanchado, era complejo y costoso ofrecer un ancho de banda de 1Mbps. Pensemos que en la técnica DSSS emisor y receptor comparten un código binario (Código Chip) con el que se realiza una operación -por ejemplo un XOR sobre cada bit del mensaje. Por esta razón, un bit que se desea enviar se convertirá en una cadena de bits antes de ser transmitidos por radio. Este ensanchamiento del mensaje hace que la comunicación cuente más robustez frente a interferencias, refiriéndonos a esta como ganancia de procesado. En FHSS, la otra técnica de Spread Spectrum, emisor y receptor acuerdan varias frecuencias por las que “saltarán” y enviarán pequeños fragmentos del mensaje. Así, en ambos casos, si se desconoce el código chip o las frecuencias de salto, resulta difícil entender el mensaje por alguien que intercepte la comunicación.

Ante este muro infranqueable, en 1988 Bruce Tuch viajó a Washington y planteó a la FCC la cuestión sobre cómo interpretar las reglas de Spread Spectrum y la longitud mínima que tenía que tener el código chip pues, a mayor longitud de este, más complejidad en la electrónica de proceso y menos ancho de banda. Bruce quedo sorprendido cuando FCC le confirmó que con una longitud de 10 bits era suficiente. Aquella respuesta despejó el camino y, al llegar a Holanda, su compañero Hans van Driest ya tenía implementado un chip de 11 bits de longitud llamado Secuencia Barker (+1, –1, +1, +1, –1, +1, +1, +1, –1, –1, –1).

Aplicando las técnicas de espectro ensanchado DSSS descritas y la modulación DQPSK (Differential Quadrature Phase-Shift Keying) en la banda ISM de 902-928MHz, NCR logró un ancho de banda cercano a los 2Mbps. Este nivel físico necesitaba de un nivel MAC (o de acceso al medio) capaz de detectar la portadora de otra estación y así evitar la colisión que se produce cuando varios equipos simultanean su comunicación. Para este fin adaptó el funcionamiento del procesador Ethernet N82586 de Intel para que, en lugar de CSMA/CD (escucha portadora y detecta colisión), funcionara como CSMA/CA (escucha portadora y evita colisión) junto con el envío de unos mensajes de acuse de recibo desde el receptor. De esta forma, además de beneficiarse de un chip comercial y acelerar el desarrollo de una solución inalámbrica, Tuch y su equipo se acercaban a lo que ya se venía haciendo en el estándar Ethernet.

En 1990 NCR lanzó al mercado WaveLAN, un adaptador inalámbrico en 902 a 928MHz compatible con el IBM PC. Como hemos visto en otros textos, trabajar en esta banda ISM abarataba el diseño electrónico pero ofrecía menor capacidad, sin olvidar que estos productos no eran compatibles con el plan de frecuencias europeo. Por estas razones, al año siguiente, presentarían una versión para trabajar en 2,4GHz. Las WaveLAN eran tarjetas que se insertaban en un ordenador normal y eran compatibles NDIS (Network Driver Interface Specification), es decir incluían drivers para ser usadas por sistemas operativos de red como Netware o LAN Manager. Además estos adaptadores, al igual que las tarjetas de Ethernet y Token Ring, disponían de un zócalo donde instalar una ROM con un programa de autoarranque para redes Netware. Así mismo, con WaveLAN, NCR ya fue consciente de las vulnerabilidades de la comunicación inalámbrica e incluyó, como opción de ampliación, la posibilidad de instalar un chip para el cifrado DES de 56 bits a través de la configuración de una clave o Network ID.

En 1991 NCR fue comprada por AT&T pero la historia del equipo de Nieuwegein no acaba aquí y continuó con su participación en el desarrollo del estándar 802.11 en representación de Lucent Technologies.

Motorola y las LAN inalámbrica
Escribir sobre las comunicaciones radio y no mencionar a Motorola es difícil. Esta compañía se fundó en Chicago en 1928 como Galvin Manufacturing Corporation y paso a llamarse -dos años después- Motorola para ser identificada con su producto estrella, un autorradio (Motor + Victrola). Esta especialización en el campo de la radiofrecuencia fue clave para que en los años 40 suministrara al ejército americano el famoso Walkie Talkie SCR-536. De esta época también es el radioteléfono Handie-Talkie FHTRU-1A. Los buscapersonas, la telefonía móvil celular o la red de satélites Iridium llevan el sello de Motorola, por no hablar de sus avances en semiconductores. Con semejante currículo ¿Cómo no iba a desarrollar una solución inalámbrica para las LAN?

Altair (comercializado como Rialta en el mercado español) fue un producto que se alejó del planteamiento seguido por NCR y otros fabricantes que, como hemos comentado, eran prácticos y cercanos a las normas de la FCC. Motorola, en lugar de seguir estas recomendaciones de uso de las bandas ISM, consideró que no merecía la pena trabajar con espectro ensanchado y optaron por las frecuencias de 18 y 19GHz… Para evitar trámites al usuario final y facilitar la adopción de este producto, Motorola tuvo que obtener una autorización para vender Altair en cada país y el usuario tenía que rellenar un formulario de registro, ya que el uso de estas frecuencias no es libre. La realidad era que en 18 o 19GHz la penetración radio es muy baja y un simple tabique representa un obstáculo insalvable. Por eso, en el marketing de la época, Motorola hablaba del uso en oficinas con espacios abiertos y recomendaba que existiese visibilidad directa entre equipos Altair.

El Altair de Motorola se asemeja a un Bridge donde uno de sus puertos es radio y el otro Ethernet. Esto significa que estaba pensado para ser conectado a un segmento Ethernet y trabajaba a nivel trama, sin importar el tráfico cursado: NetBIOS, Novell IPX, SNA o TCP/IP. Esto, a priori, es una ventaja que permite ser agnóstico a lo que viaja por el cable. No obstante, poco a poco, TCP/IP iba ganando protagonismo en redes donde era necesario establecer una jerárquica separando con routers las diferentes LANs. Por esta razón, la tendencia era ir migrando hacia TCP/IP desde otros protocolos de red, bien con técnicas de encapsulado o directamente. Además, otra de las señales que se aprecian con claridad en los ’90 es el auge de Internet e IP. Dejando a un lado frecuencias y protocolos de red, la topología de una solución Altair consistía en una máquina central denominada Control Module cuyo coste era de 3.995 dólares y al que se conectaban por radio diferentes User Module a un precio de 3.495 dólares por unidad. Un precio desorbitado en 1991 -y a día de hoy- para la mayoría de las empresas teniendo en cuenta, además, que el throughput de una comunicación no superaba los 2Mbps y la instalación de estos equipos tenía numerosos condicionantes relacionados con las frecuencias usadas y su propagación.

Con estas líneas dedicadas a Motorola Altair solo pretendía ilustrar como las redes LAN inalámbricas despertaron iniciativas arriesgadas y el coste que supone desarrollar productos de espaldas al mercado, guiándote solo por el nivel de sofisticación técnica al que puedes aspirar. Así, Altair, fue descontinuado hacia el ‘93-‘94 y Motorola se enroló en 1996 en el consocio Wireless LAN Interoperability Forum (WLIF) que promovía la adopción de la tecnología OpenAir (RangeLAN2) de Proxim.

Aironet ARLAN y la movilidad
Para conocer el origen de Aironet (1994) hay que mirar a Telxon (1974) y antes, incluso, a Telesystems SLW (1986) y Marconi Wireless (fundada a principios del XX). Ahí es donde empieza esta historia, cuando empleados de la Marconi canadiense deciden montar Telesystems. Aironet, además de por sus productos y sus aportaciones al estándar IEEE 802.11, será recordada por haber sido absorbida en 1999 por Cisco Systems, convirtiéndose así en el inicio inalámbrico de esta compañía.

En los párrafos anteriores hemos visto diferentes enfoques para abordar las LAN inalámbricas y si NCR planteaba un modelo descentralizado basado en sus tarjetas WaveLAN, Motorola se decantaba por una topología centralizada donde un Altair Control Module ejercía de controlador de la red inalámbrica. Ambos enfoques tienen pros y contras pero es cierto que en una red local los recursos suelen estar en un lugar central y es recomendable que todo el tráfico pase por ahí pero, a la vez, es acertado que este equipo no regule “la libertad” de cada participante en la red para hablar y usar el medio (aunque, nadie le escuche). Esto nos hace pensar en un punto de acceso que hace de intermediario o bridge con los recursos y hacia el que todas las estaciones son libres para dirigir su tráfico. Cuando hablamos de recursos podemos pensar en la asignación de direcciones IP que hace un DHCP, los servidores o la salida a Internet.

El ARLAN 630 y fue uno de estos primeros puntos de acceso que comercializó Aironet para las bandas ISM de 900MHz y 2,4GHz. Operaban en DSSS y ya estaban cerca de la norma 802.11 pero, por ejemplo, carecía de mecanismos de cifrado y el único sistema de seguridad se basaba en el establecimiento de filtros que impedían que ciertas estaciones y protocolos pudiesen cruzar a través de él es decir, un AAA muy básico (Authentication, Authorization and Accounting).

En el lado de los usuarios, Aironet y otros fabricantes se dieron cuenta que carecía de sentido seguir promoviendo adaptadores ISA y PCI para LANs inalámbricas dirigidos a equipos de sobremesa que, normalmente, no se mueven y son conectados por cable, sin obviar que el uso de ordenadores portátiles y el término “movilidad” empezaba a ser una realidad para muchas empresas. Por este motivo, Aironet intensificó sus esfuerzos en integrar toda la electrónica y la antena en una tarjeta PCMCIA insertable en un portátil. El formato PCMCIA y más tarde PC Card, fue concebido a principios de los ‘90 para utilizar tarjetas de memoria con un tamaño similar al de una tarjeta de crédito. Unos años después esta norma se fue ampliando para permitir la conexión de tarjetas de red, módems y otros periféricos que necesitaban un interfaz de alta velocidad. Así, bajo este formato, aparecieron unos cuantos productos que desdoblaban en dos elementos la solución: una tarjeta PCMCIA donde residía todo el proceso y tratamiento de datos conectada a una pequeña unidad externa donde residía la parte de radiofrecuencia junto a su antena.

Mientras aproximaciones como las citadas en esta líneas llegaban al mercado, varios fabricantes trabajaban para intentar consensuar una norma que unificara los diferentes planteamientos y así conseguir la interoperabilidad entre ellos. Como se comentará en el próximo texto, de estas iniciativas destaca IEEE 802.11, pero es necesario recordar que coincidió en el tiempo con otras como HIPERLAN, HomeRF y OpenAir (continuará).

Colección | Código de Barras y Comunicación Inalámbrica | Redes de Área Local (1) | Sistemas Operativos de Red (2) | Electrónica de Red (y 3)

 

Código de Barras y Comunicación Inalámbrica

septiembre 25, 2020 on 6:25 pm | In colección, hist. informática, hist. telecomunicaciones | No Comments

Adolfo García Yagüe | En fechas anteriores escribía sobre cómo el uso de ordenadores personales y el despliegue de redes locales cambió la forma de trabajar de ciertas empresas. Esta revolución en las oficinas coincidió con otro cambio en almacenes y supermercados donde empezaban a florecer los códigos de barras. En las superficies comerciales, además de un sistema de comunicación con un ordenador central, se disponía de un scanner en la caja registradora o TPV (Terminal Punto de Venta o POS, Point Of Sale) capaz de leer aquellos extraños símbolos. Por su parte, además de conectividad, en los almacenes era necesario disponer de un pequeño terminal portátil capaz leer la citada codificación.

Este terminal -o pequeño ordenador- estaba pensado para ser manejado con una mano (hand-held) y en él se ejecutaba un programa que guiaba al operario en la gestión de inventarios y pedidos. Todo un desafío si pensamos en las opciones técnicas disponibles en los ’70. Por este motivo se recurrió a componentes del mundo aeroespacial como el microprocesador RCA 1802 que, por ejemplo, podía bajar su frecuencia mínima de trabajo y así ahorrar energía. Otro ejemplo son los exiguos 4KBytes de memoria CMOS donde estos terminales salvaguardaban durante 48 horas los datos leídos. O el uso temprano de baterías alcalinas, el acoplador acústico integrado y, años después, la comunicación por radio.

Compañías como Motorola, Honeywell, Intermec (1966), Norand (1967), Teklogix (1967), MSI (1967), Zebra (1969), Symbol Technologies (1973), Telxon (1974), Datalogic (1972) o Psion (1980) han sido los protagonistas de este sector que, poco a poco, se ha ido concentrando en manos de tres compañías: Zebra, Honeywell y Datalogic.

Códigos de barras
En el repaso de esta historia es necesario remontarse a la segunda mitad del siglo anterior. Allí, en 1951, David Hammond Shepard (1923-2007) construyó el primer OCR funcional y, a partir de ese momento, el reconocimiento óptico de caracteres empezó a llamar la atención de grandes compañías. Por otro lado en los ‘60 podemos encontrar experiencias como KarTrak, de Sylvania y GTE (General Telephone & Electronics Corporation), donde se identificaba con un código de colores a los vagones de ferrocarril destinados a mercancías; o el de la Kellogg Company para el control automático de productos durante la fabricación y logística. Estas experiencias fueron importantes pero empleaban códigos y técnicas propietarias. Así, en 1971, apareció el Plessey Code de la firma inglesa Plessey Company, que es uno de los primeros códigos de barras similares a lo que hoy conocemos. La innovación de Plessey fue contemporánea de otro gran invento: el microprocesador 4004 de Intel. Aquel salto tecnológico permitió a James S. Bianco, de Control Module Industries (CMI), desarrollar el primer lector integrado por encargo de Levi Strauss. Este terminal pesaba 12Kg y empleaba una cinta de cassette para almacenar las lecturas. Ese mismo año la compañía Norand comercializaría el modelo 101 dirigido al mercado de la distribución.

Desarrollos como el de CMI y Norand evidenciaban que, si se quería llegar a más clientes, era necesario ponerse de acuerdo en establecer una codificación universal o, al menos, que ésta fuera estándar para ciertos mercados y/o productos. Así es como en 1973 George Laurer (1925-2019), de IBM, propuso la codificación UPC (Universal Product Code) para la distribución al por menor. La adaptación europea se llamó EAN (European Article Number) y data de 1976. UPC y EAN son las codificaciones que hoy estamos acostumbrados a ver en el supermercado e identifican el país de origen, empresa y producto. A estas le han seguido otras más específicas como Codabar, Code 39, Nixdorf Code o Interleaved. Por supuesto, las codificaciones bidimensionales como PDF417, Datamatrix, QR y BIDI derivan de aquí. En España, en 1983, la primera empresa que empezó a usar la codificación EAN fue Mercadona, una joven cadena de supermercados que empezaba a dar sus pasos en la Comunidad de Valencia.

Técnicas de lectura
Desde los tiempos del Norand 101 para la lectura de un código de barras se han venido utilizando distintas técnicas. En los primeros años los lectores se acompañaban de un wand –varita o lápiz- en cuyo interior encontramos una pequeña fuente de luz y un fotodiodo. Estos wand, cuando están en contacto con un código de barras y recorren su superficie, captan los niveles de luz reflejados por cada barra y separación entre estas. Estas variaciones son detectadas por el fotodiodo y, a continuación, digitalizadas para ser interpretados por el terminal.

El método anterior fue el más común hasta 1982. En aquel año Jerome Swartz (1940), fundador de Symbol Technologies, comercializó el lector láser LS-7000 y, a diferencia del método del lápiz, no necesitaba contacto físico con el código de barras siendo capaz de leer éste, con visibilidad directa, a una distancia aproximada de 50cm. El principio de funcionamiento consistía en recorrer el código con un haz láser y, a la vez, captar remotamente las diferencias de luz reflejadas. Fueron numerosas las dificultades que se plantearon en la miniaturización del tubo láser de Helio-Neón hasta que, Uniphase, logró reducir su tamaño para ser incluido dentro de un dispositivo de mano junto a la etapa de alimentación de miles de voltios. Además, este mismo dispositivo de lectura, tenía que incorporar un ingenio mecánico con el que modificar el ángulo de un espejo para cambiar la trayectoria del haz y así recorrer toda la superficie del código. A pesar de las dificultades, este tipo de lector resultó ser un éxito y convirtió a Symbol en una de las marcas más notorias del sector. Su tecnología -y una agresiva defensa de su propiedad intelectual- hizo que números fabricantes de terminales portátiles operaran con un lector de Symbol, al igual que los lectores empotrados en las líneas de caja de cualquier supermercado. En el año 1988, esta fortaleza económica, permitió a Symbol vencer a Telxon en la disputa por la adquisición de MSI Data Corp y así contar con su propia línea de terminales. Ya en el comienzo de la década de los noventa, con la aparición lector Symbol LS-2000, se sustituyó el láser de He-Ne por uno semiconductor consiguiendo reducir el precio y su tamaño.

Otra de las técnicas de lectura que ha alcanzado un lugar destacado fue introducida por Norand en el mismo año. Ésta es una aplicación de los conocidos CCD empleados en fotografía digital o vídeo y en los escáner de documentos. Estos lectores disponen de una fuente luminosa procedente de uno o varios diodos y una matriz semiconductora de cientos o miles de condensadores que captan la luz (el CCD). Una vez más, lo que lee el CCD, es el resultado de la reflexión procedente del código de barras. A diferencia del wand o el láser, para la lectura, no es necesario recorrer todo el código -de izquierda a derecha o viceversa- y tampoco que el lector “toque” el código, soportando una separación de pocos centímetros. Frente a los primeros lectores láser de He-Ne el coste del CCD era inferior y gozaba de más robustez, pero tenía limitaciones relacionadas con el tamaño de los códigos que podía leer y a qué distancia.

Como se puede comprobar, en las últimas décadas del siglo pasado se han empleado distintas técnicas de lectura basadas en la reflexión de una fuente de luz. Esto cambiaría en el comienzo del presente siglo gracias a la miniaturización que ha experimentado la fotografía digital y el consiguiente procesado en tiempo real de imágenes. Esto ha permitido trasladar esta tecnología al mundo de los lectores de código de barras y a dispositivos tan diversos como los teléfonos móviles donde, además de ser posible la lectura de codificaciones complejas como las bidimensionales, sirve de complemento de ciertas aplicaciones de realidad aumentada.

RS-232 y Acoplador Acústico
Hasta aquí hemos visto como leer un código para identificar un producto pero de poco sirve si esta información no es tratada y consolida en un sistema de gestión de inventarios y pedidos. Teniendo en cuenta que las necesidades de comunicación de aquellos terminales eran más humildes de las que hoy demandamos a Internet, los primeros años han estado marcados por las bajas velocidades que ofrecía un interfaz serie RS-232 es decir, no es raro hablar de 300 bit por segundo, 1200, o incluso 9200, 19200 y 57000. Así pues podemos comentar tres métodos de comunicación. El primero de ellos es el más básico y consiste en una conexión directa a un ordenador central a través de un cable RS-232. En estos casos, cuando el operario acababa su jornada o cuando tenía que actualizar sus tareas, conectaba su terminal a un cable RS-232 y colocaba el terminal en modo de transferencia. A partir de ese momento descargaba las lecturas y recibía nuevas órdenes de trabajo. En algún caso era posible, incluso, actualizar el programa que estaba utilizando aunque durante muchos años se emplearon memorias EPROM intercambiables para este fin. Estos ciclos de trasferencia a veces coincidían con las fases de reposo del equipo y eran aprovechados para recargar las baterías.

La comunicación anterior era posible siempre y cuando en las mismas instalaciones existiese al otro lado del cable un ordenador central o un sistema concentrador de comunicaciones. En caso contrario, cuando se trataba de almacenes y delegaciones dispersas, lo habitual era recurrir a la línea telefónica y establecer una comunicación por módem. Por esta razón, prácticamente todos los terminales de primera generación, cuentan con un acoplador acústico unidireccional que es empleado para el envío de datos desde el terminal (o almacén) a la central y así actualizar las altas y bajas del stock local. Por ejemplo, en equipos como el terminal MSI/77 (1977) eran habituales las velocidades de transmisión de este acoplador a 110 y 300 baudios.

Comunicación Radio
Hablar de comunicación por radio o inalámbrica es hablar de la regulación que se aplica en cada país. Esto significa que para usar una porción del espectro radio es necesario pedir un permiso y pagar por ello. Es un proceso caro, farragoso y es muy probable que la solicitud sea denegada. Recordemos que las bandas de radio están asignadas a ciertos usos y no es legal invadir estos espacios. De esto se dieron cuenta en EE.UU., en 1980. En aquel año Walter C. Scales a petición de la FCC (Federal Communications Commission) redactó un estudio donde recomendaba abrir a los usuarios ciertas porciones del espectro radio siguiendo unas normas de uso. Además, desde los años 50, existía el antecedente en el uso libre de la región de los 2,4GHz -empleada para calentar- en los hornos microondas. Scales hablaba de la importancia que esto podía tener como elemento dinamizador de la industria y, para ello, sugería emplear la técnica de codificación de Espectro Ensanchado o Spread Spectrum, y así dar mayor robustez a las comunicaciones de los usuarios al reforzarlas ante las interferencias mutuas e involuntarias que se producirían en esos espacios. Esta técnica, en su versión FHSS (Frequency Hopping Spread Spectrum) y DSSS (Direct Sequence Spread Spectrum), fueron desarrolladas para uso militar y ambas aportaban una razonable inmunidad frente a interferencias e incluso eran útiles para ocultar las comunicaciones. Aquellas ideas estaban bien encaminadas y desembocaron en 1985 en el establecimiento por parte de la FCC de tres regiones del espectro radio, conocidas como bandas ISM (Industrial, Scientify and Medical), para ser usadas por cualquiera que siguiera unas indicaciones técnicas básicas. Así se abrieron las frecuencias de 902 a 928MHz, 2400 a 2483.5MHz y de 5725 a 5875 MHz.

Como podéis imaginar, la posibilidad de conectar por radio a los terminales móviles para la lectura de códigos de barras o facilitar la reubicación de ciertos TPV para atender a los clientes ante una determinada promoción o remodelación, eran solo el principio de lo que estaba por llegar. Por esta razón, a finales de los años 80 los principales fabricantes de cajas registradoras y terminales móviles se apresuraban en desarrollar y certificar productos que dieran una nueva perspectiva a la movilidad en espacios interiores. Para la gran mayoría de estas compañías representó un reto desarrollar y competir con una solución radio según las normas de FCC. Por esta razón, en este nuevo ciclo tecnológico, destacaron tres jugadores: Teklogix, fabricante canadiense con experiencia previa en el mundo radio; Symbol, quien desarrollo su propia solución inalámbrica y Telxon, que tomo una participación para más tarde absorber a Telesystems SLW, también canadienses y primeros en presentar una solución radio ISM en 1988.

Por razones de coste y complejidad técnica, y porque esta frecuencia tiene mejor propagación radio, el primer rango en ser usado fue el comprendido entre 902 y 928MHz con codificación DSSS y, aunque era una región de solo 26MHz de ancho de banda, satisfacía las necesidades de una comunicación serie como la comentada antes. El caso español (y europeo) era un poco diferente porque ya estaba planificado el uso de esta región por los servicios TMA 900 (Telefonía Móvil Automática), que luego evolucionarían a GSM. Así, para subirnos al carro de la nueva tecnología ISM y no frenar el despliegue de redes inalámbricas, entre los años 92 y 96 se adaptaron y certificaron equipos para funcionar en los rangos de 406,425MHz a 411,550MHz (Teklogix y Symbol) y entre 433,1 a 433,3MHz (Telxon). Hoy, alguna de estas frecuencias, se emplea en aplicaciones de telemando como la apertura y cierre de portones de garaje.

Aunque no existía compatibilidad entre fabricantes, los sistemas radio de aquella primera generación comparten una arquitectura similar. En ella, como punto central de red, encontramos a un equipo lógico encargado de controlador a una o más cabezas o etapas radio desplegadas dentro de la superficie en la que pretendemos tener cobertura. Para la unión de este controlador de red con las cabezas radiantes que de él dependen se han empleado cables RS-232 y, en el caso de Symbol Technologies, cable coaxial con el que se lograba abaratar la instalación y así aumentar la distancia entre etapas radiantes. Este controlador era el responsable, entre otras cosas, de asegurar el roaming de un operario que está en movimiento y ser atendido en marcha. Una cosa a destacar de estas redes es que carecen de técnicas de cifrado y la información viaja en claro, entre otras cosas porque son sistemas con poca capacidad de proceso para realizar un cifrado en tiempo real y solían ser redes aisladas y poco llamativas para los atacantes. Este cifrado, y disponer de mayor ancho de banda, era imprescindible si se pensaba llevar esta tecnología a las redes LAN con tarjetas como la WaveLAN de NCR.

Colección | Redes LAN inalámbricas: WaveLAN, Altair y ARLAN

Grabación Magnética

agosto 13, 2020 on 4:51 pm | In colección, hist. sonido y música electrónica | No Comments

Adolfo García Yagüe | Desde que Luigi Galvani (1737-1798) descubrió a finales del XVIII que la pata de una rana muerta sufría espasmos al entrar en contacto con ciertos metales, se fueron sucediendo experiencias y teorías para explicar aquel fenómeno. Inspirándose en el citado descubrimiento, Alessandro Volta (1745-1827) desarrolló en 1800 la famosa pila de Volta, que era una fuente de energía más estable y controlable que la producida con mecanismos electroestáticos. Además de sentar las bases de la generación y almacenamiento de electricidad por procesos químicos, el invento de Volta revolucionaría los trabajos prácticos de laboratorio permitiendo profundizar en las distintas manifestaciones de la electricidad. Uno de aquellos descubrimientos fue el que haría en 1820 el danés Hans Christian Ørsted (1777-1851) al demostrar cómo era posible alterar la orientación de una brújula aproximando a esta un flujo eléctrico.

El galvanómetro, el electroimán, el motor eléctrico o la dinamo fueron algunas de las aplicaciones más populares de la relación entre magnetismo y electricidad, y no fue hasta el año 1888 cuando el norteamericano Oberlin Smith (1820-1926) propuso el uso de un electroimán para registrar magnéticamente un sonido en un fino alambre. El trabajo de Oberlin fue publicado en la revista Electrical World y tuvo cierta resonancia entre los científicos de su época por lo que no es extraño -aunque no está demostrado- que fuese leído por otro danés, Valdemar Poulsen (1868-1942), quién construyó un ingenio que se inspiraba en el fonógrafo de Edison al sustituir el rulo de cera por un cilindro rodeado de un alambre de acero que era grabado y leído por un electroimán. Aquel invento llegó a ser patentado en Dinamarca y el EE.UU. y Poulsen lo presentó en la Exposición Universal de París de 1900 con el nombre de Telegráfono. La base de este ingenio motivó la fundación en 1903 de la American Telegraphone Company que adquiriría los derechos para comercializar un dictáfono basado en un carrete de alambre de acero y así competir con el fonógrafo de Edison. Aunque aquel telegráfono ya disponía de DC Bias, con el que se mejoraba la calidad de sonido (señal de corriente continua con la que se polariza el soporte magnético), nació antes de la revolución electrónica de Lee De Forest (1873-1961) y no se resolvía el necesario tratamiento de la señal.

Al comienzo de la segunda década del siglo pasado se desarrolla la radiodifusión y, posteriormente, la televisión. Como era de suponer la reproducción y grabación del sonido se benéfica de esta revolución y, gramófonos y grabadoras de carrete de alambre, incorporarán circuitos electrónicos para captar y amplificar el sonido. Por otro lado, desde que años atrás Poulsen ensayara sin éxito con una cinta de tela impregnada de un material magnético, la idea de usar una cinta que sustituya a los delicados, pesados y caros carretes de hilo de acero es un objetivo prioritario. No obstante, a pesar de su potencial, son años donde la grabación magnética no logra trascender de dictáfonos de poca fidelidad. Esta lenta evolución hace que, al finalizar los años veinte, la grabación magnética pase a un segundo plano en EE.UU. Sin embargo en Reino Unido y, especialmente, en Alemania se recoge este testigo para seguir innovando.

Con Poulsen ya desvinculado de su invento y éste en manos de la American Telegraphone Company, entra en escena desde Alemania Kurt Stille (1873-1957) quien logra rodear las patentes de la American Telegraphone y así vender licencias para que otros puedan fabricar un grabador. Una de esas licencias fue a parar a manos de Louis Blattner (1881-1935), un emprendedor alemán del mundo del cine afincado en UK. Blatter buscaba desarrollar un invento que permitiese introducir sonido en las películas (recordemos que hasta el año 1927 el cine era mudo). Blatter y su equipo de técnicos desarrollan el Blatterphone, un grabador basado en cinta de acero que llamó la atención de la BBC y lo adquirió para emitir programas de su Empire Service. En estos primeros años treinta las licencias de Stille y distintas versiones del Blattnerphone pasarán por diferentes compañías como la alemana Lorenz AG y la Marconi en Reino Unido. Por su parte, emisoras de radio de Italia, Canadá y Alemania también empiezan a usar la transmisión de programas pregrabados en cinta de acero.

Durante este ir y venir de la grabación magnética, la germana AEG advierte su potencial y firma un acuerdo en 1931 con un desconocido inventor austriaco, Fritz Pfleumer (1881-1945). Pfleumer venía trabajando desde 1928 en un grabador que empleaba una suerte de cinta de papel impregnada en un polvo magnético. Aquello, que prometía prescindir de la costosa cinta de acero, terminó demostrando poca eficacia como consecuencia del desgaste que sufría el recubrimiento magnético y la fragilidad del papel. A pesar de que AEG rediseño totalmente la mecánica y la electrónica, el equipo se enfrentaba a un desafío que solo podía resolverse desde un enfoque químico, y es por eso que se buscó ayuda en la todopoderosa IG Farben y su empresa química BASF para desarrollar una cinta magnética de sustrato plástico. Así, en 1935, presentaron en Radio Berlín el grabador Magnetophon K1.

En 1935 la tensión entre Alemania y el resto de potencias iba en aumento y las ambiciones de Hitler presagiaban nuevos conflictos. Esta situación explica que aquel Magnetophon pasara desapercibido para el resto de países y la Gestapo lo convirtiera en una pieza esencial de sus actividades de espionaje y propaganda. Ya inmersos en la Segunda Guerra Mundial (1939-1945), mientras los aliados seguían usando grabadores de alambre de poca calidad, las estaciones de radio alemanas eran capaces de emitir largos discursos del Führer y música con una sorprendente fidelidad gracias al AC Bias, una innovación que hizo Walter Weber (1907-1944) en 1940 mientras era ingeniero de la emisora Reichs-Rundfunk-Gesellschaft (RRG). El AC Bias se basa en incorporar una señal de alta frecuencia –inaudible- junto con la señal a grabar para conseguir que el medio magnético registre altas frecuencias de audio y evite distorsiones. Hay que recordar que esta técnica fue, sin saberlo, redescubierta por Weber y antes había sido inventada -pero olvidada- en EE.UU en 1921 y patentada en 1927 por Wendell Carlson y Glenn Carpenter. Posteriormente, en 1937, Dean Wooldrige, de los laboratorios Bell, la volvió a redescubrir pero los abogados lo silenciaron para no tener problemas. Otra coincidencia fue que Teiji Igarashi, Makoto Ishikawa y Kenzo Nagai publicarían en 1938 en Japón un artículo donde describían el AC Bias, incluso llegaron a patentarlo en 1940 y ya, en el colmo de coincidencias, en EE.UU. en 1941, Marvin Camras (1917-1995) (re)descubrió y recibió la patente del AC Bias en 1944. Semejantes concurrencias solo se explican por el aislamiento que existía entre países y profesionales.

Acabada la guerra y consciente de la altísima calidad del invento alemán, el Mayor americano Jack Mullin (1913-1999) estudió uno de estos aparatos y logró, disimuladamente, enviar las piezas esenciales a su domicilio de California. Ya en EE.UU. aquellas partes fueron la base para reconstruir un equipo que llamó la atención de varias emisoras de radio y personajes del espectáculo, como el popular Bing Crosby (1903-1977) quién impulsaría esta tecnología y los usos de la producción magnética de audio y vídeo. También Ampex, un pequeño fabricante de motores eléctricos de California, se interesó por el equipo convirtiéndose en el líder de equipos de grabación junto con las cintas magnéticas Scotch de 3M. Como no, algunos fabricantes japoneses de nueva creación como Sony (1946) y Akai (1946), no tardaron en destacar con sus máquinas. Alemania siguió desarrollando buenos equipos pero fue despojada de las patentes sobre la tecnología desarrollada años atrás por AEG y BASF, y estás pasaron a dominio público como compensación de daños de guerra. Tal decisión se justificó porque el Magnetophon jugó un papel destacado en las acciones bélicas, propagandísticas y de represión nazi.

A partir de estos años la evolución fue imparable: la incorporación de sonido estereofónico, multipistas, dolby… y, como estas líneas se están alargando más de la cuenta, permitirme citar solo dos hechos. El primero es la incorporación de las cintas magnéticas como sistema de almacenamiento en los ordenadores. Aquel histórico paso lo dio en 1951 la Eckert–Mauchly Computer Corporation con el UNIVAC I y sus unidades de almacenamiento UNISERVO. Allí se empleaban cintas metálicas de una aleación de níquel-bronce. Cada cinta contenía ocho pistas (6 bits para un carácter, 1 de paridad y 1 de timing). En una pulgada de cinta (2,54cm) se podían almacenar 128 caracteres y su velocidad de lectura y escritura era de 100 pulgadas por segundo, es decir 12800 caracteres por segundo.

El otro apunte, igualmente interesante, es la aparición en 1958 de los cartuchos de cinta magnética por parte de RCA (Radio Corporation of America). Con aquello la RCA pretendía impulsar un formato para comercializar (su) música, y el cobro de los consiguientes royalties a cada fabricante que desarrollara un reproductor. Este hecho desató una pequeña guerra de formatos que competían entre sí para intentar hacerse con el mercado hasta que Philips, en 1963, presentó su formato cassette (en francés, cajita para guardar algo de valor) y que ofreció al mercado libre de royalties para que cualquier empresa comercializase casetes. En cambio, en sus inicios, Philips pretendía una regalía económica de aquél que fabricase un aparato reproductor-grabador. Esto fue así hasta que el consorcio alemán encabezado por Grundig, Telefunken y Blaupunkt se aproximó a Sony para promocionar el formato DC-International. Aquel hecho forzó a Philips a eliminar totalmente sus royalties con lo que Sony y el resto de fabricantes secundó la propuesta holandesa.

Colección | Primeros pasos del fonógrafo Edison en España | Re-inventando la grabación en vinilo…| Walkman de Sony, un hito de la cultura pop

Re-inventando la grabación en vinilo…

agosto 1, 2020 on 5:19 pm | In arte sonoro, colección, hist. sonido y música electrónica | 1 Comment

Adolfo García Yagüe | Periódicamente nos vemos sorprendidos por novedades que, envueltas en marketing y modernidad, resultan obsoletas y anacrónicas. Normalmente intentan captar nuestra atención proyectando una imagen de creatividad, autenticidad, libertad o nostalgia vintage. Esto ha pasado muchas veces: las Lomography y la fotografía tradicional, el intento de revivir las instantáneas de Polaroid, el Walkman de Sony, los reproductores de vinilos con USB… los ZX Spectrum en formato consola, los Nokia 3310 con Android, reediciones de antiguos sintetizadores analógicos con USB… Y ahora la grabación en vinilo…

Resulta que un artista japonés ha “inventado” un grabador portátil de vinilos, con USB por supuesto. La noticia nos cuenta que “democratiza el milagro mecánico de capturar audio en discos de vinilo”. Joder ¡Qué romántico y libertario suena! ¿Estamos tontos? ¿O es que periódicamente necesitamos novedades tech para sentirnos más auténticos y diferentes al resto?

En fin, esto que ahora nos intentan colar, hace cerca de cien años, era uno de los pocos sistemas de grabación útiles. Recordemos que el fonógrafo mecánico de Edison (1847-1931) fue sustituido por el gramófono de Emile Berliner (1851-1929). Este, también mecánico y basado en discos de 78rpm (revoluciones por minuto), mejoró a partir las innovaciones de la Western Electric al incorporar entrañas electrónicas. Esta evolución hizo que la lectura del surco siguiese siendo un proceso mecánico pero, el movimiento de la aguja, generaba una señal eléctrica por inducción magnética o efecto piezoeléctrico que era amplificada y escuchada por un altavoz. De modo contrario, en lugar de membrana, contábamos un micrófono para recoger el sonido. Esto significa que en los años 30 del siglo pasado ya existían dictáfonos comerciales para que cualquier interesado pudiese grabar su voz en un disco. Eran productos relativamente caros pero, al igual que los primeros receptores de radio, era una tecnología disponible que se ya empleaba en algunas oficinas para llevar un registro y control de tareas. También se utilizaba para grabar programas de radio u otros eventos, aunque su fidelidad fuese pobre.

En la colección encontramos un SoundScriber, uno de estos primeros dispositivos que se comercializó a partir de 1945. Este aparato es portátil y se transporta en una pequeña maleta junto con su micrófono. Llama la atención su elegante acabado en madera y, sobre todo, sus dos brazos, comunes en este tipo de equipos: uno para grabar discos y otro para leerlos. Este aparato fue uno de los primeros en grabar y leer microsurcos a 33rpm sobre discos de vinilo de 7” de diámetro. Estos discos, que eran flexibles y de un llamativo color verde, permitían registrar apenas 12 minutos de audio en cada cara y, además, no generaban virutas durante la grabación. Un gran avance frente a sus predecesores de goma laca y acetato cuya duración era inferior y provocaban mayor desgaste de agujas y molestos residuos al grabar el surco. Equipos con un principio similar a SoundScriber fueron bastante comunes en oficinas, estudios de radio y laboratorios. De hecho, la música generada por el sintetizador RCA (1955) aún era grabada en discos. Os animo a que os fijéis.

Como se puede apreciar la grabación en el ámbito particular de vinilos ya era posible. No obstante, es necesario recordar, que esta técnica de grabado era inviable si se pretendía comercializar decenas o miles de discos de una misma ópera. Aquí se utilizaban técnicas de estampación del disco de vinilo a partir de una copia maestra o máster. Es entonces cuando se vislumbra el potencial de la industria discográfica, y es la razón de que la venta de gramófonos y discos se convierta en la punta de lanza de compañías como Columbia, RCA Víctor (His Master’s Voice), Parlophone, Deutsche Grammophon, Decca, Capitol o EMI… estas y otras empresas empiezan a construir un negocio multimillonario donde, durante décadas, han controlado a consumidores y artistas con patentes sobre sistemas de grabación y estampación, materiales de fabricación de discos y derechos de autor… Por eso, si hay algo que realmente democratizó este panorama, fue la grabación magnética; la posterior digitalización y los CD-R… y unos años más tarde la compresión MP3 e Internet.

Colección | Primeros pasos del fonógrafo Edison en España | Grabación Magnética | Walkman de Sony, un hito de la cultura pop

 

Réplica del Apple 1 con la PCB Mimeo

julio 19, 2020 on 9:00 am | In colección, hist. informática | 1 Comment

Adolfo García Yagüe | Durante el pasado confinamiento he retomado algún proyecto que tenía aparcado. Uno de ellos ha sido finalizar la construcción de una réplica del Apple 1, el legendario ordenador que comercializaron Steve Wozniak (1950) y Steve Jobs (1955-2011) en 1976. Se estima que de aquel ordenador se vendieron 200 unidades y que apenas unas decenas han conseguido llegar hasta nuestros días. Hace unos años, en una subasta online, uno de estos incunables alcanzó un precio de más de 250.000 dólares, y en estas fechas se vende otro en eBay por más de un millón. La razón de tal revalorización obedece a que Apple es una de las compañías de más prestigio del planeta y goza de la fidelidad de millones de usuarios. Exageraciones y filias aparte, es cierto que el Apple 1 marcó un antes y después en la informática de aficionado al ser comparado con su contemporáneo el Altair 8800 de MITS.

El Apple 1 costaba $666 y, aunque su precio pueda parecer elevado para aquellos años, este coste era razonable. Ésta máquina se podía conectar a un televisor y a un grabador de casetes doméstico y además disponía de teclado. Nada que ver con los switches empleados por el Altair o IMSAI 8080 para escribir en memoria RAM, o el habitual lector/perforador de cintas de papel para almacenar programas. A lo anterior hay que añadir que el Apple 1 ya contaba con un Programa Monitor en su memoria ROM con el que era posible cargar fácilmente (desde cinta de casete) un intérprete BASIC que lo hacía realmente útil.

Como evidencia el ordenador SOL, de Robert M. Marsh y Lee Felsenstein (1945) y comercializado por Processor Technology, para un emprendedor y asiduo a clubs de usuarios como Homebrew Computer, no era descabellado desarrollar algo similar al Apple 1 inspirándose en los artículos de Radio-Electronics, o en los manuales técnicos del Kim 1 Computer y su microprocesador 6502, ambos de MOS Technology. Por esta razón, más allá de sus prestaciones y diseño, esta máquina demostró la capacidad de trabajo y genialidad de los dos Steve. Ésta clarividencia y tesón fue lo que fascinó a Mike Markkula (1942) quien invirtió en ellos $250.000. A partir de aquel momento se forjaría la leyenda: Apple II y la singular personalidad de Jobs; Lisa, Macintosh y la marcha de Woz de la compañía; la posterior salida de Jobs y su regreso a Apple -tras más de diez años- para reinventarla y convertirla en una de las empresas tecnológicas más importantes de mundo.

Evidentemente, resulta difícil -por no decir imposible- conseguir un Apple 1 original si no eres un coleccionista al que le sobra el dinero o un museo con un presupuesto infinito. No obstante, en estos últimos años, han aparecido réplicas del circuito impreso (PCB) y canales de venta donde aún es posible conseguir algunos de los componentes electrónicos de aquella época y montar tu Apple 1. La apariencia de una de estas réplicas puede llegar a ser casi exacta y solo los expertos identifican la copia. Hay que puntualizar que su construcción no es un proyecto barato pero es posible abordarlo poco a poco e ir adaptando cada etapa de montaje al presupuesto disponible.

La placa base original del Apple 1 fue encargada a Howard Cantin, quien coincidió con Steve Jobs en Atari. En el desarrollo de esta placa se emplearon las técnicas de la época y su diseño está basado en dos capas y su trazado de pistas es fácil de entender. En esta sencillez radica uno de los retos a la hora de conseguir una placa similar en aspecto, ya que los programas actuales de trazado de PCBs trabajan a partir de un esquemático y suelen hacer, de forma automática y óptima, la distribución de componentes, rutas, curvas, serigrafía, tamaño de las pistas, aprovechamiento del espacio, etc. En resumen, mediante la automatización actual es imposible obtener unos resultados similares a los conseguidos por un diseñador que trabajó aplicando su experiencia en el trazado de cada pista. Ante este desafío no queda otra opción que inspirarse en el circuito impreso original e ir haciendo correcciones a un programa de diseño de PCBs para que el resultado se parezca al realizado por Cantin. Ese ha sido el modo de trabajo de Steve Gabaly con su placa Obtronix, Mike Willegal con Mimeo y Mike Ng con Newton. Cada uno de ellos ha empleado fotos de alta calidad de una placa original y han tenido acceso a un Apple 1 para lograr una copia casi perfecta. En mi caso opté por la PCB de Mike Willegal quien me la vendió directamente por 150 dólares y atendió mis dudas de una manera bastante cordial. Junto con la placa también compré la memoria ROM y la tarjeta de expansión para conectar un casete al Apple 1.

Bien, a partir de aquí, cuando dispongas de la PCB es preciso reflexionar donde te has metido… Digo esto porque el proyecto realmente empieza cuando se intenta localizar y adquirir componentes que ya no se fabrican, como los zócalos de Texas Instruments, los trafos de 125V. de Triad o los condensadores de Sprague… el teclado ASCII, las resistencias de carbón de ¼ de vatio o la mayor parte de los chips… Reconozcámoslo, puede parecer entretenido esto de ir rebuscando a través de Internet en almacenes de saldos pero resulta descorazonador. He llegado a comprar componentes en EE.UU., Canadá, Bulgaria, UK, Italia y China, y en ocasiones no eran lo que yo esperaba. Del coste económico… Prefiero no llevar la cuenta del dinero gastado para no asustarme. Cuando estoy a punto de arrepentirme me consuelo pensando que estoy construyendo un mito (aunque sea una vulgar copia) y pienso que el condensador que estoy soldando fue colocado antes por Wozniak y Jobs en el taller que tenían montado en un garaje. También anima consultar el manual y esquemas del Apple 1 comprados a una ONG benéfica y firmados por el propio Steve Wozniak. Lo sé, soy un poco friki, pero ha merecido la pena y por fin tengo un Apple 1.

Colección | Aficionados a la Electrónica (1) | Aficionados a la Electrónica (y 2)

Construcción de un Telégrafo

julio 4, 2020 on 11:29 am | In academia, colección, hist. telecomunicaciones | No Comments

En la presentación anterior daba unas pinceladas del funcionamiento de un circuito eléctrico y su aplicación en un telégrafo. Ahora, como segunda parte, es el momento de construirlo.

He intentado que los componentes y herramientas sean fáciles de conseguir. Quizás, el menos común, sea el manipulador telegráfico pero es posible comprarlo a través de eBay o Amazon por unos pocos euros. Evidentemente, para la construcción se requiere el uso de algunas herramientas que, potencialmente, son peligrosas como el taladro y el soldador. Por favor, tienes que ser prudente y, si no te sientes seguro usando la herramienta o conectando el telégrafo a tierra, pide ayuda a una persona con conocimientos. Es tu responsabilidad. Gracias.

Colección | Descargar presentación | Telégrafo y Telecomunicación

Telégrafo y Telecomunicación

junio 11, 2020 on 9:49 pm | In academia, colección, hist. telecomunicaciones | No Comments

A mi hija de 10 años le ha tocado estudiar los componentes básicos de un circuito eléctrico. Para quien no lo sepa es una lección más del temario de Ciencias Naturales de 5º de Primaria. Mientras repasábamos, noté que es dificil encontrar un circuito eléctrico básico a nuestro alrededor y, dejando a un lado el encendido y apagado de la iluminación o el secador de pelo, echaba en falta una aplicación donde analizar cada uno de sus componentes. Fue en ese momento cuando, sin poder evitarlo, recurrí a ingenios del pasado como el Telégrafo para ilustrar el tema de estudio. Mi hija me miraba sorprendida cuando le contaba la epopeya y adversidades de los primeros tendidos de cable submarino o las dificultadas para amplificar una ruta.

Alguna de estas explicaciones las puse en orden en un PowerPoint recordando a Samuel Morse. Lo sé, me emocioné un poco pero aquello era un ejemplo claro y práctico de un circuito eléctrico, además sentaba las bases de otra revolución de la humanidad: las Telecomunicaciones.

Colección | Descargar presentación| Construcción de un Telégrafo

Polaroid, la fotografía instantanea y Kodak (y 3)

febrero 28, 2020 on 9:58 am | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | A pesar de la cotidianeidad de su uso, las etapas de las que consta el proceso fotográfico tradicional han sido poco conocidos por el gran público. Incluso, dominar la física y controlar las reacciones químicas que hacían posible una foto de calidad, no estuvieron al alcance de la industria hasta bien entrado el Siglo XX. Por eso se suele decir que la perfección se empezó a acariciar a finales de los años 30 con la película Kodachrome de Kodak.

Si pudiésemos analizar detalladamente una película comprobaríamos que, en su escaso grosor, se identifican diferentes capas cada una de ellas con un desempeño concreto. Resumidamente, la primera de capa, la que está en contacto con el exterior, protege a la película de ralladuras o roces. A continuación identificamos tres capas sensibles a los colores básicos: la primera, al color azul y su copulante el amarillo, que es el color complementario que se representará en esta capa; sensibilidad al verde y su copulante magenta; sensibilidad al rojo y copulante cian. La penúltima evita el efecto halo, absorbiendo la luz que pueda “rebotar” en la capa de soporte y así volver a quedar registrada en las capas anteriores y, por último, una capa plástica que sirve de soporte a las anteriores. Para el registro de la luz se recurre a las propiedades físicas de la plata y sus compuestos, los haluros, y las reacciones de estos cuando interactúan con un fotón de luz. Tras la toma fotográfica debíamos entregar el carrete a un laboratorio para su posterior tratamiento químico que consistía, en primer lugar, en bañar la película fotográfica para revelar los puntos donde se ha registrado luz. Tras esta etapa inicial se sumerge la película en otro líquido con el que se fija la imagen revelada. El siguiente paso es lavar la película para que no queden rastros de los elementos fotosensibles que no han registrado luz. Llegados a este punto obtendremos una imagen en la película que, al observarla al trasluz, muestra una figura negativa e invertida: el negativo fotográfico. Ahora es el momento de trabajar en la reproducción de la imagen en un papel a diferentes tamaños. En este paso una ampliadora proyecta sobre sobre un papel fotográfico -y través del negativo- un haz de luz con los colores cían, magenta y amarillo. Este papel fotográfico también está formado por capas fotosensibles a los colores básicos antes citados y, de una manera similar a la película, la imagen queda registrada en él, tras lo cual es necesario revelar, fijar y lavar. Al finalizar estas etapas tenemos una fotografía impresa. Es importante recordar que, gracias al negativo, podremos hacer tantas fotos en papel como queramos.

Con el repaso anterior solo pretendo poner de manifiesto la complejidad y coste económico del proceso, su lentitud y poca fiabilidad y, sobre todo, la perdida de privacidad a la que se expone un usuario al depender de otras personas en el proceso de revelado fotográfico. Además, no quiero ni pensar en el impacto medioambiental producido en la fabricación y uso de los compuestos químicos. Dejando a un lado estas reflexiones, en 1947, la pequeña Jennifer Land, hija de Edwin Herbert Land (1909-1991) hacia una pregunta más sencilla donde cuestionaba la necesidad de esperar varios días hasta poder disponer de una foto en papel. Aquella pregunta tan inocente llevó a su padre –inventor años atrás del filtro polarizador- a replantearse todo el proceso y desarrollar una técnica lo suficientemente sencilla y compacta para que de una cámara fotográfica saliese, al instante, una fotografía en papel. Aquel sería uno de los hitos técnicos más importantes del Siglo XX y la razón por la que Polaroid se convirtió en una firma mundialmente conocida.

El concepto sobre el que se apoyaba la invención de Erwin Land era la transferencia química hacia una capa de papel de los colores que previamente habían quedado registrados en las capas sensibles a la luz. Esto, que parece fácil, requería desarrollar los agentes químicos involucrados y una forma de aplicarlos de manera controlada. Con esta idea en la cabeza Polaroid desarrolló su primera cámara de fotos, el modelo Land 95. Aunque era aparatosa y su manejo requería un poco de pericia, aquella cámara fue un éxito rotundo. Este primer modelo se cargaba con el conocido Picture Roll que constaba de dos carretes con los que se podían tomar ocho fotos. El primero de ellos era la película donde se registraba el negativo de la imagen y el otro de papel fotográfico. Al realizar la foto, el usuario estiraba del sándwich formado entre película y papel mientras un líquido reactivo se desplegaba entre ambos a la vez que se ejercía presión mecánica. Tras unos segundos de reacción química podíamos acceder a la foto de papel a través de una puertecilla posterior. Es importante recordar que este tiempo de reacción tenía que ser controlarlo porque influía en el contraste de la imagen recién tomada. A continuación, al extraer la foto, era necesario limpiar esta con un cepillo incluido en el Picture Roll eliminando restos de reactivos químicos y deteniendo cualquier efecto sobre la fotografía. Por último era recomendable alisar la foto para eliminar su abarquillamiento.

Durante la década de los sesenta, con el lanzamiento en 1963 de la serie Land 100, el concepto de foto instantánea se asentó. Esta máquina incluía mejoras en su óptica y simplificaba el proceso de carga y manipulación de la película fotográfica gracias al empleo de un cartucho llamado Pack Film. Este incluía ocho papeles fotográficos junto a sus respectivas capas sensibles y, entre ambos, los reactivos químicos. Tras cada disparo, para acceder a la foto, también era necesario estirar para extraer, llevar un control de los tiempos y separar manualmente el papel fotográfico de las capas sensibles. Aunque siga pareciendo un proceso engorroso, con la Land 100 se avanzó en la sencillez y rapidez lo que llamó la atención de numerosos profesionales de la fotografía que empezaron a usarla, antes de tomar una fotografía tradicional, como foto rápida para probar las condiciones de iluminación o encuadre. Incluso, el antes citado proceso de transferencia de imagen, empezó a ser aprovechado con fines artísticos porque era posible interferir en él y obtener unos resultados únicos, a veces de gran belleza y originalidad. Es preciso recordar que en esta serie de máquinas Paloraid introdujo la funcionalidad de obturador electrónico.

En los años sesenta Polaroid no era un gran rival para Kodak, incluso esta compañía era uno de sus proveedores de químicos y películas. En aquel momento la compra de una cámara Polaroid seguía siendo una opción minoritaria y fácil de desactivar comercialmente a menos que fueras un usuario muy selecto, artista gráfico, fotógrafo profesional u oficina de pasaportes en busca de inmediatez. Este statu quo cambio en 1972 con el lanzamiento de la Land SX-70. Aquella cámara fue fruto de años de desarrollo y con ella se simplificaba notablemente el proceso de revelado al instante. Tras encuadrar y pulsar el disparador, el usuario disponía de una foto donde, tras un minuto, comezaba a visualizar el resultado. Los Pack Films de esta cámara también contenían 8 papeles fotográficos y una pequeña batería con la que se alimentaba la electrónica y mecánica responsable de la expulsión automática de la foto. A su vez, cada papel de estas ocho fotos, contenía las capas sensibles a la luz, junto con la superficie donde quedaba impresa la foto y unos depósitos de agentes químicos reactivos apenas apreciables a simple vista. En resumen, todo en uno. Cuando pulsábamos el disparador, la mecánica de la foto hacia el resto y expulsaba el papel con un rodillo que ejercía presión a la vez que liberaba los productos químicos.

El eco comercial fue inmenso. Incluso artistas como Andy Warhol (1928-1987) presumían de su Polaroid SX-70 y su capacidad para captar momentos únicos. Gracias a aquellas fotos instantáneas se pudieron recoger situaciones cotidianas en la vida de grandes personalidades de la cultura pop que, normalmente, solo se conocían a través de una calculada foto de estudio.

La SX-70 de Polaroid había logrado redefinir el histórico eslogan de Kodak “Usted aprieta el botón, nosotros hacemos el resto”. Era cuestión de tiempo de que los de Rochester se girasen hacia este sector y que Polaroid se sintiese acosada. Por razones obvias, la óptica, mecánica y química tras la técnica de transferencia empleada por Polaroid apenas guardaba secretos para Kodak por lo que no tardó en lanzar su familia Instant en 1976. Algunos dicen que aquel producto fue la copia más descarada de la historia pero es cierto que incluía algunas mejoras, especialmente en su óptica. Desde aquel momento ambas empresas, como púgiles embravecidos, estuvieron dándose golpes en los juzgados durante 9 largos años. Al final un juez dio la razón a Polaroid y sentenció que Kodak cometió una violación de 7 de las 12 patentes y la condenó a indemnizar a Polaroid con 925 millones de dólares y retirar del mercado las máquinas Instant vendidas.

Aquella contienda judicial no impidió que Polaroid siguiese sacando modelos. De hecho, en 1977, presentó el icónico modelo 1000 con el que ponía la fotografía instantánea en manos de cualquiera. Esta cámara estaba construida en plástico y no tenía ninguna mecánica exterior salvo la interior que mueve y expulsa la fotografía. Evidentemente el coste de fabricación y su precio era más barato y accesible. Y qué decir de su aspecto y de los colores del arco iris que durante mucho tiempo han sido el símbolo de Polaroid… A la 1000 le siguieron otros modelos de aspecto parecido pero incorporando autofocus o flash.

En los ochenta Polaroid siguió manteniendo un negocio respetable con sus cámaras de fotografía instantánea pero afloraron importantes problemas financieros y organizacionales desde el fracaso de Polavision. Este sistema también fue presentado en 1977 y con él se pretendía trasladar el principio de instantaneidad al mundo de la filmación portátil. Polavision se posicionó como alternativa a la grabación Super 8 y supuso un gran esfuerzo de desarrollo técnico que no estaba alineado con la realidad comercial del momento ni marcaba un horizonte acertado en la evolución de la compañía. Además de los problemas técnicos a los que los tuvieron que enfrentarse sus usuarios, los tomavistas Polavision y su técnica de trasferencia, requerían una elevada iluminación exterior y carecían de grabación de sonido. Tampoco ayudaba nacer en un momento donde los sistemas de vídeo como Betamax o VHS ganaban en popularidad. Aquella crisis provocó la marcha de la compañía de Edwin H. Land en 1980 y se agravó con el importante agujero de deuda que afloró en el año 1988.

Como vemos las capacidades con las que Polaroid enfrentaba la nueva década eran limitadas. En otros textos he contado como los años ´90 fueron un periodo de transición donde muchas compañías desarrollaron el concepto digital y tomaron posiciones. Incluso Kodak aprovechó estos años para diversificar su negocio tradicional con soluciones como Photo CD, el tratamiento fotográfico digital o presentando algunas cámaras realmente revolucionarias. No así Polaroid que se declaró en bancarrota en el año 2001. A partir de ahí la historia es muy triste porque asistimos a la posterior declaración de quiebra en 2008 y el desmembramiento de la compañía incluyendo la colección de fotografías instantáneas que Edwin Land atesoró durante décadas gracias a la relación que mantuvo con los artistas que usaban sus cámaras. De aquella legendaria Polaroid apenas queda algo de valor salvo su marca. Ésta se ha venido licenciando como reclamo comercial por firmas desconocidas para vender productos tan diversos como televisores LCD, reproductores DVD, marcos digitales, gafas de sol o intentar relanzar la fabricación de Pack Films.

Colección | Kodak, química y vídeo (1)Fotografía digital y Kodak (2)

Fotografía digital y Kodak (2)

febrero 13, 2020 on 6:39 pm | In colección, hist. fotografía, vídeo y tv | 1 Comment

Adolfo García Yagüe | En 1985, tras el lanzamiento de la Sony Handycam, aparecen las primeras cámaras fotográficas con CCD. Son años donde compañías japonesas como Canon, Nikon, Casio y la citada Sony empiezan a liderar un mercado que, a diferencia con lo que sucede con el vídeo, no termina de ser masivo. Esta lentitud en la adopción obedece a su elevado precio, aparatosidad y pobre calidad de imagen en comparación a una fotografía convencional y, sobre todo, porque los usuarios seguimos queriendo tener fotos impresas. Ésta “querencia” al papel contrastaba con la necesidad de contar con un reproductor de Video Floppy Disk -o la propia cámara fotos electrónica- conectada a un televisor para poder presumir de vacaciones.

Es a principios de los ’90 del siglo pasado, coincidiendo con aquella lenta adopción de la fotografía digital, cuando aparece Kodak Photo CD, un servicio con el que Kodak pretendía seguir manteniendo las ventas de sus tradicionales carretes y ofrecer al usuario un CD con las fotos digitalizadas para que estas fuesen visualizadas en una televisión conectada a un reproductor Photo CD de Kodak. Eso sí, en la codificación digital de las fotos y su compresión se empleaba un algoritmo cuyo funcionamiento nunca fue divulgado por Kodak. Este modelo comercial, con el que Kodak pretendía mantener cautivos a sus clientes, fue efímero ante la bajada de precios de los escáneres, los CDROM grabables y empleo de la codificación y compresión JPEG.

En 1992, con la aparición de JPEG (Joint Photographic Experts Group), se disponía -por fin- de un estándar público que permitía bajar el tamaño de una fotografía. Aunque ésta compresión sacrificase detalles de una imagen y era de menor calidad que el estándar TIFF (Tagged Image File Format), desarrollado en 1986 por Aldus Corporation, era una alternativa de uso libre que terminó siendo adoptada por todo el mercado. Esta disminución del tamaño del fichero mediante JPEG o TIFF tenía dos aplicaciones claras que un usuario podía percibir. Por un lado era posible recurrir a sistemas de almacenamiento en la propia cámara con memorias de estado sólido, prescindiendo así de costosos sistemas mecánicos como el Video Floppy Disk. Por otra parte, aunque un poco lento, era posible hacer una transferencia de fotos entre la cámara y un ordenador a través de una conexión serie RS-232 abriendo la puerta al uso de herramientas software de edición fotográfica como Adobe Photoshop.

En esta lenta evolución de la fotografía digital era necesario contar con un visor electrónico que reforzase la inmediatez de esta tecnología. Para atender esta necesidad Casio presentó en 1995 la QV-10, convirtiéndose en la primera cámara fotográfica que disponía de una pequeña pantalla de cristal líquido (LCD) con la que era posible tomar una instantánea de lo que realmente se estaba visualizando en el LCD o revisar las fotos ya hechas. Como se demostró, este visor resultaba también de mucha utilidad al informar a través de él de detalles técnicos de la foto o de la configuración de la propia cámara.

Si los cambios anteriores fueron seguidos de manera unificada por todos fabricantes, con las memorias y sistemas de almacenamiento hubo menos consenso. A esta conclusión es fácil llegar tras echar un vistazo a aquellos años. Por un lado vemos como en 1995 Ricoh se adelantaba presentando una cámara fotográfica con capacidad para grabar video y tarjeta PCMCIA de memoria Flash de Intel de 4Mb y, en el polo opuesto, comprobamos como en 1998 las máquinas Mavica de Sony basaban el almacenamiento de sus fotos en un diskette de 3” ½ de 1,4Mb. Y ya, en el colmo de querer imponer sus estándares, Sony sorprendió a todos presentando en octubre de 1998 la tarjeta Memory Stick, cuando la batalla por el futuro del almacenamiento ya se dirimía entre el formato CompactFlash (SanDisk) y SmartMedia (Toshiba).

Aquella apuesta por discos flexibles que Sony hacía en la serie Mavica solo se podía explicar si se pensaba en la necesidad de comunicar de una forma rápida la cámara de fotos con un ordenador y no depender así de la lentitud del RS-232 ya que, este disquete, al poder ser formateado con una estructura de archivos compatible con MS-DOS, podía ser leído por cualquier ordenador personal. Aquel uso de los diskettes evidenciaba que era necesario mejorar la comunicación entre ordenadores y dispositivos multimedia, entre los que se encuentran las cámaras de fotos y los incipientes reproductores MP3, y es la razón por la que aparecieron dos interfaces de conexión que venían a relevar al viejo RS-232. FireWire, el primero de ellos, fue presentado por Apple en 1995 para transferir archivos a una velocidad de hasta 400Mbps e inmediatamente fue adoptado por los fabricantes de cámaras de vídeo MiniDV y normalizado como IEEE 1394. Aunque fue seguido por muchas compañías, sus patentes y su licenciamiento eran caros. Es por eso que al año siguiente, en 1996, se desarrolló el interface USB (Universal Serial Bus) por un consorcio de compañías entre las que destacaban Intel, Compaq, Microsoft e IBM. Como vemos, poco a poco se iba dando forma a lo que hoy es básico en cualquier cámara digital.

Eran años en los que Kodak era protagonista de estos cambios con sus cámaras digitales pero sin desatender su negocio tradicional. De hecho, el 14 febrero de 1997, el precio de sus acciones alcanzó su máximo histórico. ¿Con semejantes datos, qué Consejo de Administración es capaz de intuir lo que sucedería en los años siguientes? No obstante la situación era engañosa y lanzamientos de cámaras como la DC 260 (disponía de USB y memoria CompactFlash) y los ranking de ventas de cámaras digitales en EE.UU. -que le situaban entre los primeros puestos- eran un espejismo tras él que se escondía una organización de 86.000 personas de las cuales, un porcentaje muy alto, se dedicaba a la industria química de la fabricación y procesado de carretes. Es decir, gran parte de su tamaño, instalaciones y equipo directivo dependía de un ecosistema -la foto tradicional- y ante cualquier cambio en ese mercado sería imposible sustentar a la compañía. Así pasó. Por un lado el uso de la fotografía tradicional se empezó a resentir unido a la presión competitiva de compañías como FujiFlim. Por otra lado, en la fotografía digital era difícil innovar y diferenciarte sin ser Sony, Nikon o Canon.

En estos casos no es fácil tomar decisiones acertadas pero, quizás, en los ’90, Kodak tendría que haber tomado la iniciativa de desinversión ordenada en fotografía tradicional, y décadas antes poner en marcha una nueva Kodak -con otro equipo gestor- que no estuviese tan influenciado por el legado de éxitos pasados y ajeno al conflicto de intereses con el negocio histórico. Sólo así, con esta separación organizativa, se hubiese podido valorar y desarrollar adecuadamente la introducción en el mundo de la televisión y del vídeo en los años sesenta del siglo anterior; o dar continuidad a una invención como la cámara fotográfica con CCD en 1975; acertar en los ochenta en la correcta introducción en el mercado de las videocámaras o ya, en el principio de la década de los ’90, con Photo CD, las nuevas cámaras o la impresión digital. Una vez más a Kodak le faltó dar continuidad a una buena idea inicial, como en su entrada en Internet al comienzo del Siglo XXI con la compra de la plataforma Ofoto. O el error de haber litigado con Apple, Samsung, HTC o RIM (Blackberry) en el 2010 por la propiedad intelectual de la representación de imágenes en un teléfono móvil, cuando hubiese sido más acertado aproximarse amistosamente a estos y otros fabricantes de telefonía para introducir su conocimiento en fotografía. Fijaros que en cada década cometieron un error con un impacto trascendental… por todo ello Kodak acabó declarándose en bancarrota en enero del 2012.

Colección | Kodak, química y vídeo (1) | Polaroid, la fotografía instantanea y Kodak (y 3)

Kodak, química y vídeo (1)

enero 30, 2020 on 5:58 pm | In colección, hist. fotografía, vídeo y tv | No Comments

Adolfo García Yagüe | Hay veces que toda una industria y los principios que la sustentan cambian y, en ese momento, quien era líder de un sector languidece en favor de compañías más humildes o desconocidas. Esos cambios -que rara vez son súbitos- son fáciles de analizar desde la perspectiva que da el tiempo para encontrar una explicación que ponga algo de cordura a lo sucedido. No obstante, cuando el cambio se está produciendo, los Consejos de Administración y sus analistas más sabios no suelen ponerse de acuerdo en lo que pasa y rara vez, la compañía hegemónica afectada, es capaz de valorar el riesgo al que se enfrenta y así reaccionar a tiempo. Esto es lo que pasó con la industria fotográfica y cinematográfica basada en procesos químicos y Kodak.

En 1888 George Eastman (1854-1932) patentaba un sistema que revolucionaría la fotografía y poco después puso en marcha una empresa para comercializarlo: la Eastman Kodak Company. Hasta aquel invento el arte de fotografiar resultaba complejo y lento al requerir la manipulación de delicadas placas de cristal impregnadas en productos químicos que registraban una imagen. El invento de Eastman se basaba en una cinta de papel ya tratada químicamente, enrollada en un carrete, con la que era posible sacar hasta 100 fotos. Este carrete se vendía junto con la cámara de fotos y, al concluir el trabajo fotográfico, se entregaba la cámara a Kodak -con el carrete en su interior- para que fuese revelado en papel. Con el fin de simplificar y abaratar este proceso, en 1910 se estableció como estándar un carrete extraíble de película fotográfica inventado por el alemán Oskar Barnack (1879-1936), que a su vez derivaba de una película de celuloide de 35mm de anchura empleada en el Quinetoscopio de William Dickson (1860-1935) y Thomas Edison (1847-1931). Aquel carrete extraíble permitió desligar película y cámara facilitando así el desarrollo de otros fabricantes de máquinas fotográficas, de esta época son especialmente relevantes las cámaras de la alemana Leica (1913) o la japonesa Nippon Kōgaku Kōgyō Kabushikigaisha (1917), posteriormente renombrada como Nikon.

Así mismo, el proceso de revelado se fue abriendo para que ciertos establecimientos autorizados por Kodak lo realizasen. A cambio estos laboratorios estaban obligados a emplear los productos químicos y carretes de 35mm de esta firma. Este compromiso con Kodak era una forma de frenar la entrada de Agfa (Alemania) o la japonesa Fuji Photo Film. Existía competencia pero Kodak podía presumir de una posición dominante en los mercados fotográfico, cinematográfico e incluso en el médico con las radiografías. En este sentido merece la pena recordar que no fue hasta 1955 cuando un tribunal de EE.UU. sentenció que Kodak debía hacer público el proceso aplicado al revelado de sus películas Kodachrome y no incluir –en un carrete vendido en EE.UU- el precio del revelado para que así el usuario tuviera otras opciones.

A pesar de los conflictos judiciales y del incremento de la competencia, Kodak y el resto de compañías se encontraban cómodas en su mercado y atesoraban un control absoluto de su ciencia básica. Aparecieron cámaras legendarias como las de la propia Kodak o las de las compañías antes citadas; la película de cine incorporó sonido; color gracias a Technicolor e incluso Polaroid inventó la fotografía instantánea y la película Kodachrome de Kodak era sinónimo de calidad absoluta. En grandes producciones se podía filmar en 70mm para ofrecer mayor calidad de imagen y, para trabajos de aficionados y profesionales de la información, se podía recurrir a formatos más portables y cómodos como 16mm, 8mm o el entrañable y familiar Super 8. Se puede decir que desde su invención, un siglo antes, el cine y la fotografía basada en procesos químicos y físicos alcanzaron la cúspide de la perfección.

En la década de los ’50 del siglo pasado la televisión no podía competir con la calidad de imagen ofrecida en una filmación en 35mm. Quizás fue la época cuando los grandes colosos de la imagen, entre ellos Kodak, llegaron a la conclusión que la ciencia de la captación de imágenes mediante un tubo de vacío llamado Iconoscopio ofrecía poca calidad y que aquello resultaba ajeno a su negocio principal y no merecía la pena ser tomado en consideración. Incluso, a pesar de que los primeros sistemas para el registro de imágenes de televisión, o Kinescopios, estaban basados en una película de 35mm y una cámara Kodak, cuando aparecieron las cintas magnéticas esta compañía volvió a infravalorar la electrónica y no supo entender su potencial.

Aunque ya se conocían los semiconductores o electrónica de estado sólido, la captación de imágenes dependía de un tubo de vació llamado Iconoscopio inventado en RCA (Radio Coporation of America) en 1931 por Vladimir Zworykin (1888-1982) y, posteriormente, el Orticón y el Vidicón, desarrollado también en RCA en 1950 por Paul Weimer, Stanley Forgue y Robert Goodrich, o sus mejoras como el Plumbicón (Philips), Saticón (Thomson) o Trinicón (Sony). De igual forma, para la representación de imágenes en una pantalla electrónica, se recurría a pesados tubos catódicos de cristal. Y por último, para la grabación del vídeo, se contaba con magnetoscopios de bobina de cinta magnética. Como podemos comprobar el paisaje tecnológico cambiaba radicalmente y, para una empresa que llegase desde la fabricación y venta de productos químicos y carretes fotográficos, aquello era todo un desafío por su complejidad. Aun así, la mayoría de las compañías que operaban en el mercado tradicional de la fotografía gozaban de mayor capitalización y tamaño y, si hubiesen querido, podrían haberse hecho un hueco a través de la absorción de empresas electrónicas.

En los años 50 y 60 del siglo asistimos al desarrollo de compañías que lograron hacerse un hueco en este nuevo mercado. Compañías como Sony y la también japonesa JVC (Japan Victor Company), en sus orígenes subsidiaria de la americana Victor Talking Machine, carecían del tamaño y reconocimiento de compañías occidentales como RCA o Philips pero, a pesar de esta inferioridad, se ganaron el reconocimiento con grandes productos para visualizar vídeo (televisores), captar (videocámaras) o grabarlo (magnetoscopios).

Al finalizar la década se precipitó la innovación en este sector con la invención en 1969 del sensor CCD (Charge-coupled device) por Willard Boyle (1924-2011) y George E. Smith (1930), de los Laboratorios Bell, y su comercialización al año siguiente por Fairchild. Con el CCD se abría la puerta al registro de una imagen a través de un dispositivo semiconductor, de menor consumo eléctrico, mucho más pequeño y resistente que un tubo vidicón. Por otra parte, Sony presentaría el mismo año el sistema profesional U-Matic y en 1975 el sistema Betamax para uso doméstico, ambos sistemas de grabación estaban basados en casetes de cinta magnética mucho más cómodos y menos aparatosas que las bobinas de cinta. Con cierta similitud en su aspecto, pero más flexible en su licenciamiento por otras compañías, en 1976 JVC lanzaría al mercado el sistema VHS (Video Home System).

En los años sucesivos se mejoró y disminuyó el tamaño de grabadores y cámaras Beta y VHS. Sin embargo, la adopción del CCD en las cámaras fue lenta al no ofrecer la misma calidad de imagen que un tubo vidicón, quedando relegado a aplicaciones muy concretas como los primeros escáner, OCR (reconocimiento óptico de caracteres) e inspección industrial. Es por eso que sorprende conocer que Kodak fue el primer fabricante que construyó un prototipo de una cámara fotográfica basada en CCD. En efecto, en 1975, el joven Steven J. Sasson (1950) empleó un CCD de Fairchild de 100×100 pixel y un grabador de casetes para montar una cámara que registraba imágenes. Cada imagen tardaba 23 segundos en ser grabada y aquel hito pudo haber sido el comienzo de algo mayor, sin embargo, no despertó el suficiente interés de Kodak. En cambio Sony abrió una decidida línea de trabajo y presento en 1981 un prototipo llamado Mavica (Magnetic Video Camera), también basado en CCD, donde una cámara fotográfica entregaba una señal de vídeo que era grabada en un disquete de 2 pulgadas conocido como Mavipak y más tarde rebautizado como Video Floppy Disk.

A lo largo de los ’80 fueron apareciendo videocámaras que disminuían su tamaño a la vez que integraban en un mismo elemento la unidad de grabación con la de captura. De esta forma hablamos de cámaras autocontenidas o Camcorder que operaban sobre el hombro del usuario. Una vez más fue Sony con su legendaria Betamovie BMC-100P (1983) y JVC con la icónica GR-C1 (1984) -usada por Marty McFly en la película Regreso al Futuro– eran quién marcaban tendencia sobre el resto de competidores del mercado doméstico. Es importante destacar que ambas cámaras seguían basadas en un tubo de vacío similar al vidicón para la captación de la imagen.

Fue en el año 1984 cuando Kodak, en un intento de hacerse un hueco en el creciente mercado de las cámaras de vídeo y dar continuidad a sus éxitos en el mundo del Super 8, presentó la Kodak Vision Series 2000. Ésta cámara fue diseñada y fabricada en Japón por Matsushita y nos recuerda que, a pesar de los grandes productos que allí se hacen, hay veces que la estética y usabilidad difiere de los estándares occidentales. Este comentario tiene que ver con el extraño repositorio o cradle -con aspecto de reproductor de video- donde era necesario introducir la cámara para poder conectarla a una televisión y así ver el vídeo. Rarezas aparte, esta cámara presentaba el novedoso sistema de almacenamiento en videocasetes de 8mm y estaba basada en CCD. Al año siguiente todo cambiaría con el lanzamiento de la Sony Handycam Video 8 CCD-M8u. Su portabilidad la convirtió en la primera cámara de mano pero seguía necesitando un reproductor externo para visualizar el material grabado. Empleaba CCDs y los mismos casetes de 8mm antes citados a los que Sony denominó Video 8. A partir de este producto se produjo una evolución en las capacidades de las videocámaras, en especial la posibilidad de reproducir vídeo, el uso de CCDs de mayor resolución y la grabación en sistemas Hi8 y S-VHS. El gran salto en el mundo domestico llegaría en 1995 con el sistema MiniDV y la plena digitalización de la captación del vídeo, su procesado y grabación.

ColecciónFotografía digital y Kodak (2) | Polaroid, la fotografía instantanea y Kodak (y 3)

 

Página siguiente »


(c) 1999-2021 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress