Sonikas 15, el 23 de diciembre

diciembre 11, 2017 on 7:42 pm | In arte sonoro, sonikas | No Comments

Muchos de vosotros nos habéis preguntado si este año había Sonikas. Ante esa pregunta solo podíamos encogernos de hombros y os recordábamos que dependíamos de la ayuda del Ayuntamiento de Madrid y que, hasta última hora, no conoceríamos su veredicto… Cómo sabéis casi siempre vamos al límite y seguimos queriendo mantener la gratuidad del evento.

Pues bien, por fin os podemos anunciar que este año habrá Sonikas. Será la edición número quince y -por la razón antes comentada- nos vemos obligados a preparar un festival a contra reloj, pero no por ello de menor calidad.

La cita tendrá lugar el día 23 de diciembre, sábado, en el Centro Cultural Lope de Vega, en la calle Concejo de Teverga. Ya sabéis, en el barrio de Entrevías, donde nos vimos el año pasado.

Serán cuatro artistas en un solo día, como en las primeras ediciones. Empezaremos a las 19:00h y estarán con nosotros Nad Spiro, Af Ursin, EatingRoof y Valerio Tricoli.

Nos vemos pronto y gracias por vuestra paciencia.

[+ info www.ccapitalia.net/crc]

Generaciones (y 2)

noviembre 26, 2017 on 6:24 pm | In galería de imágenes, informática, retroinformática | 1 Comment

Tercera Generación
Adolfo García Yagüe | El transistor planar, nacido en la generación anterior, dejaba claro que era posible construir un dispositivo semiconductor en dos dimensiones empleando técnicas fotolitográficas. Se abría así la puerta a la invención del chip. El circuito integrado, chip o microchip será el protagonista de esta generación permitiendo reunir, en un único substrato físico de unos pocos milímetro cuadrados, numerosos componentes entre los que se encuentran aquellos de naturaleza semiconductora (transistores y diodos), y los de tipo tradicional como las resistencias, condensadores y bobinas. Poco a poco la técnica, basada en la impresión del fotolito del circuito a fabricar, se fue refinando y permitió aumentar la escala de integración. Así, hablamos de SSI para referirnos a una baja escala de integración que va desde los 10 a los 100 transistores (Small-Scale Integration), estamos en 1964. MSI en 1968 (Medium-Scale Integraion) de 101 a 1.000 transistores; LSI en el 71 (Large-Scale Integration) de 1.001 a 10.000; en 1980 VLSI (Very Large Scale Integration) de 10.001 a 100.000 transistores; ULSI en 1984 (Ultra-Low-Scale Integration) de 100.001 a 1.000.000; y GLSI (Giga-Low-Scale Integration) más de un millón de transistores.

Al igual que su predecesor, el circuito integrado tiene muchos progenitores que nos recuerdan su trabajo. Desde las primeras patentes del alemán Werner Jacobi (1904-1985) de Siemens, hasta el inglés Geoffrey Dummer (1909-2002). Pero, sin duda, el punto de inflexión se produce por el trabajo de los americanos Jack Kilby (1923-2005) (Texas Instruments) y Robert Noyce (1927-1990), este último trabajaba en la mencionada Fairchild y es uno de los que trabajó con William Shockley.

Los circuitos integrados no tardaron en emplearse en la construcción de ingenios aeronáuticos. Realmente el mundo militar fue uno de los primeros clientes ya que se simplificada el diseño, el peso y tamaño. La industria de los ordenadores rápidamente se convirtió en un usuario fiel del nuevo componente. En este punto, y en esta generación, es obligado mencionar a IBM y su Sistema 360. En él se emplearon masivamente los circuitos integrados y unos módulos de circuito impreso que le dotaban de gran flexibilidad (Solid Logic Technology). Además, el Sistema 360 de IBM, representaba un antes y un después en todo lo que había. Conceptos como virtualización de máquinas, arquitecturas de red, tiempo compartido y compatibilidad dentro de la familia, nacían con él. Este ordenador, y sus descendientes, se convertirán en el estándar para las grandes compañías y será el gran rival de otros fabricantes.

La proliferación de circuitos integrados y sus respectivos fabricantes hacía necesaria la estandarización de estos. En pocos años el mercado estaba inundado por el nuevo componente y resultaba difícil -por no decir imposible- buscar y encontrar un repuesto o circuito integrado equivalente. No se pretendía que para cualquier componente hubiese una segunda fuente pero, al menos, para aquellos más básicos era deseable. Tampoco facilitaba el hecho de que cada fabricante manejara un encapsulado distinto, muchas veces heredado del transistor. Era necesario establecer un encapsulado común y, sobre todo, sentar las bases de unas familias lógicas que normalizasen las funcionalidades más comunes.

Esta es la razón por la que en esta generación aparecieran las familias lógicas TTL 7400 de Texas Instruments (Transistor-transistor Logic), la CMOS 4000 de RCA (Complementary Metal-oxide-semiconductor), y el encapsulado DIP (Dual in-line package) inventado dentro de Fairchild en 1964.

 

Cuarta Generación
El núcleo de conocimiento de la pujante Fairchild estaba formado por ingenieros y científicos que habían trabajado con William Shockley. Se notaba que algo dentro de Fairchild era diferente a las demás compañías. Sólo había que comprobar su protagonismo y el número de innovaciones que lanzaban al mercado. Realmente “la Fairchild” que conocemos era un apéndice que una compañía mayor fundada en 1927 y dedicada a fabricar diverso material para el ejército, destacando sus cámaras de fotografía aérea. Aquello de montar una división de componentes semiconductores y, sobre todo, tener éxito, era un regalo para su fundador Sherman Fairchild (1896-1971). También influía que en la exitosa división de semiconductores participaba un fondo de inversión que daba cierta libertad a los genios de la recién fundada.

Aquello no era suficiente y, para el siguiente paso, era necesario ser el dueño de tu propia compañía. Así es como nace Intel de la mano de Gordon Moore (1929) y Robert Noyce. Un poco más tarde se uniría a ellos Andrew Grove (1936-2016), procedente también de la legendaria Fairchild.

Lo que pasó en aquellos años en Intel fue trepidante. Se trataba de identificar “nichos” y ahí innovar con todas las fuerzas. Uno de esos nichos era la memoria ya que, a finales de los años sesenta, aún se seguía dependiendo de las memorias de ferrita. Comparadas con los circuitos integrados, parecía anacrónico seguir usando las complejas, costosas y delicadas memorias. Ese fue el primer golpe de efecto de Intel. Con solo unos meses de vida, en 1969, pusieron en el mercado una diminuta memoria de encapsulado DIP -la 3101- que ofrecía 64 bit al mercado. En el mismo año lanzaron otro producto llamado 3301. Esta vez se trataba de una memoria de solo lectura, grabable (ROM), de 1.024 posiciones. También en el año 1969, comercializaron la 1101 como la primera memoria RAM de 256 bit. Al año siguiente, Intel presentó la famosísima 1103, una memoria RAM dinámica de 1.024 posiciones que supuso el abandono definitivo de los núcleos de ferrita. Por último, en el año 1971, cuando se empezaba a configurar una nueva generación, Intel presentaría la primera memoria ROM que podía ser borrada con rayos ultravioletas y reutilizada (vuelta a grabar), la EPROM 1701. Resultaba indiscutible que el “nicho” de Intel en aquellos primeros años era la memoria.

Estas memorias, junto a las familias TTL, ponían en evidencia lo que algunos empezaban a soñar y está relacionado con la libertad y facilidad para diseñar algo… En este clima, la empresa de calculadoras japonesa Busicom se acercó a la incipiente Intel con una petición muy concreta: Queremos seguir fabricando calculadoras y necesitamos ser competitivos. Para ello necesitamos poner el mercado varios modelos de calculadora y queremos evitar tener que rediseñar las funcionalidades de cada calculadora y su montaje. Por lo tanto, queremos algo que permita programarse y limite las posibles funcionalidades. Más o menos esta era la petición de Busicom e imagino que no sonaba extraño a los de Intel. Si os dais cuenta están pidiendo algo que interprete software sobre un hardware estándar. Deseaban “desacoplar” el costoso diseño hardware de la evolución del producto… Necesitaban algo programable. Necesitaba un Microprocesador.

En cualquier máquina antigua era fácil identificar -visualmente- la mastodóntica unidad lógica y aritmética, sus buses y registros de memoria, entre otros. Ya que la tecnología de integración LSI lo permitía, la idea de Federico Faggin (1941), ex de Fairchild, consistía en reunir la mayoría de estas “cajas” en un único chip, y ofrecérselo a Busicom. Es decir, un circuito integrado capaz de ser programado por software. Así es como Intel sacó de sus laboratorios el Microprocesador 4004, el primer micro de la historia. Corría 1971.

Aunque era tremendamente humilde, el 4004 inauguraba la cuarta generación. Apenas podía ser usado más allá de aplicaciones muy específicas, como las calculadoras. Aun así, el hecho de ser programable, abría la puerta a futuros e inmediatos desarrollos más capaces y, sobre todo, a una nueva era que todavía dura. Al 4004 le siguió el 4040 y, conscientes de su limitación para ser usado por un ordenador, apareció en el año 1974 en Intel 8080.

El 8080 fue una auténtica revolución. Junto al resto de chips inventados años antes, permitía fabricar un ordenador a cualquier aficionado a la electrónica…

A partir de aquí podemos alargar la historia citando más generaciones. Podemos meter al PC de IBM, la inteligencia artificial, etc. En efecto, son cosas importantes y marcan un antes y después pero, la realidad, es que nos alejamos de lo sustancial que es cómo funcionan los ordenadores. Al microscopio, a fin de cuentas, un Core o un ARM no se diferencian tanto del veterano 8080.

[Generaciones (1) | ver más imágenes]

Generaciones (1)

noviembre 26, 2017 on 6:02 pm | In galería de imágenes, informática, retroinformática | 1 Comment

Adolfo García Yagüe | Resulta imposible leer sobre la historia de la informática y no toparse con el término “generaciones”. Con esta expresión nos referimos a las etapas que han marcado la evolución y utilización de un nuevo componente en la fabricación de ordenadores. Lógicamente, como no podía ser de otra forma, la existencia de una nueva técnica, innovación o componente, suele alumbrar otras invenciones. Me refiero, por ejemplo, al hecho de que el uso de Circuitos Integrados permitió la fabricación y la miniaturización de una nueva generación de ordenadores pero, además, facilitó la invención de la Unidad de Diskettes.

Empezamos pues en lo que había al comienzo, antes de la Primera Generación. Como hemos visto en otros artículos las primeras máquinas eran mecánicas. En su interior había innumerables relés que se encargaban de hacer las operaciones lógicas. El relé era conocido desde los tiempos del telégrafo y se inventó para “relevar” el debilitado impulso eléctrico a lo largo de los tendidos de cable. Fue inventado en 1835 por el americano Joseph Henry (1797-1878) y era usado, como he dicho, como “amplificador” de estas líneas. Los técnicos se percataron de que el relé facilitaba el control de la conmutación y no se tardó en elucubrar una central telefónica “automática” donde, para poner en contacto a dos personas, no medie un operador (esto pasó a principios del siglo XX). En esa época un afamado ingeniero español, Leonardo Torres Quevedo (1852-1936), venía trabajando con las maquinas analógicas mecánicas y se dio cuenta de las posibilidades del relé al construir autómatas que tenían que tomar alguna decisión lógica ante un evento. Se adelantó a su tiempo y en 1914 presentó un tratado llamado “Ensayos sobre automática”.

Torres Quevedo fue lo que consideraríamos hoy como un sabio, y aunque era una figura reconocida dentro y fuera de España, la construcción de un autómata no era su prioridad técnica y el mundo, en ese momento, estaba más interesado en sus grandes dirigibles y, por su puesto, en el transbordador con el que se cruza las cataratas del Niágara.

No fue hasta el año 1937 cuando un científico –de la Bell Telephone– llamado Claude Shannon (1916-2001), abordó matemáticamente el estudio de los circuitos de relés. Realmente no es un tema trivial para un constructor de centrales telefónicas y, cuantos más usuarios hay en la “red de relés” es más difícil poner en contacto a dos personas y no perjudicar al resto. Es decir, establecer el circuito y no afectar a otro que ya comunica a dos personas… Mientras Shannon investigaba en la lógica de citadas redes, su colega de la Bell, George Stibiz (1904-1995) fabricaba –en la cocina de su casa- una calculadora basada en relés. Shannon publicaría, en 1938, el famoso artículo llamado “Análisis Simbólico de Relés y Circuitos de Conmutación” y Stibiz demostró que era posible la construcción de un ordenador útil con relés. Los trabajos de Stibiz y Shannon no dejaron indiferente a nadie y, este momento, la Universidad de Harvard e IBM se ponen a trabajar en lo que sería el Mark I. Por su lado, en la Alemania de 1938, Konrad Zuse (1910-1995) construía su máquina Z1 basada en relés.

Como he dicho, el texto de Shannon y el Mark I pusieron tras la pista a más de uno. El mundo estaba en vísperas de la Segunda Guerra Mundial y se necesitaba una máquina de mayor capacidad, precisión y, sobre todo, rapidez. Así es como nace ENIAC (EE.UU.) y Colossus (Reino Unido). Será la necesidad militar la que “impulse” el desarrollo de los primeros ordenadores basados en válvulas de vacío. Es decir, de la primera generación.

 

Primera Generación
La válvula fue inventada en 1904 por el británico John Ambrose Fleming (1849-1945) a partir de un fenómeno descubierto -pero no entendido, ni aplicado- por Thomas Alva Edison (1847-1931). Fleming, inventó y patento, el tubo de vacío como diodo y descubrió su capacidad para rectificar la corriente alterna a continua. Esta capacidad de rectificación ya se conocía y se empleaban componentes de selenio. Mientras esto sucedía, el americano Lee De Forest (1873-1961) introducía una “rejilla” polarizada entre el cátodo y el ánodo del diodo, dando lugar al tríodo. Aunque parezca mentira, las aplicaciones de este tríodo -recién inventado- son muy numerosas e introdujo a la humanidad en la era de la electrónica.

Resumidamente, la válvula permite controlar un flujo de electrones dentro de un medio gaseoso a baja presión. Estos gases, o el vacío, hacen que sea necesario confinarlos dentro de una ampolla de cristal cerrada herméticamente. Por “control” nos referimos a la amplificación, modulación y conmutación del citado haz de electrones. Ese “chorro” de electrones se genera en el cátodo cuando el filamento (a su lado) alcanza la incandescencia (de 900 a 1000 grados centígrados). Normalmente un filamento se polariza a un voltaje relativamente bajo, de 6,3V -en alterna- pero con una intensidad alta, de 1,2 amperios. En cambio, el control de los citados electrones dentro del tubo requiere tensiones mucho más altas que pueden llegar a más de 100 voltios. Pese a esas dificultades técnicas, derivadas de la alta temperatura, su tamaño y el consumo eléctrico, se han construido numerosas máquinas basadas en tubos de cristal, incluyendo los primeros “cerebros electrónicos”.

De este capítulo el más conocido -por ser el más publicitado- fue el ENIAC. No obstante, hace unos años, el Reino Unido hizo público que usó durante la II Guerra Mundial un ordenador llamado Colossus para descifrar los códigos alemanes. Aquellas máquinas eran grandes calculadoras programables mediante conexiones que facilitaban la toma de decisiones de los militares. Todavía no eran programables con algún tipo de lenguaje.

Por parte de IBM, sus tabuladoras mecánicas evolucionaron hacia el empleo de válvulas. Tras la contienda, destaca el nacimiento de la firma UNIVAC quién construirá el primer ordenador comercial, multipropósito y programable. En su origen, UNIVAC fue una compañía dirigida por John Presper Eckert (1919-1995) y John William Mauchly (1907-1980) quienes, años antes, estaban al frente del ENIAC. Se inicia así la competición entre fabricantes.

Esta primera generación nos dejó innovaciones que ahora consideramos básicas, como el almacenamiento masivo y la programación en ensamblador. Quizás, el libro que mejor resume esta época es “High-Speed computing devices”, publicado en 1950. Obviamente las revistas de la época se hacen eco de lo que sucede. En particular Radio Craft, más tarde denominada Radio-Electronics y enfocada en la electrónica, la incipiente televisión, la radio y, como no, los radioaficionados. No debemos olvidar que son años donde la válvula de vacío es muy común y representa la pieza central de cualquier aparato electrónico.

En un plano más cercano, las calculadoras mecánicas evolucionaron tímidamente al uso de las válvulas. A pesar de que ya se conocía como debían estar construidas, la adopción de este invento por parte de los fabricantes fue muy tardío y apenas unos pocos se animaron. El caso es paradójico porque, en la fecha que -por fin- se usó la válvula, ya estábamos metidos en la segunda generación.

 

Segunda Generación
La válvula funciona, incluso funciona tan bien que hoy en día se sigue empleando en algún dispositivo. No obstante, dejando a un lado su uso actual en la amplificación audio “sibarita” y en algunas etapas de radiofrecuencia, ya no es un elemento de uso masivo. Como decía arriba la válvula impone importantes condicionantes técnicos. Alguno de ellos tiene que ver con el tamaño y el calor que desprenden. También su fragilidad, al tratarse de un elemento de cristal, sin olvidar de su precio. Es evidente que un ordenador de la primera generación necesita muchas válvulas, y estás fallan de vez en cuando, es muy grande y consume mucho.

Era una necesidad buscar algún material que permitiese, de una manera fácil, el control de los electrones cuando pasan a través suyo. Aquel material existía y se conocía dicho fenómeno, se trataba del Germanio y su propiedad llamada “semiconducción”. Este elemento químico que está presente en la tabla periódica no es de fácil obtención. Como digo, aunque era conocido, había que conseguirlo, purificarlo y hacer algo útil con él. Posiblemente, alguna de estas razones, hizo que no se inventara antes de transistor. John Bardeen (1908-1991), Walter Brattain (1902-1987) y William Shockley (1910-1989) profundizaron es su su propiedad semiconductora, como alternativa a una válvula. Se estudió a fondo y se construyó el transistor en 1948. Una vez más, fue en los laboratorios Bell y los implicados fueron reconocidos con el premio Novel en 1956. Rápidamente, para la construcción de los mencionados transistores, se usó Silicio en lugar de Germanio. Este elemento es más abundante, más barato y, además, sus propiedades semiconductoras son mejores.

El uso de transistores representa una auténtica revolución. A diferencia de las válvulas, es un componente resistente y pequeño, muy barato y, a la hora de diseñar, se simplifica enormemente este. Con las citadas propiedades a tu favor no es de extrañar que el uso de transistores hay permitido máquinas más rápidas, baratas y potentes. En cualquier caso, no todo es perfecto…

La citada imperfección reside en que el transistor, como lo vemos a través nuestros ojos, es un elemento con “volumen”. Es decir, aunque es muy pequeño, tiene tres alambres o patitas y un cuerpo que le da forma. Se puede ver y tocar. Esta necesidad de tamaño y la conexión de las mencionadas patas al elemento semiconductor hacen difícil reunir un buen número de transistores en un mismo circuito. Los científicos e ingenieros eran conscientes de esta limitación pero -de la forma habitual- no parecía tan evidente pasar un objeto 3D (el transistor y sus respectivas patitas), con forma y volumen, a algo totalmente plano.

Hay numerosos padres y compañías que se atribuyen alguna parte de la paternidad del transistor planar pero, el mayor mérito, corresponde a Jean Hoerni (1924-1997) de la compañía Fairchild. En aquel tiempo había mucha innovación alrededor de los semiconductores por eso el número de compañías, nombres y patentes es muy largo y, sin pretenderlo, se produce una innovación colaborativa. Esto es, uno puede inventar la técnica para fabricar pero el siguiente, que es de otra compañía, inventa el producto. Así ha pasado con los transistores y los semiconductores en general. La nube de patentes que hay detrás de un producto es inmensa y es obra de personas y compañías diferentes.

El transistor nos dejaría ordenadores más grandes y potentes pero, sobre todo, hizo posible que estos se programen en lenguajes de alto nivel. Es decir, lenguajes con sentido para los humanos. Así es como nacieron los legendarios FORTRAN y COBOL. El primero fue inventado a medida de los ingenieros y los científicos (FORmula TRANslation), y el segundo (Common Business-Oriented Language) estaba pensando para ser usado por contables y gente que maneja grandes listas. En este punto hay que recordar que el COBOL se inspiraba en el más antiguo de todos, el FLOW-MATIC, inventado en 1955 por Grace Murray Hopper (1906-1192) y usado en UNIVAC.

Por otro lado, mencionar que, las primeras unidades de almacenamiento masivo y acceso aleatorio (discos duros), nacen en esta época de la mano de IBM y su RAMAC (1956). También aparecerá la compacta memoria RAM basada en minúsculos núcleos de ferrita. Estas tarjetas de memoria permitieron prescindir de los complejos Tubos Williams (basados en las pantallas de un osciloscopio) y líneas de retardo de magnetostricción. Las Memorias de Ferrita aportarian cierta “modularidad” dando un aspecto más compacto, a la altura del transistor. No hay que olvidar que se conocía como fabricar una memoria RAM con válvulas o transistores, incluso con relés, haciendo con ellos un flip-flop o biestable. No obstante, el tamaño (número de bits) que se puede almacenar es muy limitado y su rapidez depende de este circuito, pudiendo representar un cuello de botella. Aun así, el biestable es un circuito ampliamente empleado en la construcción de ordenadores y la disminución de su tamaño ilustra a la perfección la evolución de la que estamos hablando.

Por último, anteriormente he citado a Jean Hoerni y su invento dentro de Fairchird, pero no he mencionado la historia que cuenta que él y otros colegas que abandonaron al mismísimo William Shockley aduciendo que su carácter controlador limitaba la creatividad de aquel que trabajaba a su alrededor. Así es, no olvidemos que en aquella época la invención de Shokckey, y él mismo, gozaban del reconocimiento mundial. Supongo que con semejante palmarés no era complicado montar una compañía que llevara su propio nombre: “Shockley Semiconductor Laboratory”. Hoerni y otros compañeros eran jóvenes (más o menos 15 años menos que Shockley), con ideas frescas y un planteamiento claro: Los avances (o retrocesos) de una investigación marcaban el camino a seguir. Diferente a Shockley, quien prefería seguir lo que se (él) decidía desde el principio hasta el fin. Queramos o no, había un pequeño salto generacional y las cosas empezaban a ir muy rápido. También, esta actividad dejaba de ser cosa de las compañías ya establecidas, existiendo una oportunidad para los recién llegados y, sobre todo, para los bancos y sus inversiones que miraban con curiosidad todo aquello. Volveremos sobre el tema… Continuará.

[ver más imágenes]

Presentando la colección

noviembre 12, 2017 on 8:02 pm | In galería de imágenes, informática, retroinformática | No Comments

Adolfo García Yagüe | Nunca veo el momento de empezar a contar esta historia: la historia de la colección de ordenadores y diverso material electrónico que amontono desde hace años. Llevo casi media vida buscando, adquiriendo y clasificando piezas con el ilusorio objetivo de montar un museo. Mientras llega ese día (si es que llega), ya es hora de pasar a la acción y compartir este pequeño tesoro, aunque sea virtualmente.

En esta recopilación de piezas he intentado alejarme de la acumulación de material -a veces irracional- en la solemos caer los frikis de la subespecie geek. En esa búsqueda y selección de material me he autoimpuesto un guion a través del cual sea más fácil contar historias, enlazando objetos y, sobre todo, explicando el impacto de cada uno de ellos.

El guion comienza en 1890. De aquel año es el objeto más antiguo que tengo en la colección. No se trata de una máquina, es una revista. Es un ejemplar de Scientific American en cuya portada se presenta al mundo la máquina que permitirá automatizar el undécimo censo de Estados Unidos. Aquella máquina, inventada por Herman Hollerith, sería el remoto antecesor de lo que hoy denominamos Big Data. Además, está máquina, a la que llamaremos tabuladora, sería el embrión de una gran compañía: IBM (International Business Machines).

Contemporáneas a aquellas primeras tabuladoras de principios del Siglo XX, poseo alguna calculadora mecánica. Como su nombre indica son máquinas para realizar cálculos básicos (suma y resta) y, en su momento, junto con los vehículos, representaban la cúspide la modernidad.

El anterior capítulo mecanicista da paso a publicaciones de principios de los años cuarenta que hablan de increíbles máquinas electrónicas capaces de emular un cerebro. Es en estos años donde se situarían los antecedentes de lo que vendría después: tubos de vacío, lenguajes de programación, transistores, sistemas operativos, memorias de ferrita, circuitos integrados, microprocesadores y, lo más importante, el nacimiento de una industria capaz de impulsar semejante innovación. Mi guion este periodo culmina hacia finales de los sesenta y principios de los ’70, cuando a toda esta tecnología acceden jóvenes idealistas decididos a cambiar el mundo con ella…

 

… Y vaya si cambiaron el mundo. Aquellos jóvenes idealistas apasionados por la tecnología hicieron posible que hoy tengamos un ordenador en casa, que exista Internet y que aún tengan sentido conceptos como libertad, código abierto, curiosidad técnica y comunidad. De esta época atesoro alguna de las piezas que más valoro, como un Altair 8800 o los cuadernos originales que publicó Bell Labs con el código fuente de la versión 6 de UNIX, elaborados John Lions, profesor australiano de la University of New South Wales, para que sus alumnos comprendieran el funcionamiento de un sistema operativo. Este periodo fue corto pero muy intenso y con un impacto que aún resuena en nuestros días.

La espontaneidad y pasión del periodo anterior desembocaría en dos formas de entender y emplear la informática. Por un lado, en la segunda mitad los ’70, negocios y profesionales empiezan a usar ordenadores como una poderosaherramienta que ayuda a incrementar su productividad. Por otra parte, en el comienzo de la nueva década, el ordenador llamará a la puerta de los hogares para ocupar un sitio destacado en la familia. A diferencia de hoy en día, en aquella época las máquinas de ambos mundos eran completamente diferentes. El Home Computer u ordenador doméstico solía ser una máquina humilde, de prestaciones limitadas pero tremendamente versátiles. En aquellas máquinas jugábamos y muchos de nosotros aprendimos a programar y allí se configuró nuestro futuro profesional. En cambio, los equipos profesionales o Personal Computer eran máquinas infinitamente más caras. Solo accesibles para profesionales acomodados y empresas deseosas de modernizarse.

Con el tiempo el mercado se fue homogenizando. El constante avance de la tecnología y su abaratamiento provocó que, a partir de la segunda mitad de los años ochenta, las fronteras entre ordenador doméstico y profesional fueran cada vez más difusas. El resultado es que a finales de los ’80 el mercado estaba unificado y no tenía sentido hablar de Home o Personal Computer.

El último capítulo de mi colección se lo he querido dedicar a las comunicaciones entre ordenadores. A mi entender, este salto evolutivo -conectar dos o más ordenadores entre si-, supuso algo parecido al instante que el ser humano empezó a hablar con sus semejantes. Hasta el momento estábamos solos, con nuestros pensamientos/ordenador. La llegada de las comunicaciones nos ha permitido llegar a otros rincones del planeta, acceder a todo tipo de información y, en definitiva, no sentirnos tan solos. De este momento me interesa el acceso remoto a sistemas a través de líneas telefónicas, las BBS, el nacimiento de las redes locales y la interconexión de estas para construir lo que hoy llamamos Internet.

Como dije al comienzo, mi intención es dar forma a una pequeña exposición virtual. Para ello, además de textos, me apoyaré en fotos de las piezas de la colección. Estás las iré subiendo a una galería en Ccäpitalia.

[ver más imágenes]

NB-IoT y LTE Categoría M, mientras llega 5G

septiembre 25, 2017 on 2:51 pm | In m2m, iot, telecomunicaciones | No Comments

Adolfo García Yagüe | Todo el mundo habla del próximo 5G y, entre otras cosas, de lo maravilloso que será para IoT (Internet of Things). Mientras llega, se implanta y aparecen los primeros dispositivos IoT los fabricantes -y los operadores- nos giramos hacia nuevas tecnologías como NB-IoT (Narrow Band IoT) y LTE Cat. M o LTE-M (LTE Categoría M) que prometen adaptar a IoT las actuales redes LTE y frenar el avance de tecnologías como Sigfox y LoRa

En efecto, la semana pasada Orange publicó una nota de prensa donde nos informaba del éxito conseguido al hacer que sus BTS de Ericsson funcionaran con una Pasalela IoT, equipada con un modem LTE Cat. M, de TELNET Redes Inteligentes. Parecido a este ensayo, Telefónica mostró NB-IoT al principio de este año en el Mobile Word Congress.  En esta ocasión NB-IoT también interoperaba con Ericsson, y era un sensor de detección de apertura de tapas de alcantarilla fabricado por la aragonesa antes mencionada.

Ambos casos evidencian el interés de los operadores por comprobar que su actual red móvil puede “conectar” con un dispositivo IoT de última generación. También se pone de manifiesto la importancia de estas redes en la evolución de IoT y la necesidad de dejar atrás -cuanto antes- las antiguas redes 2G y 3G. Menos evidente, e igual de cierto, es el peso que han cogido otras tecnologías como Sigfox y LoRa en esta carrera del Internet de las Cosas.

En España, Sigfox es una red propietaria cuyo operador es Cellnex. Esto significa que hay que llegar a un llegar a un acuerdo con ellos si deseas que tu IoT aproveche esta red. La empresa que está detrás de esta tecnología es la francesa Sigfox. Realmente en Sigfox se utiliza una banda de radio libre -como en Wifi o en Zigbee- por lo tanto ni Sigfox ni Cellnex pagan por el uso del espectro. Algo parecido pasa con LoRa. Lo que sucede con LoRa es que es más abierto y define solamente el nivel radio. En cambio, en Sigfox, además del nivel radio, tus dispositivos IoT (y tu) utilizáis otros servicios para facilitarte la vida. Lógicamente, por esto se paga.

Sigfox apareció hace ya unos años y hoy se puede disfrutar de un buen servicio en numerosos países. En el mercado se pueden encontrar -sin problema- chips con la capacidad radio Sigfox en las frecuencias (libres) europeas y americanas. El consumo eléctrico, importantísimo en aquellos dispositivos IoT que son autónomos y se alimentan con baterías, es muy bajo comparado con la alternativa GPRS (2G). Esto juega a su favor y la sencillez del despliegue de Red. Hay otro aspecto menos conocido relacionado con la robustez frente al uso de inhibidores radio, razón por la cual es empleado por la empresa Securitas en el caso que se llegue neutralizar la propagación de una alarma. En contra está lo limitado del ancho de banda que ofrece y el hecho de usar una frecuencia “libre”. Esa limitación del ancho de banda hace que sea muy difícil -por no decir imposible- el uso de Sigfox en aplicaciones IoT donde se envíe un volumen importante de datos. Sigfox se ha pensado para que los dispositivos envíen pequeños mensajes alertando de un hecho. Este canal ascendente es limitado, al igual que el descendente, tan importante en tareas de mantenimiento y teledescarga de un nuevo firmware. No obstante, a su favor, cuenta el ser una tecnología muy dura, rápida en el despliegue de Red, de bajo consumo eléctrico, sencilla, económica y, realmente, la primera pensada para IoT.

LoRa utiliza un nivel radio muy similar a Sigfox, esto hace que el silicio LoRa también consuma poco, sea robusto, sencillo y económico. No obstante LoRa es una tecnología donde no se especifica nada más que el nivel radio. Si deseas o necesitas un Cuadro de Mando, o tienes que resolver el handover de un dispositivo IoT entre dos antenas LoRa (o instalar estas y asegurar la cobertura), te lo tienes que programar y montar tú. Lógicamente, esto choca con aquella aproximación en la que hay que buscar socios especializados en cada porción de tarta IoT. Sin olvidar alguna de las limitaciones de Sigfox, LoRa puede ser visto como la solución de comunicación IoT totalmente libre. Orange, en Francia, ha seleccionado LoRa como tecnología antagónica a Sigfox permitiendo desplegar servicios IoT que sería difícil realizar con 2G, 3G o 4G.

Tras estos párrafos es más fácil entender el anuncio de Orange España, o la experiencia de Telefónica con NB-IoT. En ellos nos hablan de la importancia que juega la radio en las comunicaciones IoT y de lo lejos que están los actuales 2G, 3G y 4G de estos temas. Realmente estas tecnologías se concibieren para que hablaran las personas (2G), tuviéramos ancho de banda y navegáramos un poco (3G); y la red fuera más eficiente al permitir IP y tuviéramos más ancho de banda (4G). En ningún caso se pensaron para que de la Red colgaran decenas de miles de dispositivos IoT de una única BTS, ni que estos estuvieran “dejados de la mano de Dios” consumiendo muy poco y enviando unos pocos datos. Tampoco se pensó que estas comunicaciones garantizaran el Tiempo Real de algunas aplicaciones IoT, ni que el uso del espectro radio fuera más eficiente (se ocupara poco espectro y el caudal de datos fuese menor).

Ahí es donde reside la fortaleza de NB-IoT y LTE Cat. M. Hasta que llega 5G, ambas resuelven sobre las actuales redes LTE los servicios IoT que se demandan. En las dos tecnologías se resuelve el ancho de banda y el uso del espectro. No obstante, en esta primera fase de interoperabilidad y fabricación de módems, estamos un poco lejos del consumo energético que tenemos con Sigfox y LoRa. También la necesidad de Tiempo Real puede no ser la esperada. Aun así, es la evolución de las actuales redes móviles para soportar IoT.

Inauguración Radar (Electronic Sounds Bar)

febrero 13, 2017 on 8:01 pm | In radar bar | No Comments

Jesús Sevillano (aka Sevi) | Tal día como hoy, hace 20 años, abríamos el Radar en una primera inauguración a puerta cerrada sólo para amigos. Una semana después fue la apertura oficial del bar. Como decíamos hace unos días, en breve reactivaremos la web incluyendo nuevo material gráfico y los videomontajes que hicimos y que compartimos en este grupo con vosotros, junto a otras cosas que hemos incorporado.

La idea inicial de este grupo era precisamente esa, la de hacer visible cosas que no estaban en la web antes de que la cerrásemos a principios de 2009 y también abrir un pequeño espacio para que algunos de vosotros que tuvieses material gráfico o sonoro relacionado con el bar lo posteaseis aquí. Por eso es que cuando creé el grupo decidí que pudieseis publicar vuestras cosas en este lugar.

Sin embargo desde hace tiempo el grupo ha perdido el sentido para el que se creó y se ha convertido en un espacio igual al de otros grupos a los que pertenecemos la gran mayoría de los que aquí estamos y donde podemos ver exactamente los mismos posts que en ellos.

Cuando esté de nuevo activa la web, no tendrá mucho sentido mantener este grupo, ya que el material que aquí publicamos estará disponible allí. De todos modos, seguiremos haciendo algunos videomontajes más e incorporando piezas de audio de las demos del archivo del bar, por lo que quizás mantendré el grupo abierto sólo para informar si hay alguna cosa que se añada a la web.

Por estos motivos, he decidido eliminar todas las publicaciones que que no tenían que ver con el bar y restringir la publicación de posts en el grupo. Al fin y al cabo Radar ya no existe y lógicamente no puede haber noticias nuevas que podamos contar, sólo informar de alguna actualización en la web, o postear algo que crea que puede resultaros interesante. Espero que lo comprendáis.

Por lo que se refiere a la web, la idea con la que está hecha es dejar constancia de una serie de acontecimientos que tuvieron lugar en Madrid durante más de trece años dentro del panorama electrónico de la ciudad. De algún modo, es un homenaje principalmente a los músicos que actuaron en el bar, a los que nos dejaron sus demos y a los clientes en general. Llegará un momento en que no habrá más que añadir a la web, pero mientras Adolfo mantenga abierto Ccäpitalia, ahí estará por siempre.

No tengo ninguna duda que en el futuro alguién podrá escuchar algo sobre un bar que existió en Madrid llamado Radar (Electronic Sounds Bar) y que quiera curiosear en internet a ver si hay alguna información al respecto. Por eso es que, aunque con el paso de los años la web se convierta en algo inactivo, siempre estará ahí para quien desee consultarla.

20 años de Radar (Electronic Sounds Bar)

enero 27, 2017 on 7:40 pm | In radar bar | No Comments

Jesús Sevillano (aka Sevi) | Hace un par de meses se cumplieron 20 años desde que cogí el local del Radar, aunque oficialmente faltan un par de semanas para cumplir el vigésimo aniversario desde la primera inauguración (de las dos que hubo). Por este motivo es que, desde noviembre pasado, ando metido en esta tarea con Adolfo, escribiendo textos y dotando de nuevos contenidos a la web del bar.

Desde 2009 la web ha estado bloqueada (y lo sigue estando hasta dentro de unos días) desde su acceso principal, pero hemos estado incorporando nuevos contenidos y nuevos textos con la idea de que esté accesible de nuevo para el aniversario. En su día decidimos bloquearla puesto que cuando sucedió el juicio de AGEDI/AIE, utilizaron nuestra página web como supuesta base para su demanda aunque, como muchos sabéis, les salió el tiro por la culata y ganamos el juicio en cuestión. Era algo obvio, pero en aquellos momentos, cuando ya había decidido cerrar el bar por motivos personales para venir a vivir a Perú, era algo que me inquietaba especialmente y que aunque sabía que tenía razón, me mantuvo con una gran intranquilidad y preocupación durante muchos meses.

El caso es que ahora se va a reactivar la web. Se van a poner en descarga (durante un tiempo) los recopilatorios que regalábamos en las Nocheviejas del bar, e incorporaremos los videomontajes que en este grupo del Radar hemos compartido con todos vosotros.

Asimismo se ha hecho una sección dedicada al fanzine E.P.D.R. (Escala Progresiva De Resistencia) en el que estuve involucrado durante los años 80 junto a mis amigos Jaime H.Y (La Braga Náutica, Oh-Casio-On, Maruja y los Filoestuches), y Jacobo G. Rodeja (El Regalo De Silvia), poniendo todos los ejemplares en descarga, contando la historia de aquéllos años, además de incorporar una galería de fotos y documentos de la época.

Se ha mantenido el mismo diseño de la web, pero se han escrito nuevos textos y se ha incorporado una sección importante que es el ‘Radar Archief’. Muchas de las demos (las que hemos podido rescatar) que muchos de vosotros me dejasteis en el bar están ahí reflejadas, para dejar constancia de una época y de una serie de artistas que en su día fueron obviados por la prensa, medios de comunicación y salas de concierto, pero que formáis parte de la historia de la música electrónica española y que, con total certeza, algún día alguien querrá apropiarse de lo que es vuestro. Nuestro compromiso siempre fue apoyar a los músicos que en gran medida dotasteis de contenido al propio bar, y así será siempre. La web del bar es para todos vosotros y para dejar constancia de lo que sucedió en Madrid durante casi 14 años dentro de la escena electrónica.

Se ha incluido una galería de fotos (de momento hemos seleccionado en torno a 250) del archivo visual de Adolfo y del propio bar. Todas ellas son absolutamente respetuosas, pero si alguien se ve en ellas y desea que la retiremos, no habrá ningún problema. Quisiéramos desde aquí animaros a que los que tengáis material gráfico, videos, flyers, reseñas de prensa, etc… relacionados con el bar que nos las hagáis llegar. Nuestra intención siempre será dejar constancia de lo que fue el Radar en homenaje a los propios músicos y clientes del bar.

Sabemos que en las fotos aparecéis algunos de los que formáis parte de este grupo y también personas que no tenemos añadidas a nuestra lista de amistades de FB, pero que sí que son amigos vuestros. Os agradeceríamos enormemente que quienes sepáis de amistades que frecuentaban el bar y que pudiesen tener material gráfico que compartieseis este post con el fin de intentar recopilar la mayor cantidad posible de documentación e información.

En los próximos días (cuando desbloqueemos la entrada principal) seguiremos informando.

Gracias a tod@s.

El Mecanismo de Anticitera

diciembre 30, 2016 on 8:01 pm | In galería de imágenes, ingeniería, matemáticas, retroinformática | No Comments

Aunque en Wikipedia y en YouTube encontrarás amplia información sobre esta máquina, no he podido resistirme a escribir algo sobre ella nada más llegar de Atenas y visitar el Museo Arqueológico Nacional.

Son numerosos los detalles que hacen que te invada la emoción cuando estás frente a la vitrina que aloja sus restos. El primero y más importante es la perplejidad que causa comprobar que esta máquina fue construida hace más de 2000 años. Siempre hemos conocido el refinamiento estético existente en la Grecia clásica, su elevado nivel científico o su desarrollado pensamiento filosófico. De lo que apenas teníamos noticia es que también poseían un profundo conocimiento técnico para representar mecánicamente sus teorías astronómicas. A través de este modelo mecánico que es Anticitera, los sabios griegos podían conocer las fases lunares, predecir eclipses, la posición de los astros por ellos conocidos y cuando se celebrarían juegos olímpicos.  En este sentido el mecanismo de Anticitera ha de ser considerado un computador analógico donde, a través de un modelo mecánico, se recrean las ecuaciones matemáticas que describen el movimiento de los astros. El usuario de este “ordenador” podía cambiar las variables de entrada (fecha) para conocer el estado del firmamento de ese momento.

Antes de que los científicos desentrañaran el funcionamiento del mecanismo de Anticitera se pensaba que los primeros “ordenadores analógicos” eran los astrolabios y los relojes astronómicos árabes. Hoy la comunidad científica no duda que el antecesor de todos estos mecanismos es Anticitera. Estos mismos científicos trazan con claridad la ruta del saber mecánico desde la Grecia clásica hasta Bizancio y de ahí al mundo islámico, y de vuelta a Europa a través de España. Además, tras entender el funcionamiento de Anticitera, adquieren un nuevo sentido los textos donde Cicerón (106 a.C – 43 a.C) describe una máquina similar a Anticitera obra del genial Arquímedes (286 a.C – 212 a.C). Esta máquina de Arquímedes perfectamente podría ser la precursora de esta clase de ingenios.

Cuando uno contempla el amasijo de metal corroído que ha llegado hasta nuestros días, solo puede pensar en la suerte que ha tenido la humanidad al rescatar –casualmente- del fondo del mar algo tan “irrelevante” a simple vista. Fueron unos pescadores de esponjas los que en 1901 encontraron los restos de un naufragio frente a las costas de la isla griega de Anticitera. Afortunadamente, durante su inmersión, aquellos pescadores se toparon con bellas estatuas de bronce y… un raro objeto de escaso valor… Aquel descubrimiento sería el inicio de nuevas prospecciones para intentar recuperar más fragmentos del extraño artefacto y completar el rompecabezas. Setenta años después hasta el propio Jacques Cousteau participaría en la búsqueda.

Por último, cuando estaba frente a Anticitera, no pude dejar de maravillarme por el tesón que han demostrado un grupo de matemáticos, arqueólogos, ingenieros e historiadores de todo el mundo para comprender y recrear su funcionamiento, y así despejar definitivamente las sombras del misterio.

[ver más imágenes]

 

La Experiencia de la Escucha

diciembre 22, 2016 on 6:27 pm | In arte sonoro, galería de imágenes, sonikas | No Comments

Qué te inviten a hablar de tu proyecto es estupendo, que además te ofrezcan la posibilidad de traer a un artista para que comparta su obra es extraordinario. Así ha sido la oportunidad que nos ha brindado José Luis Espejo en el marco de su ciclo Arrecife. A través de esta iniciativa se pretende que distintos colectivos madrileños podamos exponer nuestra trayectoria e invitemos a un artista representativo -para nosotros- a dar un concierto en el auditorio CentroCentro del Ayuntamiento de Madrid. Nosotros, la Asociación CRC, no tardamos en tenerlo claro: artista invitada Natasha Barret.

Más difícil fue resumir lo que hemos hecho durante los últimos 14 años. No obstante, a veces el Power Point puede resultar una útil herramienta psicoanalítica. Es sorprendente que, sin pretenderlo, te lleve a conclusiones sobre tu personalidad. En nuestra particular sesión de psicoanálisis acuñamos el término “La Experiencia de la Escucha” como la frase que mejor resume y define nuestra actividad…

El proyecto de la Asociación Cultural CRC nació, como la mayoría de las grandes ideas, en la barra de un Bar. En nuestro caso fue en Radar (Electronic Sounds Bar). Allí se cruzaron nuestros caminos y allí planeamos el Tendencias Post-Digitales. En aquella cita en el Colegio Mayor San Juan Evangelista tuvimos la oportunidad de medir nuestras fuerzas y poner a prueba la capacidad de trabajo en equipo. Fue un pequeño éxito del que salimos con buenas sensaciones y con ganas de hacer más cosas. Fue en ese momento cuando coincidimos con Alfonso Pomeda y pusimos en marcha los Klangmaschine. A través de estos eventos y de toda la experiencia acumulada en las actividades que programaba el Radar, constatamos que era necesario “mover” ciertas propuestas hacia espacios donde la Experiencia de la Escucha fuera plena.

Para nosotros la Experiencia de la Escucha sería algo parecido a lo que sientes cuando estás en el salón de tu casa, desconectado y sumergido en el sonido, sin distracciones, a oscuras. Solo estás tú y el sonido que sale de tus altavoces. Ahora, a este momento perfecto, añade un sistema de audio cuadrafónico y abre espacio en el salón para que el artista toque a tu lado. Eso es la Experiencia de la Escucha. Es una experiencia acústica inmersiva, irrepetible y en tiempo real. Y eso es lo que hemos venido intentando llevar a la práctica a través de los 14 Sonikas.

Evidentemente, lo anterior sería imposible sin la buena disposición del público y el trabajo del artista. Por esa razón en esta ecuación nos gusta considerarnos como un elemento facilitador. Para ello nos esforzamos en comprender la naturaleza de la obra y cuales son los requerimientos acústicos del artista. A partir de aquí hacemos todo lo posible para que salte esa chispa mágica e invisible que conecta al artista con el público.

Tras 14 ediciones, una de las cuales (la décima) tuvo una jornada más, hemos de hacer un balance positivo. Por una parte hemos logrado el reconocimiento de gran número de artistas de la escena experimental nacional e internacional. Esto nos permite poder escoger a quien invitamos, algo que no siempre es fácil. Por otro lado, creemos que hemos logrado posicionar el festival Sonikas en el sitio en el que siempre hemos querido estar: En los límites de la periferia. Es decir, nos gusta explorar los terrenos sonoros más escarpados y arriesgados. Por último, en este viaje, a nuestro alrededor, nos sentimos acompañados de un público magnífico.

¡Gracias a tod@s!

[descargar presentación Arrecife | visitar galería de fotos]

El Mundo del Spectrum

diciembre 20, 2016 on 8:27 pm | In retroinformática | No Comments

Siempre es agradable recibir regalos, aunque estos te recuerden que nos hacemos mayores… Este fin de semana me han regalado un fantástico libro cuyo título lo dice todo: “El Mundo del Spectrum”. A lo largo de más de 200 páginas se repasa la historia de este ordenador, el impactó que tuvo en nuestro país alumbrando a una generación de brillantes programadores, y haciendo posible que floreciese una pujante industria del videojuego.  Este libro nace por iniciativa de la web del mismo nombre (www.elmundodelspectrum.com) donde, desde 1996, se da refugio a nostálgicos de esta máquina.

El primer ordenador que toqué fue un ZX Spectrum 48K con las teclas de goma. Aquel encuentro fue en una academia de mecanografía (si, aunque parezca increíble, hace años aprendíamos a sacar el máximo partido al teclado de una máquina). Recuerdo que unos comerciales de El Corte Inglés nos hicieron una pequeña demostración cargando un juego. He de reconocer que en aquel momento no surgió el flechazo. Vaya rollo -pensé- con lo que mola la máquina de los recreativos… El segundo contacto volvió a ser con otro Spectrum, esta vez en casa de mi primo Santiago. Él me enseño un “gomas” recién comprado; me explico que hacía y me animó a programar unas líneas en el BASIC que venía incluido en ROM. Guardamos aquel programa en una casete, lo recuperamos y entonces sí que me enganchó aquella cosa de la informática. Esto sucedió en 1983.

Aún tendría que pasar algo más de un año hasta que mis padres compraran un ordenador, un ZX Spectrum Plus. Durante ese intervalo de tiempo ya empecé a acumular revistas de informática y todos los sábados por la tarde, en compañía de mis amigos de la infancia, visitábamos el espacio de informática de El Corte Inglés del Paseo de la Castellana. Allí pasábamos horas transcribiendo programas en los ordenadores que estaban de exposición con total permisividad de los vendedores. A fin de cuentas les ayudábamos a vender porque ¿qué mejor demostración que un chaval de 12 años tecleando un programa para simular la trayectoria del cometa Halley?

El Spectrum no era el mejor ordenador de su época. Más bien era una máquina humilde de prestaciones ajustadas. Su apariencia era algo infantil, con un teclado que delataba sus limitaciones. A pesar de todo, esta máquina revolucionó el mercado español por su bajo precio y abundante de software. En otros países no se produjo este fenómeno con la misma intensidad. Aún así sorprende ver como los Spectrum disputaban el mercado a máquinas superiores: Por ejemplo, en Reino Unido a los BBC de Acorn (UK); en Alemania a máquinas Commodore (USA); Holanda y sus MSX de Philips; o a los Thomson en Francia. Estados Unidos y Japón eran otra historia y en ambos países las máquinas de Sinclair apenas dejaron huella.

Su hardware giraba en torno a un microprocesador Zilog Z80 funcionando a 3,5MHz y un chip propietario, diseñado a medida, denominado ULA (Uncommitted Logic Array). En este último se integraban las funciones periféricas de entrada y salida (teclado, vídeo y almacenamiento externo). Además contaba con 16 KB de ROM donde incluía un intérprete de BASIC y se comercializó con dos configuraciones de memoria RAM: 16KB y 48KB. Como medio de almacenamiento empleábamos un casete convencional y una TV para la visualización. En definitiva, era un ordenador con un hardware y una mecánica ajustados al máximo para facilitar su entrada en la mayoría de los hogares. Y así fue…

* * *

Ciertamente al éxito del Spectrum en España también contribuyó una publicación que le acompaño desde noviembre de 1984… hasta 1992. Me refiero a la revista Microhobby. Desde sus páginas todas las semanas teníamos información de novedades, acceso a programas y detalles técnicos que nos permitían sacar el máximo partido de nuestras máquinas. Gracias a esta publicación aprendimos a programar en BASIC, ensamblador del Z80 y abordamos el montaje de circuitos basados en micros.

El ZX Spectrum tuvo dos predecesores (ZX 80 y ZX 81) y un flamante sucesor (Sinclair QL). En todos los casos la aproximación comercial fue la misma: Poner en el mercado un ordenador a muy bajo precio con prestaciones técnicas razonables. En el caso de los primeros (y del ZX Spectrum) la estrategia funciono pero con el QL el fracaso fue mayúsculo. Tras el QL hubo otras máquinas que enriquecieron el linaje del Spectrum y contribuyeron a forjar el mito, pero esta y otras historias serán contadas en otro post.

P.D. Si no sabes que regalar estas navidades a alguien con más de XX años, apasionado de los ordenadores y con tendencia a la nostalgia sana… aun estás a tiempo.

Página siguiente »


(c) 2000-2017 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress