IBM Personal Computer 5150

abril 18, 2018 on 7:09 pm | In galería de imágenes, retroinformática | No Comments

Adolfo García Yagüe | Como atestigua la publicidad de la época y alguna pieza de la colección, en 1981, año del lanzamiento del IBM Personal Computer modelo 5150, el mercado del Ordenador Personal (o PC) ya existía. Desde hacía algunos años, empresas como Apple se esforzaban en explicar que el empleo de ordenadores hacía menos tedioso el uso de datos o la confección de textos. También, misteriosamente, de alguna forma, el Ordenador Personal prometía expandir nuestra creatividad e introducirnos en una nueva era.

Desde tiempo atrás IBM (International Business Machines) era un referente. Al finalizar la década de los ‘70 era el rival al que robar una pequeña porción del mercado de los grandes sistemas. En IBM inventaban lenguajes de programación, sistemas de almacenamiento, sistemas operativos, máquinas, todo… No se puede decir que no innovaran, todo lo contrario, pero dejaban poco espacio a otros suministradores. No obstante, en aquel entorno hostil, aparecen jóvenes empresas que tienen la visión de acercar un ordenador a cada puesto de trabajo y hogar. La aparición y popularización de estas máquinas dejaba claro que el mundo estaba cambiado, e IBM no podía ser ajeno al momento.

Si quería ofrecer una solución a tiempo, IBM necesitaba comercializar un PC y ajustar su precio. Con este propósito acudió al mercado buscando componentes y suministradores. Al frente del equipo de desarrollo del 5150 puso a Philip Donald Estridge (1937-1985), quién trabajaría lejos de los centros habituales de decisión, en la fábrica de Boca Ratón, Florida. Esto supuso que la toma de decisiones de Don Estridge sería más ágil y estaría menos influenciada por la cultura de Big Blue. Como digo, en aquella máquina se pretendía integrar el mejor hardware de la época y programar una BIOS (Basic Input-Output System) que diese uniformidad y sirviese de nexo con un sistema operativo. Hay que recordar que la idea no era nueva, lo novedoso es que fuera IBM quién lo hacía así.

Donald Estidge se puso manos a la obra. En estos casos lo primero que hay que hacer es estudiar el mercado y a tu competencia. Don no tardó en darse cuenta que la mayoría -por no decir la totalidad- de PCs estaban basados en microprocesadores de 8 bits. Estaba claro que IBM no podía ser uno más, por lo tanto la nueva máquina sería de 16 bits, asegurándole poder manejar más memoria y tener más potencia. Ahora había que seleccionar al fabricante del micro. En aquellos años, los 16 bits existían pero eran novedosos para un usuario. Ya se podía optar por fabricantes como Zilog, Motorola o Intel. En el caso de Motorola, a pesar de ser una gran compañía, el reciente 68000 (año 1980) estaba un poco inmaduro y todo el ecosistema de chips necesarios para fabricar un equipo era inexistente. Por su parte, el Zilog Z8000 era algo más veterano pero incompatible con los Z80. En cambio Intel acumulaba bastante experiencia con la arquitectura 8080 y además, en 1978, había lanzado un chip de 16 bits -el 8086- y tenía resuelto todo el chipset. La decisión estaba clara: Intel con el 8088, el hermano menor del 8086.

En efecto, si comprobamos una de las placas originales del IBM PC nos damos cuenta que están diseñadas para chips Intel: Además del citado 8088, encontramos al 8259 (interrupciones), 8233 (gestión de memoria o DMA), 8255 (PIA), microcontrolador del teclado, 8284 (generador del reloj) y 8087… Resumiendo, los micros principales son Intel y como tal, Intel facilita el diseño de referencia de cada chip, razón que convierte al 5150 y los posteriores 5160, 5162 y 5170 en equipos sencillos de comprender y, sobre todo, abiertos.

La siguiente elección es el sistema operativo que, en aquel momento, parecía clara: el CP/M, de Digital Research, y su nueva e inminente versión para 16 bits. El diseño modular del CP/M le permitía abstraerse de cada chip y solo interactuaba con el hardware a través de la BIOS. Así, con pocas modificaciones, lograba trabajar con muchos fabricantes de ordenadores y hardware. Mientas, al usuario, ofrecía un conjunto de comandos sencillos con los que trabajar con sus ficheros y discos flexibles. Como digo, la decisión del CP/M era evidente porque era la más conocida pero, la negociación entre IBM y Digital Research fue compleja y, sobre todo, se producían retrasos en la disponibilidad de la versión de 16 bits. Esta situación era conocía por Microsoft quién también había sido elegido por IBM para la incluir su popular interprete BASIC. El asunto es que IBM estaba atascado con el CP/M, y Microsoft conocía la existencia de un sistema operativo de 16 bits -inspirado en aquel- llamado 86-DOS de Seattle Computer Products. El pelotazo no se le podía escapar a Microsoft: compró barato a Seattle y vendió caro a IBM. Además Microsoft consiguió que este sistema operativo pudiera ser vendido a cualquier fabricante, igual que hacia Digital Research con su CP/M. Así es como se seleccionó el famoso MS-DOS aunque, en aquel momento, IBM se esforzara en llamarlo IBM PC DOS.

Desde las máquinas sucesoras del Altair 8800 o bus S-100 (año 1975), ya se documentaba su diseño y era normal publicar los esquemas. Es cierto que aquella primera generación de máquinas está dirigida hacia aficionados de la electrónica. Aun así, un poco más tarde del Altair, en 1977, Apple lazaría el Apple II donde seguía incluyendo el esquema electrónico y el detalle de sus conectores de expansión. En este caso se pretendía animar la aceptación del mercado y el crecimiento de ventas facilitando el desarrollo y fabricación de periféricos por parte de otras empresas.

Pues bien, en las conocidas Technical Reference, IBM publicaría además de los esquemas electrónicos, el contenido detallado de su BIOS también con el ánimo de facilitar la adopción y crecimiento de la nueva máquina. Imagino que pensaron en el riesgo de la clonación y que únicamente con su marca y abogados tenía poco que temer… Aquellas decisiones cambiaron la historia de los ordenadores y me atrevo a decir que la nuestra también. Aun así, hoy, creo que en las escuelas de negocios, se tendrían que revisar estás importantes lecciones sobre innovación, imagen de marca, patentes y negociación…

Módems, teleproceso, servicios on-line y BBS

abril 11, 2018 on 7:01 pm | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | A lo largo de su dilatada historia, el desarrollo de la red de telefonía ha tenido que hacer frente a numerosos retos técnicos. Dejando a un lado el perfeccionamiento del propio terminal telefónico, los más tempranos tenían que ver con la red de transporte o pares de cobre. Si se quería llegar a todos los rincones, había que bajar el precio de aquellos (carísimos) cables pensados para el envío de telegramas. Con este reto en mente se fue disminuyendo la cantidad de cobre empleado su fabricación. Esto, obviamente, suponía mejorar las técnicas de trefilado, y así conseguir cables más finos y económicos. La distancia también era un desafío complicado. Para tener una red que llegara lejos era necesario salvar grandes distancias y conseguir que la voz viajara correctamente, sin apreciar molestos ecos, interferencias o diafonías. Esta razón impulsó enormemente el desarrollo de soluciones capaces de amplificar el impulso eléctrico de la voz y la cancelación de ecos. La red de larga distancia, incluyendo los tendidos transoceánicos, se benefició enormemente de estas mejoras.

Otro reto fue la capacidad de transportar por un solo cable varias conversaciones a la vez, es lo que se conoce como multiplexación. Como podemos imaginar, este avance economiza cada conversación ya que no es necesario dedicar un par de cables a cada una de ellas. Al principio, esta multiplexación era muy limitada y estaba basada en circuitos o cables fantasma. Es decir, por una pareja de cables físicos se desarrollaba un tercer circuito virtual que era aprovechado por una tercera conversación. Hay que reconocer lo imaginativo de este ingenio pero, técnicamente, podía ser la causa de misteriosas diafonías y resultaba complejo de amplificar. El uso de cables fantasma dejó paso al empleo de otras técnicas y cables: los llamados coaxiales. Estos cables diferían significativamente del clásico par de conductores de cobre. El cable coaxial ofrece mejor aislamiento electromagnético y mayor ancho de banda. Esto quiere decir que puede trasportar más capacidad y que “funciona” a otras frecuencias diferentes a la banda base. Es decir, además del canal base, pueden viajar otros canales en otras frecuencias. Cada uno de estos canales es, virtualmente, un cable por el que puede viajar una conversación. En este caso la multiplexación se hace por frecuencia. El empleo de los mencionados cables coaxiales se hizo en rutas de larga distancia y cables transoceánicos. Cuando la voz se convirtió en datos, mediante la digitalización o modulación en pulsos codificados (o PCM – Pulse Code Modulation), a la multiplexación en frecuencia se le añadió la multiplexación en tiempo. Hoy, en los cables de fibra óptica, también se mantienen ambas técnicas para aprovechar al máximo un portador.

Lo que quería introducir en el párrafo anterior es el concepto de innovación y evolución constante. Aquella red, que se concibió y creció para permitir el transporte de la voz, le tocaba adaptarse a la comunicación entre ordenadores. Este reto suponía modificar la red o hacer que los ordenadores emitiesen algún sonido que pudiera ser trasportado por los cables telefónicos. Por esta razón, se optó -ya que era más económico- por la “sencilla” solución de inventar algún tipo de modulador que convirtiese el lenguaje de los ordenadores en tonos de audio. Ese es el nacimiento del MÓDEM (modulador y demodulador). Este ingenio, como si se tratase de un intermediario, se conecta a la máquina y a la red de comunicaciones, permitiendo que los primeros intercambien mensajes mediante “pitidos”. A ambos lados de la conexión era necesario poner uno de estos MÓDEM para que convirtiesen los datos y tonos, y viceversa.

Para homogenizar las comunicaciones entre MÓDEMs era necesario garantizar el funcionamiento entre distintos fabricantes y así marcar su evolución, por esta razón la CCITT (Comité Consultivo Internacional Telegráfico y Telefónico), ahora ITU (International Telecommunication Union), ha ido publicando diferentes recomendaciones para enviar datos sobre líneas telefónicas. Estas normas, por ejemplo, facilitan que dos MÓDEM de la norma V.24 puedan hablar entre ellos. Las citadas especificaciones han ido evolucionando para permitir mayor velocidad hasta que ha sido imposible exprimir más al viejo cable de cobre. Por esa razón pasamos a la tecnología ADSL y sus variantes y, en la actualidad, a la fibra óptica. Pero, de momento, volvamos a los MÓDEM.

Como podéis suponer, el mayor reto al que se han enfrentado los fabricantes de MÓDEMS es el de la velocidad y adaptarse a la calidad de las líneas telefónicas. Lograr esto significa una evolución constante en la técnica de modulación y compresión de los datos. De distintas formas, lo que se ha conseguido en este tiempo, es convertir en analógico los datos digitales que produce un ordenador y, una vez en el dominio analógico, actuar sobre los parámetros de esa señal: su frecuencia, fase y amplitud. Por eso hablamos de modulaciones FSK (Frequency Shift Keying) y QAM (Quadrature Amplitude Modulation) entre otras.

Los primeros MÓDEMS a los que tuvimos acceso los usuarios más humildes eran los denominados Acopladores Acústicos. Estos inventos se conectaban físicamente al teléfono y su velocidad era muy baja, no superando los 300 caracteres por segundo o baudios, definidos en la norma V.21. Estos Acopladores Acústicos fueron importantes pero, como su nombre indica, se “acoplaban” físicamente al terminal telefónico siendo muy limitada su velocidad. Pronto tendríamos acceso a una nueva generación de MÓDEMS, más compactos y rápidos.

Antes hablábamos que el MÓDEM se conectaba a los pares de cobre y al ordenador. Es importante recordar que esta comunicación entre MÓDEM y ordenador estaba también normalizada y no era nueva. Se utilizaba (y aun hoy se utiliza en muchas conexiones) una comunicación serie, estandarizada en el año 1969 según la norma RS-232. Esta norma, o tipo de interface, describe como se conectan dos máquinas e intercambian y aceptan cada mensaje.

Otra de las dificultades a las que se tuvieron que enfrentar los fabricantes de MÓDEMS, era la necesidad de mandar y recibir mensajes -desde o hacia- el ordenador sobre la velocidad o estado de la línea. De esta forma un ordenador podía informar al usuario y tomar una determinada decisión. Esta señalización tenía que viajar por el RS-232 en banda, esto es, junto con los datos del usuario. Por ejemplo, en caso de que nos llegue una llamada para conectar con un ordenador central, el equipo destinatario que tiene atender la entrada debe ser capaz de informar al usuario o aplicaciones de que alguien quiere conectar remotamente. De manera contraria, si nosotros deseamos “forzar” o configurar un determinado comportamiento del MÓDEM, tenemos que ser capaces de programarle a través de algún comando. Aunque ya se utilizaban y se conocían estos mensajes eran casi de uso específico a cada tipo y fabricante de MÓDEM. No eran de uso generalizado ni existía compatibilidad de fabricantes.

Sería una pequeña y joven empresa la que inventó un conjunto de instrucciones que se convertirían en el estándar a seguir para el resto de competidores. Aquella empresa se llamaba Hayes y fue fundada por Dennis C. Hayes (1950) y Dale Heatherington (1948). Ellos convirtieron al MÓDEM en algo de uso normal, fácil y sencillo. Al comienzo de la década de los ´80, acercaron esta tecnología al mundo de los incipientes ordenadores personales y los equipos domésticos. También facilitaron el camino de un nuevo mercado que nacía, consistente en el acceso remoto a sistemas de información, como CompuServe, juegos on-line y las populares BBS. Por supuesto, el famoso Teleproceso y la Teleinformática, existentes en los grandes ordenadores, eran algo más cercano gracias a Hayes y otros fabricantes.

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Educación e informática

abril 1, 2018 on 4:40 pm | In descarga textos pdf, galería de imágenes, retroinformática | 1 Comment

Adolfo García Yagüe | Educar en estos tiempos no es tarea fácil. Una mamá o papá que llegase del “espacio exterior” determinaría orientar a su hijo hacia las ciencias, más concretamente, hacia las matemáticas para tenga un trabajo asegurado de “científico de datos” (o algo relacionado con Big Data…) ¿O, acaso, dedicar tiempo y dinero a que su hijo e hija comprenda los principios mecánicos de la robótica y los oscuros arcanos de la programación? Otros, se harán la siguiente pregunta ¿Idiomas y estancias en el extranjero para que se vaya poniendo las pilas? o ¿Una carrera dual? En fin, la educación y el futuro de nuestros hijos es un auténtico desafío y cualquier padre o madre -a lo largo de la historia- con un mínimo de responsabilidad siempre se ha preocupado por el futuro de su prole. De lo contrario dudo que estuviéramos aquí.

En este principio de milenio las cosas son un pelín más complejas, o diferentes: Hay muchas opciones encima de la mesa y hay más competencia y, –queramos o no- los cambios acontecen más rápidamente. Hoy, por ejemplo, tenemos a nuestro alcance el flexible Arduino y lenguajes de programación amigables como Scratch, con el permiso del potente Python, o la popular Raspberry PI. Los cursos de introducción a la robótica han dejado de ser algo exótico para convertirse en una actividad extraescolar más o, incluso, una asignatura en algún centro. A todo esto ¿Alguien ha preguntado a los verdaderos interesados que quieren hacer cuando sean mayores? ¿Sabemos -verdaderamente- orientar hacia una profesión su entusiasmo y pasión? Son preguntas de las que me veo incapaz de dar respuesta.

Como decía antes, siempre ha existido preocupación por el mañana y, viendo alguna pieza de la colección, los ordenadores hace tiempo que han estado ahí, como una opción para facilitarnos la empleabilidad. A través de estos ingenios y sus manuales comprobamos que esta inquietud no es nueva. De alguna forma, desde hace años, hemos visto (o nos han hecho ver) que el estudio de la informática y la electrónica podía mejorar el futuro profesional de un joven. Nuestro paseo comienza en 1955 con el GENIAC o GENIACS, de Edmund C. Berkeley. Aquella máquina venía acompañada de un librito que nos permitía introducirnos en el pensamiento lógico a través de algunos interesantes ejercicios. Estamos en el año ‘55 y los primeros los ordenadores comerciales empiezan a llegar a las grandes empresas. Como hemos comentado en este blog, además de consultor, Berkeley era miembro fundador de la ACM y tenía fama de divulgador técnico a través de sus libros y, sobre todo, de su proyecto Simon.

GENIAC y sus ejercicios evolucionaron en el TYNIACS (1956) y BRAINIAC (1958). Podemos decir que todos ellos eran productos más parecidos a un juguete lógico que a un ordenador. Hacia el final de la década también aparecen pequeños inventos (en EE.UU.) que nos demuestran la sencillez de los cálculos analógicos. No olvidemos que son años de innovación y el ordenador analógico sigue siendo una alternativa para muchos ingenieros. Hablamos de Calculo (1959) y del Analog Computer EF-140 de la General Electric (1961). Un paso más allá, pero siguiendo con el espíritu docente, sería el flamante y voluminoso EC-1 Analog Computer, de Heathkit (1959). Éste, en nuestra colección, lo veréis junto a un osciloscopio de la época porque es necesario recurrir a él si queremos mostrar ciertos resultados.

El principio de la década de los sesenta está marcado por la aparición del Minivac 601 (1961) y la implicación de Shannon en su diseño. Esta máquina está a mitad de camino entre lo que hoy consideraríamos un juguete y un autómata. Minivac nos permite familiarízanos con las puertas lógicas, el Flip Flop (o biestable) y con un reloj.

Hemos introducido el flip flop y no quiero olvidarme de los indispensables Digi-Com 1 (1963) y Digi-Com II y Dr. Nim. Este componente es muy usado en informática y nos permite construir contadores y almacenar información (0 o 1). Como vemos, en aquella época, a través del juego y pocos dólares, era posible introducir a los jóvenes en la lógica de un ordenador. Hablando de flip flops y juguetes, resulta llamativa la referencia española que se comercializó en 1971. Nos referimos al Minicomputer Brain (1971) y consistía en un juguete que -emulando el aspecto de una unidad de almacenamiento en cinta- recrea el funcionamiento de cinco flip flops y su estado lógico. Poco sabemos acerca del Brain salvo como funciona y que se presentó en la primera Feria de la Inventiva Española, en 1970, celebrada en el parque de El Retiro y donde consiguió un galardón. Detrás de este invento se encontraba la misteriosa empresa “Brain” que estaba ubicada en el número 5 de la antigua avenida del Generalísimo en Madrid (actual Paseo de Castellana). Desconocemos si era un invento original de ellos o bien hacían de intermediarios de alguien. Tampoco podemos -aunque nos gustaría- facilitar detalles sobre la (o las) personas de Brain. Os dejo unos pequeños libritos que acompañan al Minicomputer Brain para que veáis que los ordenadores ya estaban sobrevolando nuestras cabezas.

En aquella feria de la Inventiva Española también se exhibía lo que se ha dado a conocer hoy como “El Antecesor del Libro Electrónico”. Era obra de una profesora gallega, Ángela Ruíz Robles (1895-1975), y mostraba unos ingenios llamados “Libros mecánicos audiovisuales” y “Primer mapa científico lingüístico gramatical y atlas gramatical”. Estos dispositivos empleaban unos pequeños rollos de papel donde se explicaban conceptos útiles. Á parte de la concepción del elemento reproductor, el mérito de la Sra. Ruíz reside en saber sintetizar -lo realmente útil- de un conocimiento y ponerlo a disposición del lector, de forma que este (el conocimiento) sea portable y de acceso intuitivo y cómodo, facilitando, de esta manera, su consulta y aprendizaje. Lo que habría inventado esta señora conociendo los dispositivos actuales…

Para finalizar comentar que en 1959 llegó a Renfe un IBM 650 y, un año después, un Univac a la Junta de Energía Nuclear (JEN). En 1962 entraría en servicio un IBM 1410 en la Caixa de Barcelona, y un IBM 1401 en los antiguos almacenes Galerías Preciados. Aquellos ordenadores, aunque pasaban desapercibidos, ya empezaban a ocupar un hueco en nuestras vidas. Por su parte, en 1967, la gente de Telesincro, presentará el que será el primer ordenador enteramente español: el factor P.

 

Puedes descargar los manuales de cada equipo en los siguientes enlaces:
Geniacs. Oliver Gardfield, 1955
Geniacs. Edmund C. Berkeley, 1955
Brainiacs. Edmund C. Berkeley, 1958
Experiments with Brainiac B-30, 1959

Heathkit EC-1 Educational Electronic Analog Computer, 1959
Heathkit EC-1 Fontal, 1959
Heathkit EC-1 Schematic 1, 1959
Heathkit EC-1 Schemetic 2, 1959
Heathkit EC-1 Schemetic 3, 1959

Experiments with Calculo Analog Computer Kit, 1959

Minivac 601 Book I, 1961
Minivac 601 Books II, III, IV, 1961
Minivac 601 Book V and VI, 1961
Minivac 601 Notes and Corrections, 1961
Minivac 601 Maintenance Manual, 1961

EF-140 Analog Computer General Electric, 1961

Digi-Comp 1. Instruction Manual, 1963
Digi-Comp II. Mechanical Binary Computer, 1963

Minicomputer Brain, 1971
Minicomputador Brain y la Informática, 1971

Simon, el primer ordenador personal

marzo 24, 2018 on 7:52 pm | In descarga textos pdf, galería de imágenes, retroinformática | 1 Comment

Adolfo García Yagüe | Simon -o Simple Simon- fue la primera máquina de computación que se comercializó para uso personal y didáctico. Esto sucedió a finales de 1950 y fue fruto del empeño de un visionario llamado Edmund C. Berkeley (1909-1988). Berkeley fue miembro fundador, en 1947, de la ACM (Association for Computing Machinery). Además trabajó como consultor informático en Prudencial Insurance y conoció, directamente, a Claude E. Shannon (1916-2001), George R. Stibitz (1904-1995) y Howard H. Aiken (1900-1983). En comparación con el legado dejado por estos científicos e ingenieros, la contribución de Berkeley a la historia de la informática pasa inadvertida a pesar de su esfuerzo. Por esta razón he creído interesante escribir estas líneas y así recordar su trabajo, y añadir otro eslabón a la serie dedicada a la retroinformática.

Como hemos dicho, Berkeley fue un gran divulgador. Fue el primer autor en escribir un libro con el propósito de acercar al público, de manera seria y concisa, los principios y tecnologías en que se fundamentaban los ordenadores de su época. El libro se publicó en 1949 y llevó el sugerente título de Giant Brains, or Machines That Think. El tercer capítulo de esta obra se llama A Machine that will think y ahí introduce las líneas generales de su máquina Simon. Un año más tarde publicaría un artículo divulgativo en Scientific American presentando a Simon. De aquel texto destaca el párrafo final donde Berkeley ya pronostica que en el futuro tendremos un ordenador en nuestro hogar. Llego, incluso, a editar una reseña sobre Simon en el prestigioso Wall Street Journal.

Simon era una máquina que se vendía en kit, es decir, compras las piezas y te lo montas tú. Este ingenio estaba basado en relés y mediante una cinta perforada, como las empleadas en los teletipos, podías “lanzar” pequeños programas. Simple Simon estaba concebido para demostrar la potencia lógica de cualquier ordenador. Pensemos que esta época, hasta el texto de Shannon y, sobre todo, Alan Turing (1912-1954), los ordenadores son grandes y rápidas calculadoras. El hecho de emplearlos también para llevar a cabo sencillos razonamientos lógicos no era muy evidente para aquel que no hubiese tenido acceso a los estudios de Morgan, o los ya citados Turing y Shannon. Esto es, matemáticos y no mecánicos expertos en la fabricación de máquinas. En 1950, además del ya citado texto de Scientific American, Simple Simon fue objeto de un profundo estudio a través de una serie de trece capítulos publicados en la revista Radio Electronics y firmado por el propio Berkeley junto a Robert A. Jensen.

Lamentablemente, se comercializaron pocos kits de Simon… y llevarlo a buen puerto para un inexperto no era una tarea fácil. También resultaba caro para la época. Por estas razones Berkeley, junto a Oliver Garfield, simplificó sus ideas y recurrió a Shannon para diseñar en 1955, bajo el mismo espíritu divulgador, el GENIAC. Más tarde, aquel “tablero de madera con bombillas”, se fue ampliado con más ejercicios lógicos de la mano de BRAINIAC y TYNIAC. También publicaría, una vez más en Radio Electronics, un artículo de un autómata especializado en jugar a las tres en raya: Relay Moe Plays Tick-Tack-Toe. Por último, cabe recordar, que Berkeley sería uno de los primeros en escribir sobre los robots y sus posibilidades.

Durante su vida no paró de trasladar al gran público el momento actual. En este sentido, hacia mediados de los años sesenta, escribió otro libro memorable cuyo título nos recuerda la importancia de la lógica en la inteligencia artificial, The Programming Language LISP: Its Operation and Applications.

 

Decarga artículos de Scientifc American, Radio-Electronics y más:

A Machine that will think. Edmund C. Berkeley, 1949
Simple Simon. Scientific American, 1950
World’s smallest electronic brain. Berkeley and Jensen. Radio-Electronics, 1950
Constrution plans for Simon. Berkeley and Jensen,1952

Telegrafía y Telefonía

marzo 18, 2018 on 11:56 am | In galería de imágenes, retroinformática, telecomunicaciones | No Comments

Adolfo García Yagüe | La necesidad de comunicarse es tan antigua como la humanidad. La capacidad de generar diferentes sonidos y, a cada uno de ellos, darle un significado nos permitió comunicar al resto lo que nos rondaba por la cabeza. Esta forma de comunicación basada en nuestra voz, tan básica y natural, tenía una importante limitación relacionada con la distancia. Si esta aumentaba entre los interlocutores, las dificultades de escucha se presentaban. Por esta razón recurrimos al uso de señales y el sonido de nuestra voz quedó solo para comunicaciones muy próximas. Las señales nos permitieron llegar más lejos. Solo había que poner, entre emisor y receptor, a alguien que supiera interpretar las señales y se encargara de reenviar el mensaje. Esa interpretación requería de una codificación en la que cada letra o palabra se representaba por una secuencia limitada símbolos que podían ser vistos en la distancia. Así nacieron las primeras “comunicaciones ópticas” y hablamos de telegrafía óptica.

Aquella telegrafía óptica era flexible y los militares se dieron cuenta de ello. Si el campo de batalla así lo exigía, rápidamente podían mandar un mensaje a casi cualquier parte. Únicamente necesitaban tener visibilidad entre el punto que enviaba y recibía el mensaje. También era importante que el enemigo no viera el mensaje y, si esto sucedía, no lo entendiera. Es lo que se conoce como cifrado o encriptación del mensaje. En el caso de que se quisiera mantener una comunicación estable entre los puntos era necesario “acomodar” a los intermediarios en un lugar de visibilidad privilegiada, algo así como un faro o torreón. Las ruinas de aquellos torreones aun hoy se pueden ver en algunos puntos de España y son lo que queda del telégrafo óptico del teniente Mathé (1800-1875).

Las redes del telégrafo óptico fueron eclipsadas -nunca mejor dicho- por el telégrafo eléctrico. El descubrimiento y dominio de la electricidad permitió enviar un mensaje entre dos puntos como una serie de pulsos eléctricos. Lógicamente era necesario que, entre ambos extremos, existiera un cable metálico por el que viajaban los citados pulsos. A este cable le llamaremos circuito. Samuel Morse (1791-1872) inventó una forma de codificar el mensaje: el famoso código Morse. De esta forma de codificar un mensaje se podían beneficiar las ya mencionadas comunicaciones ópticas o las -recién inventas- eléctricas.

En aquel momento las comunicaciones dejaron de ser cosa exclusiva de militares. Si queríamos dar capilaridad y llegar a muchos usuarios, estaba claro que era necesario tender y mantener una gran red de cables entre ciudades. Así nacen los operadores de telecomunicaciones y hacen posible el envío de mensajes entre, principalmente, hombres de negocios y gente acaudalada.

Nos encontramos en 1874 cuando Alexander Graham Bell (1847-1922), un logopeda de personas sordomudas, investigaba en las posibles aplicaciones de la electricidad en el campo de sonido. Bell inventó un aparato o transductor con el que era posible convertir una vibración mecánica -como la voz- en un pulso eléctrico. Con ciertas limitaciones, ese pulso eléctrico podía viajar por los mencionados circuitos o cables telegráficos. No sin dificultades, aquel transductor también permitía el proceso contrario, es decir, convertir el pulso eléctrico en sonido audible. Bell se dio cuenta del potencial de su invento al que bautizó como Telégrafo Armónico. Tuvo serias disputas sobre aquella invención en la que otros inventores ya trabajaban pero, al final, sería Bell el que se llevó el gato al agua. En aquellas luchas ayudo -sin duda- la brillante dialéctica y carisma de Bell, y que no tardó en montar una compañía para explotar el invento, la Bell Telephone Company. Se ponía en marcha el servicio telefónico.

En los primeros años el teléfono era un asunto menor comparado con la seriedad del envío de un telegrama. Los hombres de bolsa lo veían con cierto desdén y cosa de “amas de casa”, casi un entretenimiento más. En cambio, los mensajes enviados a través del telégrafo eran concretos y “veraces”, estos se imprimían y no se podían manipular. En favor del terminal telefónico, es decir, el aparato a través del cual nos comunicamos, hay que mencionar que era más barato e infinitamente más fácil de manejar que el telégrafo. Casi cualquiera podía tener acceso a un teléfono y la red de cables tenía algo de humana porque, al descolgar el transductor por el hablábamos (o micrófono), nos preguntaban por el auricular (o transductor de la escucha) con quien deseábamos hablar. Incluso, en aquellos locos años, había tiempo para ensayar nuevos modelos de negocio alrededor de la mencionada red de cables. Uno de ellos es el antecesor del actual “hilo musical” y consistía en emitir música generada por un intérprete a través de una red de cables. Nos referimos al Tellarmonium, hito de la ingeniería y de la música eléctrica.

El teléfono se convirtió en el método de comunicación predilecto para las comunicaciones no oficiales o que exigían esa autentificación. Era una comunicación natural y rápida basada en la voz. Esta razón hizo que su crecimiento fuera exponencial. Todo el mundo quería tener un teléfono en casa y aquel aspecto humano de la Red (las señoritas que te preguntaban con quién querías hablar) dejó paso a una red automática donde tú tenías de indicar el número de teléfono de destino.

La red y los cables se perfeccionaron para transmitir los débiles impulsos eléctricos. Se trabajó en la estandarización a nivel internacional y, con los años, se produjo una fuerte evolución en los terminales disponibles y en la automatización de la red, llegando a casi cualquier rincón del mundo.

Era necesario inventar una red que combinara lo mejor de ambos mundos: la sencillez de un dial, a través del cual podíamos llamar a alguien, y la “robustez” de un mensaje telegráfico o escrito. Eso originó el nacimiento de la Red Telex cuyos terminales eran Teleimpresores con aspecto de máquina de escribir, fácilmente operables por cualquiera. Aunque la codificación Morse quedó anticuada años atrás, esta no cayó en desuso ya que era fácil de aprender por personas. En cambio para las máquinas o “modernos” terminales resultaba un poco limitada y lenta. Así se alumbró el telégrafo y codificación Baudot (1845-1903), más rápida y eficiente, y pensada para la comunicación de máquinas. Los primeros Teleimpresores usaban codificación Baudot para enviar sus mensajes y el circuito, o cable, que une a dos teleimpresores era un circuito que se establecía durante la comunicación y se liberaba cuando esta finalizaba. La Red se encargaba de establecer el circuito.

Para acabar, solo recordar que frente al terminal se sentaba una persona para hablar o escribir un mensaje. Eran los años ’50 del siglo pasado y la Red Telefónica ya estaba extendida y, sobre todo, pensada para transportar la voz de personas. Los ordenadores se acababan de inventar y, como hemos visto en otros textos, eran un recurso clave. Parecía lógico pensar que el siguiente paso era conectarlos entre si y acceder remotamente a ellos.

[ver más imágenes]

Liderazgo Técnico y Transformación Digital

marzo 9, 2018 on 7:32 pm | In innovación, internet | No Comments

Hace años, muchos años, en una conversación de bar, un colega y yo fantaseábamos con que en el futuro, los más importantes y ricos serían los técnicos. En aquellos años, lo que garantizaba el éxito profesional, era tener estudios de empresariales y económicas, y dedicarse al mundo de las finanzas. Era una época donde el triunfador yuppie exhibía un Porsche y el pelotazo era visto como algo normal. No existía Internet, tampoco teníamos móvil, pero ya se adivinada la revolución que suponía “controlar” de un ordenador.

Como digo, de aquello hace mucho tiempo y hoy, si rescatáramos aquella charla, nos sorprendería lo acertado de nuestro embriagado pronostico. A nadie escapa que, desde hace varias décadas, el freak técnico se ha encaramado a los rankings de los más poderosos, ricos e influyentes del mundo, y de ahí dudo que descienda. Todo lo contrario.

La revolución de Internet, y en general del ordenador personal, ha hecho posible la democratización de la tecnología. Casi cualquiera, con una buena idea y el suficiente respaldo (por supuesto, también de profesionales financieros), es capaz de proponer algo que de otra forma sería casi imposible. Esto significa que el control de la tecnología es un diferencial para progresar. Ya lo demostraron gente como Steve Wozniak, Bill Gates y Steve Jobs y, más recientemente, Jeff Bezos, Seguéi Brin, Larry Page, Mark Zuckerberg o Elon Musk. Es una constante que se repite.

Realmente, el núcleo diferencial de todas las empresas que comentamos: Apple, Microsoft, Amazon, Google, Facebook y Tesla, entre otros, es el dominio de la tecnología. Ellos inventan tecnología que les permite ser diferentes, mejores que el resto. En cambio, ese resto, empleamos la tecnología que ellos han inventado y que permiten que usemos. Podemos encontrar muchos ejemplos pero me centraré en el mundo de los datos. Ellos, por su naturaleza global (Internet) y para dar un mejor servicio al usuario, vieron que las todopoderosas bases de datos relacionales y los monolíticos ordenadores centrales, eran poco eficientes. Por esa razón inventaron o apadrinaron el uso de muchas máquinas, baratas y sencillas, conectadas entre sí formando un clúster. Por supuesto, para que esto funcionara había que meter mano en el sistema operativo y tunearlo a tu gusto. Así, el uso de Linux, tenía todo el sentido. Como escribía antes, las bases de datos relacionales han demostrado y demuestran, que son muy eficientes para acumular y recuperar cierto tipo de información muy tabulada. En cambio, en un entorno donde cada dato o atributo que define a un objeto o persona es diferente y estos, las personas, se cuentan por cientos de millones y están repartidos por todo el mundo, el concepto clásico de base de datos no escala bien, es decir, no crece al nivel que se espera.

Así nacieron las bases de datos NoSQL. Todos hemos oído hablar de Cassandra, Redix o MongoDB, por ejemplo. Es cierto que son herramientas accesibles y que cualquiera puede usarlas pero, si rascamos en sus orígenes, nos encontramos que han sido impulsadas por gente como Apache, VMWare, Facebook, Yahoo! o Google. Lo mismo sucede con el famoso Hadoop. Es decir, ya tengo una buena idea de negocio o de cambio “del mundo” pero, para llevarla a la práctica necesito crear una nueva tecnología. O al contrario: he creado una nueva tecnología que puede ser aplicada para este determinado negocio.

Lo anterior me lleva a pensar en el futuro de aquellas empresas, que aun siendo muy grandes y poderosas, intentan Trasformase Digitalmente y dejan la sensación de no conseguirlo plenamente. Sé que es un tema muy complicado y tiene muchos ángulos desde el que ser estudiado pero cabría pensar que, al carecer de ese liderazgo técnico, siempre van a ir un paso por detrás. Por supuesto que las herramientas están ahí, a su alcance, como para ti y para mí. Pero ellos solo usan lo que escapa de las patentes -e incluso del secreto- (de los tecnólogos). Tampoco, por ejemplo, son capaces de impulsar una Comunidad de Desarrolladores, un nuevo algoritmo para el análisis de datos, o un estándar y, carecen de la visión, espíritu y dinero para apostar en ideas que puedan parecer alocadas.

Datos, datos y más datos

marzo 8, 2018 on 3:45 pm | In innovación, internet | No Comments

Hace unos días, en una intervención de Dimas Gimeno, presidente de El Corte Inglés, hablaba de la necesidad de equiparar a todos con las mismas reglas de juego, se refería, como es de suponer, a las empresas que están dando pequeños mordiscos al negocio tradicional de esta marca. También dejaba ver la necesidad de cambiar porque, queramos o no, los hábitos de los consumidores cambian y, como no, también se refirió al manido tema de los datos. Nos recordaba los 75 años de historia de ECI y de la experiencia que ello le confiere en “ese conocimiento del cliente”. Casi de igual forma se manifestaba Chema Alonso en la víspera del MWC, cuando desveló el significado de Aura. Nos contaba que ellos, Telefónica, tienen acceso a muchos datos porque llevan casi 100 años prestando servicio. Está claro que cada uno comenta cosas muy diferentes pero ambos hablaban de una realidad que está ahí, los datos.

Comerciar con los datos no es nuevo para nadie. Recordar cuando nos sentíamos importantes por ver nuestro nombre en las mastodónticas guías telefónicas… Menos ilusión hacía cuando empezábamos a recibir en nuestro domicilio publicidad no solicitada. ¿Cómo llega nuestro número de teléfono a una empresa de telemarketing? Mejor ni pensarlo… ¿De dónde salen nuestros datos? Si hablamos de empresas como ECI es similar: Cuando te haces una tarjeta de cliente o fidelización sueles estar “controlado”. Aquellas tarjetas, que nacieron con el sano propósito de financiar la compra, pronto se usaron como un medio más de conocer nuestro patrón de consumo. Me olvidaba: Otros que saben mucho de datos son los bancos. Ellos conocen, de primera mano, cuales son nuestros  ingresos y gastos.

¿Qué ha cambiado?
Estos datos estaban antes de que naciéramos: Nuestro DNI, teléfono, dirección, ingresos, gastos y, como veíamos, la cesta de la compra. La aparición de Internet y el uso masivo del correo electrónico hizo que a esta lista de datos (digamos básica) se añadieran otros. Recordar, no tardamos en ser castigados con el molesto spam… Por otra parte, las comunicaciones en Internet, para que funcionen, requiere de una dirección IP única y, con todo el sentido, un administrador de un servidor web está interesado en conocer cuántos visitantes se cuelgan de su página. Así las cosas, irrumpen los buscadores cuya misión principal es hacernos la vida más cómoda en Internet. Ellos actúan de intermediarios entre nosotros e Internet. Conocen todo lo que buscamos y lo guardan en sus bases de datos. En un principio solo conocen nuestra dirección IP, que puede cambiar en cada acceso que hacemos, pero se cuidan de enviarnos una silenciosa piececita de software -o cookie- con la que nos identificamos (sin saberlo). Recordar que el uso de estas cookies es generalizado y no es exclusivo de un buscador. Ya nos tiene controlados y pueden modelar o dirigir nuestra navegación y atención como quieran. Más tarde nos regalaron direcciones de correo y espacio de almacenamiento y, lógicamente, nos teníamos que registrar y aportarles más detalles sobre nuestra identidad. Por último, se les ocurrió montar una red de conocidos dentro de Internet con la que podríamos compartir imágenes, textos o cualquier archivo multimedia. Esa red, para que funcione y sea eficiente, tiene que almacenar todo lo que queremos compartir. Es decir, son más datos vinculados con nosotros.

En modo alguno pretendo criticar o dirigirme contra esta industria pues, esta forma de funcionar, ha demostrado mejorar nuestra experiencia en Internet. También ha permitido innovar en campos donde parecía que todo estaba inventado y está iniciando una fuerte Trasformación, Digital por supuesto. Es cierto que esta Transformación está provocando que muchos sectores vean amenazada su posición o puestos de trabajo, y que el uso de cierta tecnología haga aumentar, exponencialmente, la riqueza de unos pocos en contra del desempleo de muchos. Creo que esta situación no nos conviene en una sociedad pues, a la larga, es mala para todos y tendremos o tenderemos a remediarla.

Tampoco nos conviene, como individuos, perder nuestra privacidad. Aunque nuestros datos estén ahí, no creo que a nadie de Google o Facebook le interese quien soy. A ellos les interesa el conjunto del que formo parte. Ellos usan nuestros datos analizándolos para entender o predecir que hacemos o que queremos. Parece ser que, incluso, pueden conocer un resultado electoral analizando la actividad previa en Twitter… En fin, para nuestro consuelo, hay que decir que muchas de las decisiones clave de estas empresas, incluidas las poner en marcha una nueva iniciativa, se toman analizando estos datos y es importante no olvidar que, aun así, se equivocan y fracasan, y algunos proyectos acaban en la basura por culpa su interpretación.

En cambio, sí me preocupa el uso criminal de esta información. Si los datos que almacena Facebook, LinkedIn, Apple o cualquier otro, caen en manos inadecuadas podemos encontrarnos con situaciones incomodas. Es importante recordar esto para que la próxima vez que nos suscribamos a una nueva plataforma o tarjeta de fidelización pensemos: ¿Si me doy de alta aquí y alguien “malicioso” se entera, en que me vuelvo vulnerable? ¿Alguien me puede atacar sabiendo el tipo de café que tomo?

Vistando Museos (Ordenadores y Telecomunicaciones)

marzo 1, 2018 on 6:02 pm | In galería de imágenes, retroinformática, robotica, telecomunicaciones | No Comments

Siempre que tengo oportunidad de salir de mi ciudad intento hacer alguna escapada a algún museo. No oculto que tengo debilidad por aquellos que atesoran piezas de tipo tecnológico. Para mi representan una forma de reflexionar sobre el pasado y buscar algo de inspiración para abordar el futuro… y si puedo, y me lo permiten, intento sacar alguna fotografía de las piezas más llamativas.

Durante mucho tiempo he ido conservando estas fotos en un disco duro que solo yo -muy de vez de cuando- volvía a mirar. Bien, es hora de ir sacando a la luz estos recuerdos para que no queden en el olvido y aquellos de vosotros que estéis interesados, podáis copiar y disfrutar. Aprovechado esta colección, he creído oportuno añadir algunos diagramas de algunas máquinas para que veáis su evolución. También alguna foto que localicé por Internet.

[ver más imágenes]

Vehículo Conectado ¿Evolución o Revolución?

febrero 28, 2018 on 9:29 pm | In innovación, internet, telecomunicaciones | No Comments

Atrás queda la última edición del Mobile World Congress (MWC) y tengo la sensación de no haberme dejado sorprender por nada. En las ediciones que anteriormente visité (y esta es la octava) la tecnología 5G, los robots, el IoT, la inteligencia artificial o el Big Data ya ocupaban protagonismo en los stands. Incluso, recuerdo, que en mi primera cita con esta feria eran novedad el sistema operativo Android y el propio iPhone. Mejor no hablar de las largas filas para probar los últimos visores de realidad virtual…

Estamos acostumbrados a conocer casi en tiempo real los avances que se van produciendo y en este sector, si quieres llamar la atención, es necesario subirse al carro de la novedad y alimentar las expectativas. También, supongo, que en las grandes empresas participadas, es necesario estar en un evento así para mandar un mensaje de fortaleza a tus inversores. En cualquier caso, para mí, el año 2018 lo recordaré cómo Evolución.

En tecnología son necesarios estos periodos de Evolución. Es necesario asentar los modelos de negocio. A pesar de los anuncios de una nueva solución, es vital dar tiempo para que esté madura y se desarrollen los estándares. Lo hemos visto en numerosas ocasiones y, más o menos, todo sigue una pauta predecible.

Frente a las Evoluciones están las Revoluciones. Hablamos de Revolución cuando el cambio se produce de manera rápida, en ocasiones de forma violenta, disruptivamente. También podemos identificar una Revolución por el número de sectores sociales o económicos a los que afecta. Todos hemos estudiado las Revoluciones que cambiaron la historia de la humanidad ¿Y del mundo tecnológico? En este capítulo, sin duda, me quedo con Internet. Aunque creció poco a poco, la posibilidad de que nos pudiéramos conectar entre nosotros a través de una red de redes cambió –y cambia- muchas cosas de nuestra cotidianidad. Por ejemplo, es la razón por la que nuestras vidas giren en torno a la pantalla de un Smartphone o Tablet, y tantas empresas existan.

Aunque los anteriores párrafos no son el motivo de este texto, me permiten fijar un punto de vista desde el que hablaros de lo que considero que será la Gran Revolución. Me refiero al vehículo autónomo o conectado. Aunque ya venimos hablando de él desde hace años, y en algunas ciudades ya se les puede ver… y los stands del MWC con un coche son muy llamativos… el impacto en nuestra sociedad será enorme. Pensemos en como se tendrán que transformar las ciudades: Será necesario dotarlas de puntos de carga en casi todas las calles. Imaginemos por un momento el semejante esfuerzo que implica tal obra pública. Ahora teoricemos en cómo tiene que cambiar nuestra fisionomía energética: Atrás queda el petróleo y vamos hacia otras formas de generación y almacenamiento eléctrico. Y si hablamos de vehículos conectados, la red con la intercambiamos datos es vital: En cualquier carretera el número de coches en circulación es inmenso, y asegurar su conexión supone un desafío para los operadores de telecomunicaciones. Hasta el momento solo hemos visto cómo afectará a tres (grandes) sectores económicos el citado cambio pero ¿Qué pasará con otras áreas de nuestra vida? ¿Los talleres mecánicos? ¿Cuál será el destino de todos los transportes públicos basados en un conductor? ¿Qué pasará con las pólizas que pagamos por el seguro de nuestros coches? ¿Legislación? ¿Academias de conducir? Nosotros, incluso, como personas cambiaremos: Hoy, el vehículo, y nuestra forma de conducir, son casi una prolongación de nuestra personalidad…

Página siguiente »


(c) 1999-2018 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress