BIOS y Clean-room Design

abril 30, 2018 on 3:53 pm | In colección, hist. informática | 2 Comments

Adolfo García Yagüe | Durante los meses siguientes al lanzamiento del IBM Personal Computer, esta máquina se convirtió en el líder indiscutible de su segmento. Las compañías más fieles a IBM no esperaban menos y sus competidores quedaron descolocados. A pesar de ser carísimo, la robustez de aquel ordenador, su diseño, flexibilidad y arquitectura se convirtieron en el ejemplo a seguir. El PC de IBM también fue el responsable del abandono definitivo de la arquitectura S-100, vigente desde 1975 y herencia del Altair 8800. En definitiva, IBM conquistó un mercado en el que no estaba presente.

Desde el principio logró, además, despejar cualquier suspicacia empresarial y documentar aquella máquina para que otros tuvieran la oportunidad de innovar y hacer negocio con su PC. En este ejercicio de transparencia IBM llegó a publicar, en los famosos Technical Reference, todos los detalles de funcionamiento del 5150 y sucesivos, incluyendo los esquemas electrónicos y la BIOS desensamblada y comentada. Estos libros, además de facilitar la reparación, suponían una ayuda a quién quería diseñar un nuevo adaptador. Lógicamente, también ponían fácil y tentador copiar e intentar hacer una maquina compatible…

Si IBM dio a conocer al mundo su nueva máquina en septiembre de 1981, en el verano del año siguiente aparecería, con aspecto similar pero un poco más grande, el que se considera primer ordenador compatible de la historia, el Columbia Data Products MPC 1600, y en noviembre de ese mismo año se anuncia el famoso Compaq Portable. En ese mismo mes, en la revista Byte, se publicaba como construir un “inspirador” ordenador de 16 bits cuyos slots eran compatibles con los periféricos del IBM PC. Era el MPX-16 de Steve Ciarca. Esta máquina tenía un claro propósito docente pero, no obstante, es similar en su arquitectura a un PC. Y en 1984, dos pequeñas compañías, Award Software y Phoenix Technologies, empezaban a comercializar una BIOS compatible con el PC de IBM…

Como escribí en el artículo anterior, la BIOS inicializa e interactúa con los diferentes chips de la placa base. Las antiguas BIOS también sirven de punto de entrada o API (Aplication Layer Interface) para que cualquier sistema operativo o programador se pueda relacionar con el hardware de una forma estándar. Es decir, ese pegamento software permite al sistema operativo (MS DOS o CP/M-86) controlar los chips sin importar como estos estén organizados.

Los chicos de Columbia Data Products y de Compaq (Compatibility And Quality) programarían su propia BIOS compatible sin infringir las patentes de IBM. Para ello demostraron que sus ingenieros no tuvieron contacto con la BIOS original, ni que leyeron los Technical Reference. Es decir, tuvieron que demostrar que solo haciendo ingenieria inversa de un IBM PC habían conseguido desentrañar los secretos de este. Es lo que se llamó “Diseño en habitación limpia” o Clean-room Design, o el sitio donde se supone que trabaja un equipo de ingenieros que no se ve “contaminado” por el intríngulis real de la competencia. Solo pueden conocer el resultado ante una pregunta, no como actúa internamente el PC. Este capítulo de la historia se recoge en la primera temporada de la serie de TV “Halt and catch fire”. Allí, sus protagonistas, construyen un ordenador llamado Gigante que es compatible con un IBM PC. Como imagináis, un ejército de abogados de IBM inicia una disputa con la empresa fabricante de Gigante, Cardiff Electric, y estos tienen que demostrar que han trabajado en una Clean-room.

A Compaq no solo le bastaba tener su propia BIOS. A fin de cuentas era una nueva empresa de Texas que tenía que demostrar que su producto era diferente y mejor que el original. Ahí reside su éxito. El Portable de Compaq no era más barato que IBM pero era más rápido y diferente. El sinónimo de calidad y compatibilidad nunca abandonaría a esta empresa hasta que fue comprada por Hewlett Packard en el año 2002. Evidentemente, como digo, en sus comienzos, además tenía que diferenciarse por algo más “vistoso” y qué mejor forma que hacerlo con un ordenador portable, compatible, que podías transportarlo por todo el mundo… Ese es el nacimiento del Compaq Portable.

Como veíamos anteriormente, Compaq programó su propia BIOS pero era evidente que esto no estaba al alcance de todos. También había que lidiar con IBM, sus abogados, y aguantar el desgaste económico y de plazos que esto supone. Por estas y otras razones muchos fabricantes fracasaron legalmente, o no alcanzaron una compatibilidad plena o bien hacían lo mismo que otros. Para evitar esos problemas aparecieron las compañías Phoenix Technologies y Award Software, dos pequeñas empresas que ofrecían al resto una BIOS que había pasado el filtro legal de la Clean-room Design, y que funcionaba tan bien como la de IBM. Solo era cuestión de centrarse en el diseño hardware y alcanzar un acuerdo con Microsoft.

Award y Phoenix animaron el mercado de las máquinas compatibles. La BIOS de cada compañía facilitó la vida haciendo posible la entrada de otros fabricantes y, en cierta forma, presagiaban la corta hegemonía del IBM PC aunque, como veremos, esta pérdida de liderazgo fue lenta. En este sentido hay que recordar que IBM no estaba preparado para un mercado tan agresivo como el del PC compatible. Además de la calidad y la constante innovación, era necesario competir en precio, cosa a la que IBM no estaba habituado.

Los chips de Intel, la BIOS de Award y Phoenix, el acceso al MS DOS de Microsoft, la facilidad para copiar ilegalmente cualquier software y la bajada de precios, permitió que el “ordenador clónico” fuese realmente popular. Poco a poco el mercado vio aparecer a fabricantes asiáticos ofreciendo productos compatibles. Nacían marcas por cualquier lado y había, como no, algo de burbuja.

En España, en aquella guerra y primeros años del PC Compatible, destacan dos marcas conocidas por todos, una británica, Amstrad; y otra española, Investrónica o Inves. A pesar de ofrecer meros clónicos tenían imagen de marca, red de distribución y soporte, y precio. No hay que olvidar que Amstrad llevaba unos años diseñando y comercializando buenos ordenadores de 8 bits. Y, en el caso de Investrónica, se trataba de El Corte Inglés quién estaba detrás, y se notaba su experiencia previa en la distribución de marcas como Osborne, el ST de Atari y Sinclair. Amstrad e Inves hicieron posible que el PC se popularizara en España. Estamos en 1987 y, como he dicho en alguna ocasión, aquellos que querían trascender de los 8 bits se compraban un PC o, por el contrario, optaban por los deslumbrantes gráficos y sonido que ofrecían el Atari ST o el Commodore Amiga.

Amstrad desarrolló su propia BIOS y una novedosa línea de PCs que rompía con lo visto anteriormente. Con el Amstrad PC 1512 demostraron que se podía fabricar un PC semi-compacto, todo en uno. La fuente de alimentación estaba en el monitor y, desde allí, se alimentaba la CPU. La placa base estaba entre dos chapas metálicas con las que se pretendían evitar los problemas inherentes a su acabado exterior plástico. En aquella placa ya estaban todos los puertos necesarios: Paralelo para conectar una impresora; serie o RS-232C donde se pinchaba un módem; y la conexión del ratón que ya era un estándar. Además, Amstrad nos introdujo en el mundo de las ventanas de la mano del novedoso entorno gráfico de Digital Research, el GEM (Graphical Environment Manager). Aún, en España, no habíamos oído hablar de Microsoft Windows ni apenas se conocía el Macintoch o Lisa de Apple. Por si fuera poco, Amstrad acompañó la campaña de lanzamiento “regalando” la malísima impresora DMP 3000. Aquello fue un boom y nos permitió comprar un PC, aunque su CPU fuera de plástico ;-).

Por su parte, Inves hacía de su fuerte la potencia de su red de distribución. Además del citado Corte Inglés contaba con numerosas tiendas que vendían estas máquinas. También tenía un cuidado catálogo y sus máquinas eran buenas. En cualquier caso, al abrir estas, te dabas cuenta que se limitaban a importar un producto que ellos no diseñaban ni fabricaban. Es cierto que conocían bien el mercado y que hacían un notable esfuerzo en documentar todos los componentes pero hacían una labor de integración de lo que otros fabricaban en Asia. La BIOS de alguna de sus máquinas era de Phoenix Technologies.

Colección | IBM Personal Computer 5150

IBM Personal Computer 5150

abril 18, 2018 on 7:09 pm | In colección, hist. informática | 6 Comments

Adolfo García Yagüe | Como atestigua la publicidad de la época y alguna pieza de la colección, en 1981, año del lanzamiento del IBM Personal Computer modelo 5150, el mercado del Ordenador Personal (o PC) ya existía. Desde hacía algunos años empresas como Apple se esforzaban en explicar que el empleo de ordenadores hacía menos tedioso el uso de datos o la confección de textos. También, misteriosamente, el Ordenador Personal prometía expandir nuestra creatividad e introducirnos en una nueva era.

Desde tiempo atrás IBM (International Business Machines) era un referente. Al finalizar la década de los ‘70 era el rival al que robar una pequeña porción del mercado de los grandes sistemas: En IBM inventaban lenguajes de programación, sistemas de almacenamiento, sistemas operativos, máquinas, todo… No se puede decir que no innovaran, todo lo contrario, pero dejaban poco espacio a otros suministradores. No obstante, en aquel entorno hostil, aparecen jóvenes empresas que tienen la visión de acercar un ordenador a cada puesto de trabajo y hogar. La aparición y popularización de estas máquinas dejaba claro que el mundo estaba cambiado, e IBM no podía ser ajeno al momento.

Si quería ofrecer una solución a tiempo, IBM necesitaba comercializar un PC y ajustar su precio. Con este propósito acudió al mercado buscando componentes y suministradores. Al frente del equipo de desarrollo del 5150 puso a Philip Donald Estridge (1937-1985), quién trabajaría lejos de los centros habituales de decisión, en la fábrica de Boca Ratón, Florida. Esto supuso que la toma de decisiones de Don Estridge sería más ágil y estaría menos influenciada por la cultura de Big Blue. Como digo, en aquella máquina se pretendía integrar el mejor hardware de la época y programar una BIOS (Basic Input-Output System) que diese uniformidad y sirviese de nexo con un sistema operativo. Hay que recordar que la idea no era nueva, lo novedoso es que fuera IBM quién lo hacía así.

Donald Estidge se puso manos a la obra. En estos casos lo primero que hay que hacer es estudiar el mercado y a tu competencia. Don no tardó en darse cuenta que la mayoría -por no decir la totalidad- de PCs estaban basados en microprocesadores de 8 bits. Estaba claro que IBM no podía ser uno más, por lo tanto la nueva máquina sería de 16 bits, asegurándole poder manejar más memoria y tener más potencia. Ahora había que seleccionar al fabricante del micro. En aquellos años, los 16 bits existían pero eran novedosos para un usuario. Ya se podía optar por fabricantes como Zilog, Motorola o Intel. En el caso de Motorola, a pesar de ser una gran compañía, el reciente 68000 (año 1980) estaba un poco inmaduro y todo el ecosistema de chips necesarios para fabricar un equipo era inexistente. Por su parte, el Zilog Z8000 era algo más veterano pero incompatible con los Z80. En cambio Intel acumulaba bastante experiencia con la arquitectura 8080 y además, en 1978, había lanzado un chip de 16 bits -el 8086- y tenía resuelto todo el chipset. La decisión estaba clara: Intel con el 8088, el hermano menor del 8086.

En efecto, si comprobamos una de las placas originales del IBM PC nos damos cuenta que están diseñadas para chips Intel: Además del citado 8088, encontramos al 8259 (interrupciones), 8233 (gestión de memoria o DMA), 8255 (PIA), microcontrolador del teclado, 8284 (generador del reloj) y 8087… Resumiendo, los micros principales son Intel y como tal, Intel facilita el diseño de referencia de cada chip, razón que convierte al 5150 y los posteriores 5160, 5162 y 5170 en equipos sencillos de comprender y, sobre todo, abiertos.

La siguiente elección es el sistema operativo que, en aquel momento, parecía clara: el CP/M, de Digital Research, y su nueva e inminente versión para 16 bits. El diseño modular del CP/M le permitía abstraerse de cada chip y solo interactuaba con el hardware a través de la BIOS. Así, con pocas modificaciones, lograba trabajar con muchos fabricantes de ordenadores y hardware. Mientas, al usuario, ofrecía un conjunto de comandos sencillos con los que trabajar con sus ficheros y discos flexibles. Como digo, la decisión del CP/M era evidente porque era la más conocida pero, la negociación entre IBM y Digital Research fue compleja y, sobre todo, se producían retrasos en la disponibilidad de la versión de 16 bits. Esta situación era conocía por Microsoft quién también había sido elegido por IBM para la incluir su popular interprete BASIC. El asunto es que IBM estaba atascado con el CP/M, y Microsoft conocía la existencia de un sistema operativo de 16 bits -inspirado en aquel- llamado 86-DOS de Seattle Computer Products. El pelotazo no se le podía escapar a Microsoft: compró barato a Seattle y vendió caro a IBM. Además Microsoft consiguió que este sistema operativo pudiera ser vendido a cualquier fabricante, igual que hacia Digital Research con su CP/M. Así es como se seleccionó el famoso MS-DOS aunque, en aquel momento, IBM se esforzara en llamarlo IBM PC DOS.

Desde las máquinas sucesoras del Altair 8800 o bus S-100 (año 1975), ya se documentaba su diseño y era normal publicar los esquemas. Es cierto que aquella primera generación de máquinas está dirigida hacia aficionados de la electrónica. Aun así, un poco más tarde del Altair, en 1977, Apple lazaría el Apple II donde seguía incluyendo el esquema electrónico y el detalle de sus conectores de expansión. En este caso se pretendía animar la aceptación del mercado y el crecimiento de ventas facilitando el desarrollo y fabricación de periféricos por parte de otras empresas.

Pues bien, en las conocidas Technical Reference, IBM publicaría además de los esquemas electrónicos, el contenido detallado de su BIOS también con el ánimo de facilitar la adopción y crecimiento de la nueva máquina. Imagino que pensaron en el riesgo de la clonación y que únicamente con su marca y abogados tenía poco que temer… Aquellas decisiones cambiaron la historia de los ordenadores y me atrevo a decir que la nuestra también. Aun así, hoy, creo que en las escuelas de negocios, se tendrían que revisar estás importantes lecciones sobre innovación, imagen de marca, patentes y negociación…

Colección| BIOS y Clean-room Design

Módems, teleproceso, servicios on-line y BBS

abril 11, 2018 on 7:01 pm | In colección, hist. informática, hist. telecomunicaciones | 5 Comments

Adolfo García Yagüe | A lo largo de su dilatada historia, el desarrollo de la red de telefonía ha tenido que hacer frente a numerosos retos técnicos. Dejando a un lado el perfeccionamiento del propio terminal telefónico, los más tempranos tenían que ver con la red de transporte o pares de cobre. Si se quería llegar a todos los rincones, había que bajar el precio de aquellos (carísimos) cables pensados para el envío de telegramas. Con este reto en mente se fue disminuyendo la cantidad de cobre empleado su fabricación. Esto, obviamente, suponía mejorar las técnicas de trefilado, y así conseguir cables más finos y económicos. La distancia también era un desafío complicado. Para tener una red que llegara lejos era necesario salvar grandes distancias y conseguir que la voz viajara correctamente, sin apreciar molestos ecos, interferencias o diafonías. Esta razón impulsó enormemente el desarrollo de soluciones capaces de amplificar el impulso eléctrico de la voz y la cancelación de ecos. La red de larga distancia, incluyendo los tendidos transoceánicos, se benefició enormemente de estas mejoras.

Otro reto fue la capacidad de transportar por un solo cable varias conversaciones a la vez, es lo que se conoce como multiplexación. Como podemos imaginar, este avance economiza cada conversación ya que no es necesario dedicar un par de cables a cada una de ellas. Al principio, esta multiplexación era muy limitada y estaba basada en circuitos o cables fantasma. Es decir, por dos parejas de cables físicos (cuatro cables) se desarrollaba un circuito virtual que era aprovechado por una tercera conversación. Hay que reconocer lo imaginativo de este ingenio pero, técnicamente, podía ser la causa de misteriosas diafonías y resultaba complejo de amplificar. El uso de cables fantasma dejó paso al empleo de otras técnicas y cables: los llamados coaxiales. Estos cables diferían significativamente del clásico par de conductores de cobre. El cable coaxial ofrece mejor aislamiento electromagnético y mayor ancho de banda. Esto quiere decir que puede trasportar más capacidad y que “funciona” a otras frecuencias diferentes a la banda base. Es decir, además del canal base, pueden viajar otros canales en otras frecuencias. Cada uno de estos canales es, virtualmente, un cable por el que puede viajar una conversación. En este caso la multiplexación se hace por frecuencia. El empleo de los mencionados cables coaxiales se hizo en rutas de larga distancia y cables transoceánicos. Cuando la voz se convirtió en datos, mediante la digitalización o modulación en pulsos codificados (o PCM – Pulse Code Modulation), a la multiplexación en frecuencia se le añadió la multiplexación en tiempo. Hoy, en los cables de fibra óptica, también se mantienen ambas técnicas para aprovechar al máximo un portador.

Lo que quería introducir en el párrafo anterior es el concepto de innovación y evolución constante. Aquella red, que se concibió y creció para permitir el transporte de la voz, le tocaba adaptarse a la comunicación entre ordenadores. Este reto suponía modificar la red o hacer que los ordenadores emitiesen algún sonido que pudiera ser trasportado por los cables telefónicos. Por esta razón, se optó -ya que era más económico- por la “sencilla” solución de inventar algún tipo de modulador que convirtiese el lenguaje de los ordenadores en tonos de audio. Ese es el nacimiento del MÓDEM (modulador y demodulador). Este ingenio, como si se tratase de un intermediario, se conecta a la máquina y a la red de comunicaciones, permitiendo que los primeros intercambien mensajes mediante “pitidos”. A ambos lados de la conexión era necesario poner uno de estos MÓDEM para que convirtiesen los datos y tonos, y viceversa.

Para homogenizar las comunicaciones entre MÓDEMs era necesario garantizar el funcionamiento entre distintos fabricantes y así marcar su evolución, por esta razón la CCITT (Comité Consultivo Internacional Telegráfico y Telefónico), ahora ITU (International Telecommunication Union), ha ido publicando diferentes recomendaciones para enviar datos sobre líneas telefónicas. Estas normas, por ejemplo, facilitan que dos MÓDEM de la norma V.21 puedan hablar entre ellos. Las citadas especificaciones han ido evolucionando para permitir mayor velocidad hasta que ha sido imposible exprimir más al viejo cable de cobre. Por esa razón pasamos a la tecnología ADSL y sus variantes y, en la actualidad, a la fibra óptica. Pero, de momento, volvamos a los MÓDEM.

Como podéis suponer, el mayor reto al que se han enfrentado los fabricantes de MÓDEMS es el de la velocidad y adaptarse a la calidad de las líneas telefónicas. Lograr esto significa una evolución constante en la técnica de modulación y compresión de los datos. De distintas formas, lo que se ha conseguido en este tiempo, es convertir en analógico los datos digitales que produce un ordenador y, una vez en el dominio analógico, actuar sobre los parámetros de esa señal: su frecuencia, fase y amplitud. Por eso hablamos de modulaciones FSK (Frequency Shift Keying) y QAM (Quadrature Amplitude Modulation) entre otras.

Los primeros MÓDEMS a los que tuvimos acceso los usuarios más humildes eran los denominados Acopladores Acústicos. Estos inventos se conectaban físicamente al teléfono y su velocidad era muy baja, no superando los 300 bits por segundo, definidos en la norma V.21. Estos Acopladores Acústicos fueron importantes pero, como su nombre indica, se “acoplaban” físicamente al terminal telefónico siendo muy limitada su velocidad. Pronto tendríamos acceso a una nueva generación de MÓDEMS, más compactos y rápidos.

Antes hablábamos que el MÓDEM se conectaba a los pares de cobre y al ordenador. Es importante recordar que esta comunicación entre MÓDEM y ordenador estaba también normalizada y no era nueva. Se utilizaba (y aun hoy se utiliza en muchas conexiones) una comunicación serie, estandarizada en el año 1969 según la norma RS-232. Esta norma, o tipo de interface, describe como se conectan dos máquinas e intercambian y aceptan cada mensaje.

Otra de las dificultades a las que se tuvieron que enfrentar los fabricantes de MÓDEMS, era la necesidad de mandar y recibir mensajes -desde o hacia- el ordenador sobre la velocidad o estado de la línea. De esta forma un ordenador podía informar al usuario y tomar una determinada decisión. Esta señalización tenía que viajar por el RS-232 en banda, esto es, junto con los datos del usuario. Por ejemplo, en caso de que nos llegue una llamada para conectar con un ordenador central, el equipo destinatario que tiene atender la entrada debe ser capaz de informar al usuario o aplicaciones de que alguien quiere conectar remotamente. De manera contraria, si nosotros deseamos “forzar” o configurar un determinado comportamiento del MÓDEM, tenemos que ser capaces de programable a través de algún comando. Aunque ya se utilizaban y se conocían estos mensajes eran casi de uso específico a cada tipo y fabricante de MÓDEM. No eran de uso generalizado ni existía compatibilidad de fabricantes.

Sería una pequeña y joven empresa la que inventó un conjunto de instrucciones que se convertirían en el estándar a seguir para el resto de competidores. Aquella empresa se llamaba Hayes (DCHayes en sus inicios) y fue fundada por Dennis C. Hayes (1950) y Dale Heatherington (1948). Ellos convirtieron al MÓDEM en algo de uso normal, fácil y sencillo. Al comienzo de la década de los ´80, acercaron esta tecnología al mundo de los incipientes ordenadores personales y los equipos domésticos. También facilitaron el camino de un nuevo mercado que nacía, consistente en el acceso remoto a sistemas de información, como CompuServe, juegos on-line y las populares BBS. Por supuesto, el famoso Teleproceso y la Teleinformática, existentes en los grandes ordenadores, eran algo más cercano gracias a Hayes y otros fabricantes.

Colección| ARPANET, X.25 e Iberpac | Internet e Infovía | 56K, ADSL y GPON | Fibra Óptica

La supuesta injerencia usando los datos de Facebook

abril 5, 2018 on 4:50 pm | In análisis de datos, internet | No Comments

Tras las recientes noticias aparecidas en los medios resulta irresistible escribir sobre el tema. Como podéis suponer me refiero al embrollo montado a cuenta de Facebook, Donald Trump, el Brexit, Cambridge Analytica y, como no, el uso de los datos.

Empecemos por Facebook. Parece sorprendente que, a estas alturas, nos escandalicemos cuando dejamos –voluntariamente- tanta información bajo su control. El análisis de esta información en su poder es lo que les aporta valor ¿De qué forma crecen tanto esta y otras redes sociales? ¿Cómo se financian? ¿WhatsApp? ¿Instagram?

No solemos leer los acuerdos de uso y estos son excluyentes, es decir, si no los aceptas quedas fuera. Igual de cierto es que estamos recibiendo algo a cambio, en forma de servicio. Quizás, en un exceso de ingenuidad, sigo pensando que, lo más preocupante, es cuando estos datos son accesibles por una tercera parte y así sucesivamente, o un criminal. Por eso también creo en el autocontrol y no comparto determinada información… No obstante, lamentablemente, al leer lo que está aconteciendo, da la sensación de que FB ha perdido el control de nuestros datos. Me vienen a la cabeza todas esas páginas que, a fin de simplificar la suscripción, te “permiten” usar tus credenciales de entrada a Facebook, o Google, o LinkedIn… Todo depende de a qué datos puedan acceder y, en el caso de Facebook, con la coartada académica e investigadora, casi cualquiera podía acceder a todo, incluyendo a tú muro. Parece que fue así hasta, al menos, el año 2014.

En este contexto aparece una firma llamada Cambridge Analytica (CA) y una aplicación puesta a disposición de los usuarios de FB llamada thisisyourdigitallife, creada por Aleksandr Kogan. Evidentemente, al instalártela, eran capaces de acceder a tus datos. Es decir, la pantalla entre un usuario y CA era esta App. CA ofrece servicios especializados en consultoría, estudios de opinión, segmentación social y perfiles psicográficos, entre otros. Es decir, aportan información para facilitar la toma de decisiones o enfocar una determinada campaña hacia un partido político. Del análisis de los datos tomados -con engaños- de Facebook, supuestamente, se creen capaces de establecer un perfil y dirigir tu intención de voto… Más o menos lo que hacen tus amigos de la red social cada vez que te envían un meme sobre política o gatitos…

¿Es ilegal? Posiblemente pueda ser ilegal si no has dado explícitamente tu consentimiento al uso de los datos por parte de otros, como CA y su App. Pero, como decía, leer la letra pequeña de esos infumables términos de uso es algo demasiado arduo y además, juegas con desventaja. ¿Es poco ético o irresponsable la práctica de Facebook en el uso de los datos? Posiblemente, es evidente que ellos comercian con estos datos, nosotros somos su producto y es con lo que ganan dinero. Pero, insisto, no es lo mismo que ellos hagan un análisis de datos agregando información, que den acceso indiscriminado a un tercero, e incluso este control pueda ir más allá entrando en la vida de una persona. Pienso que, en el futuro inmediato, tendrán que ser más rigurosos en el uso y acceso que hace FB y otras empresas a nuestros datos.

Hasta aquí la parte más clara de lo que ha pasado que, seguramente, no volverá a repetirse de la misma forma y provocará cambios en todas las redes sociales. Ahora viene el capítulo más turbio y tiene que ver con el Brexit y la campaña de Trump. Como sabéis ambos tienen un denominador común relacionado con el auge del populismo. Es clara la ideología política de estos fenómenos y parecen evidentes sus conexiones. Ahora bien, creo que vincular el resultado de ambas elecciones con Facebook y el análisis de datos es un poco exagerado… e interesado. Por poner un ejemplo evidente, si observamos de dónde han salido los votos anti-Trump y anti-Brexit nos damos cuenta de que proceden de gente joven, urbana y sobre todo, más habituados al uso de Facebook y otras plataformas sociales. En cambio, la gente más mayor y sobre todo, las personas blancas y sin apenas estudios, han votado a Donald Trump. Es el discurso provocador de Trump y la demagogia de los líderes del Brexit lo que les ha dado ese resultado. También es el estado de desilusión al que nos tiene acostumbrada la clase política.

Pienso que todo habría quedado en una anécdota que generaría el enésimo cambio de acuerdo entre FB y sus usuarios si no fuera porque aparece en escena el intrigante Steve Bannon, amiguete y mentor ideológico de Trump (o ya ex amigo). Este caballero es el influyente agitador que está tras el origen de Cambridge Analytica, junto a su CEO y gurú, Alexander Nix y el millonario Robert Mercer. Bannon también controla otros medios enfocados en eso, en modelar y atizar la opinión de la gente… Esa es la conexión de todo esto.

Dudo que las elecciones americanas o el referéndum inglés se hayan ganado o perdido por FB. Menos aún me creo la supuesta manipulación psicológica –de momento se habla de 50 millones de usuarios de FB- ejercida por un personaje de 28 años como Christopher Wylie, el “científico de datos” de Cambridge Analytica. Según sus declaraciones, dice haber contribuido a tal manipulación y ahora se arrepiente por una cuestión de conciencia… Por cierto ¿Su conciencia no le avisó que quién era Bannon y lo que este perseguía? ¿Por qué no rechazo el trabajo en CA cuando años antes se desempeñó como voluntario en la campaña de Obama… y fue echado? No pongo en duda su inteligencia pero, pienso, que si los ingleses llegan a votar no al Brexit y gana Hillary, este sigue buscándose en una montaña de ceros y unos.

Educación e informática

abril 1, 2018 on 4:40 pm | In colección, descarga textos pdf, hist. informática | 2 Comments

Adolfo García Yagüe | Educar en estos tiempos no es tarea fácil. Una mamá o papá que llegase del “espacio exterior” determinaría orientar a su hijo hacia las ciencias, más concretamente, hacia las matemáticas para tenga un trabajo asegurado de “científico de datos” (o algo relacionado con Big Data…) ¿O, acaso, dedicar tiempo y dinero a que su hijo e hija comprenda los principios mecánicos de la robótica y los oscuros arcanos de la programación? Otros, se harán la siguiente pregunta ¿Idiomas y estancias en el extranjero para que se vaya poniendo las pilas? o ¿Una carrera dual? En fin, la educación y el futuro de nuestros hijos es un auténtico desafío y cualquier padre o madre -a lo largo de la historia- con un mínimo de responsabilidad siempre se ha preocupado por el futuro de su prole. De lo contrario dudo que estuviéramos aquí.

En este principio de milenio las cosas son un pelín más complejas, o diferentes: Hay muchas opciones encima de la mesa y hay más competencia y, –queramos o no- los cambios acontecen más rápidamente. Hoy, por ejemplo, tenemos a nuestro alcance el flexible Arduino y lenguajes de programación amigables como Scratch, con el permiso del potente Python, o la popular Raspberry PI. Los cursos de introducción a la robótica han dejado de ser algo exótico para convertirse en una actividad extraescolar más o, incluso, una asignatura en algún centro. A todo esto ¿Alguien ha preguntado a los verdaderos interesados que quieren hacer cuando sean mayores? ¿Sabemos -verdaderamente- orientar hacia una profesión su entusiasmo y pasión? Son preguntas de las que me veo incapaz de dar respuesta.

Como decía antes, siempre ha existido preocupación por el mañana y, viendo alguna pieza de la colección, los ordenadores hace tiempo que han estado ahí, como una opción para facilitarnos la empleabilidad. A través de estos ingenios y sus manuales comprobamos que esta inquietud no es nueva. De alguna forma, desde hace años, hemos visto (o nos han hecho ver) que el estudio de la informática y la electrónica podía mejorar el futuro profesional de un joven. Nuestro paseo comienza en 1955 con el GENIAC o GENIACS, de Edmund C. Berkeley. Aquella máquina venía acompañada de un librito que nos permitía introducirnos en el pensamiento lógico a través de algunos interesantes ejercicios como la programación del juego Tres en Raya (Tic-tac-toe). Estamos en el año ‘55 y los primeros los ordenadores comerciales empiezan a llegar a las grandes empresas. Como hemos comentado en este blog, además de consultor, Berkeley era miembro fundador de la ACM y tenía fama de divulgador técnico a través de sus libros y, sobre todo, de su proyecto Simon.

GENIAC y sus ejercicios evolucionaron en el TYNIACS (1956) y BRAINIAC (1958). Podemos decir que todos ellos eran productos más parecidos a un juguete lógico que a un ordenador. Hacia el final de la década también aparecen pequeños inventos (en EE.UU.) que nos demuestran la sencillez de los cálculos analógicos. No olvidemos que son años de innovación y el ordenador analógico sigue siendo una alternativa para muchos ingenieros. Hablamos de Calculo (1959) y del Analog Computer EF-140 de la General Electric (1961). Un paso más allá, pero siguiendo con el espíritu docente, sería el flamante y voluminoso EC-1 Analog Computer, de Heathkit (1959). Éste, en nuestra colección, lo veréis junto a un osciloscopio de la época porque es necesario recurrir a él si queremos mostrar ciertos resultados.

El principio de la década de los sesenta está marcado por la aparición del Minivac 601 (1961) y la implicación de Shannon en su diseño. Esta máquina está a mitad de camino entre lo que hoy consideraríamos un juguete y un autómata. Minivac nos permite familiarízanos con las puertas lógicas, el Flip Flop (o biestable) y con un reloj.

Hemos introducido el flip flop y no quiero olvidarme de los indispensables Digi-Com 1 (1963) y Digi-Com II y Dr. Nim. Este componente es muy usado en informática y nos permite construir contadores y almacenar información (0 o 1). Como vemos, en aquella época, a través del juego y pocos dólares, era posible introducir a los jóvenes en la lógica de un ordenador. Hablando de flip flops y juguetes, resulta llamativa la referencia española que se comercializó en 1971. Nos referimos al Minicomputer Brain (1971) y consistía en un juguete que -emulando el aspecto de una unidad de almacenamiento en cinta- recrea el funcionamiento de cinco flip flops y su estado lógico. Poco sabemos acerca del Brain salvo como funciona y que se presentó en la primera Feria de la Inventiva Española, en 1970, celebrada en el parque de El Retiro y donde consiguió un galardón. Detrás de este invento se encontraba la misteriosa empresa “Brain” que estaba ubicada en el número 5 de la antigua avenida del Generalísimo en Madrid (actual Paseo de Castellana). Desconocemos si era un invento original de ellos o bien hacían de intermediarios de alguien. Tampoco podemos -aunque nos gustaría- facilitar detalles sobre la (o las) personas de Brain. Os dejo unos pequeños libritos que acompañan al Minicomputer Brain para que veáis que los ordenadores ya estaban sobrevolando nuestras cabezas.

En aquella feria de la Inventiva Española también se exhibía lo que se ha dado a conocer hoy como “El Antecesor del Libro Electrónico”. Era obra de una profesora gallega, Ángela Ruíz Robles (1895-1975), y mostraba unos ingenios llamados “Libros mecánicos audiovisuales” y “Primer mapa científico lingüístico gramatical y atlas gramatical”. Estos dispositivos empleaban unos pequeños rollos de papel donde se explicaban conceptos útiles. Aparte de la concepción del elemento reproductor, el mérito de la Sra. Ruíz reside en saber sintetizar -lo realmente útil- de un conocimiento y ponerlo a disposición del lector, de forma que este (el conocimiento) sea portable y de acceso intuitivo y cómodo, facilitando, de esta manera, su consulta y aprendizaje. Lo que habría inventado esta señora conociendo los dispositivos actuales…

Para finalizar comentar que en 1959 llegó a Renfe un IBM 650 y, un año después, un Univac a la Junta de Energía Nuclear (JEN). En 1962 entraría en servicio un IBM 1410 en la Caixa de Barcelona, y un IBM 1401 en los antiguos almacenes Galerías Preciados. Aquellos ordenadores, aunque pasaban desapercibidos, ya empezaban a ocupar un hueco en nuestras vidas. Por su parte, en 1967, la gente de Telesincro, presentará el que será el primer ordenador enteramente español: el factor P.

Colección | Simon, el primer ordenador personalMinivac 601

 

Puedes descargar los manuales de cada equipo en los siguientes enlaces:
Geniacs. Oliver Gardfield, 1955
Geniacs. Edmund C. Berkeley, 1955
Brainiacs. Edmund C. Berkeley, 1958
Experiments with Brainiac B-30, 1959

Heathkit EC-1 Educational Electronic Analog Computer, 1959
Heathkit EC-1 Fontal, 1959
Heathkit EC-1 Schematic 1, 1959
Heathkit EC-1 Schemetic 2, 1959
Heathkit EC-1 Schemetic 3, 1959

Experiments with Calculo Analog Computer Kit, 1959

Minivac 601 Book I, 1961
Minivac 601 Books II, III, IV, 1961
Minivac 601 Book V and VI, 1961
Minivac 601 Notes and Corrections, 1961
Minivac 601 Maintenance Manual, 1961

EF-140 Analog Computer General Electric, 1961

Digi-Comp 1. Instruction Manual, 1963
Digi-Comp II. Mechanical Binary Computer, 1963

Minicomputer Brain, 1971
Minicomputador Brain y la Informática, 1971



(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress