GTP y la seguridad en redes 4G y 5G NSA
octubre 18, 2023 on 8:10 pm | In ciberseguridad, colección, descarga textos pdf, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | En el Fortinet Security Day de hace unos días, con la idea de presentar alguna de las áreas Cyber en las que trabajamos en Axians, hice esta pequeña presentación repasando las amenazas a las que han estado expuestas las redes telefonía de móvil: desde la denegación de servicio en el acceso radio hasta llegar a los ataques contra GPRS Tunneling Protocol.
Colección | Los Móviles | 1G o primera generación de telefonía móvil | HarmonyOS y los Sistemas Operativos Móviles | Ciberseguridad e IoT
Emisión Termoiónica y Lee De Forest
agosto 9, 2023 on 5:20 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. informática, hist. sonido y música electrónica, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | Alguien puede pensar en la razón por la que una bombilla está entre las piezas de la colección. Bien, antes de nada, permitirme recordar que fue inventada por Thomas Alva Edison (1847-1931) y presentada en 1879. El ejemplar de la colección es un modelo mejorado que se comercializó bajo la marca Edison General Electric entre los años 1893 y 1900. Aquellas primeras bombillas tienen un filamento de bambú-carbón o, como la nuestra, de celulosa-carbón. En ambos casos, como podéis observar, tras el uso, en su interior acumulan un característico color negruzco.
La investigación de la causa de esta degradación ocupó la atención de Edison, quién trabajaba sobre la idea de que algún tipo de partícula era emitida por el filamento de carbón mientras este permanecía incandescente. No le faltaba razón, y hasta que no se empezaron a comercializar filamentos de tungsteno, el problema persistió. En cualquier caso, mientras trabajaba en evitar dicho oscurecimiento, ideo una bombilla a la que añadió en su interior una lámina de metal con la esperanza de que ésta atrajera las partículas que “ensuciaban” la bombilla y, a continuación, conectó esta plaquita a una batería.
Edison no consiguió eliminar el oscurecimiento, pero en cambio, apreció que al conectar un galvanómetro a la plaquita se identificaba un flujo de corriente. Edison no supo explicar científicamente aquel fenómeno, pero, como buen inventor, patentó lo que acaba de descubrir que fue conocido como Efecto Edison. Años más tarde, en 1901, Owen Williams Richardson (1879-1959) explicó la base científica de aquel fenómeno al que denominó Emisión Termoiónica y, según el cual, un cuerpo pierde electrones cuando aumenta su temperatura (filamento incandescente). En reconocimiento a sus trabajos Richardson obtuvo el Nobel de Física de 1928 y, en el caso que nos ocupa, aquellos electrones viajaban a través del vacío existente en la bombilla hasta un ánodo, es decir, la plaquita metálica conectada a la batería.
Diodo Termoiónico
Mientras esto sucedía, John Ambrose Fleming (1849-1945), promitente físico británico y profesor del University College, además de ser un colaborador esencial en los primeros años de la Marconi Wireless, dirigió su atención a las citadas experiencias de Edison por el hecho de que la corriente solo circulara en un sentido a través del interior de las bombillas, es decir, se producía un fenómeno de rectificación o, dicho de otra forma, si aplicábamos una tensión alterna solo circulaba un semiciclo. Esta capacidad de rectificación, que tiene una aplicación evidente en la conversión de tensión alterna a continua, podía ser empleada en la detección de señales de radiofrecuencia.
Las experiencias de Fleming, junto a la comprensión y explicación del fenómeno termoiónico, le condujeron a la invención en 1904 del Diodo Termoiónico o Válvula de Vacío, que -como en una válvula convencional- la corriente solo circula en un sentido.
Detección de radio y señales portadoras
Desde los primeros pasos de la Telegrafía sin Hilos (TSH) la detección de radiofrecuencia se venía haciendo con el cohesor de Branly (1890) y, posteriormente, con el detector magnético de Marconi (1902) (diagrama 7). Ambos detectores demostraron su eficacia en TSH pero no eran adecuados para la recepción de voz. En cambio, el detector Barretter (1902) de Reginald Aubrey Fessenden (1866-1932), el detector electrolítico (1903) (3B), también de Fessenden, o el Tikker (1909) (4) de Valdemar Poulsen (1869-1942) permitían extraer una señal de voz de una portadora continua. Portadora que, dicho sea de paso, era generada en la estación emisora mediante el Arco de Poulsen, también inventado en 1903 por Poulsen y se inspiraba en los viejos transmisores de chispa de telegrafía. Años más tarde, en 1906, gracias a Ernst Frederick Werner Alexanderson (1878-1975) se empezarían a usar gigantescos alternadores capaces de producir ondas portadoras de 50000 Hz y potencias de hasta 200Kw.
El diodo termoiónico (diagrama 5), así como otros detectores basados en cristales semiconductores como la galena (1), la pirita (1) o el carburo de silicio (2 y 3A), se hicieron un hueco en la recepción de señales de radio durante los primeros años del siglo XX, pero ninguno ofrecía una mejora decisiva pues carecían de la sensibilidad necesaria en comunicaciones de larga distancia. También pensemos que la señal de audio extraída era prácticamente inaudible y su volumen dependía de la potencia de la señal emitida y de las características de la antena receptora. Es decir, no aportaban ningún tipo de amplificación.
Lee De Forest y el Triodo Termoiónico
Era evidente el potencial que suponía la trasmisión inalámbrica de voz, más aún con la Primera Guerra Mundial a la vuelta de la esquina. Por otra parte, la industria musical ya mostraba sus garras por lo que era fácil imaginar formas de entrenamiento alrededor de la difusión a distancia de música y voz. Por último, y no menos importante, las redes de telefonía estaban creciendo rápidamente en todas las ciudades, evidenciando así, que la comunicación remota y estable a través de la voz era una necesidad para muchos ciudadanos. Estas consideraciones estimularon el ingenio de cientos de inventores en la carrera por patentar un sistema de amplificación y de detección radio eficiente, entre ellos se encontraba Lee De Forest (1873-1961).
De Forest tuvo una vida propia de un telefilm: creció en Alabama y en los primeros años se educó en una escuela, fundada por su padre, abierta a ambos sexos, raza y confesión religiosa. Es decir, fue educado en un “ambiente libre” de prejuicios raciales lo que favoreció su amistad con gente afroamericana a la vez que era rechazado por los blanquitos de su comunidad. Desde temprana edad mostró su inquietud por ser inventor y logró encauzar su carrera hacia la Escuela Científica Sheffield, de la Universidad de Yale. No fue un alumno brillante y terminó siendo expulsado de la institución a raíz de varios incidentes técnicos que provocó en el alumbrado eléctrico de la Escuela, aun así, no cejó en su objetivo: alcanzar la fama a través de sus futuros inventos. En sus primeros años profesionales, ávido de financiación, fue un poco vende humos y se vio envuelto en varias demandas. A lo largo de su vida se arruinó tres veces y se casó en cuatro ocasiones. Su segunda esposa fue su asistenta de laboratorio y reconocida sufragista Nora Stanton Blatch Barney (1883-1971) quien, al año de casarse, solicitó el divorcio porque De Forest le pedía reiteradamente que abandonara su profesión y se dedicara a las tareas domésticas.
A pesar de estos vaivenes obtuvo 300 patentes, entre las que se encuentran dos que son clave en esta historia. La primera, cuyo número es 841.387 y con fecha de 1907, describe un dispositivo para amplificar corrientes eléctricas débiles. Meses más tarde, bajo la patente 879.532, perfecciona la anterior y presenta un dispositivo para la detección de radiofrecuencia y amplificación. Es decir, el Triodo Termoiónico o, como él lo bautizó, el Audion (diagrama 6).
A simple vista un triodo puede parecer similar a un diodo y, aunque el principio de funcionamiento de ambos se basa en la emisión termoiónica descrita por Richardson, el detalle constructivo es diferente. Diodo y triodo comparten un filamento que, al calentarse, emite iones. En el diodo estos iones (con carga negativa) viajan hasta una placa con polaridad positiva. En cambio, en el triodo, entre filamento y placa, existe una rejilla en la que variando su voltaje entre positivo y negativo logramos controlar el flujo de más o menos electrones hacia la placa.
Este funcionamiento, aparentemente sencillo, ofrece infinitas posibilidades en unión de otros componentes electrónicos para formar circuitos de amplificación, modulación y demodulación de radiofrecuencia, la construcción de osciladores, operaciones binarias y un largo etcétera.
Gracias al Audion la notoriedad de De Forest iba en aumento. En 1908, durante su viaje de luna de miel con Nora Stanton a París, lo aprovecharía para instalar en la Torre Eiffel un transmisor con el que se logró emitir música de fonógrafo a una distancia de 800 Km. Entre estos hitos también hay que recordar que en 1910 realizó la primera transmisión radiofónica de una ópera en directo y, seis años más tarde, en lo que se considera la primera transmisión de noticias por radio, anunció los resultados de las elecciones presidenciales. Por otra parte, en aquella misma década, AT&T (American Telephone and Telegraph Corporation) se interesó por las prestaciones de amplificación del Audion y en 1912 se hicieron ensayos en líneas telefónicas de larga distancia. Desafortunadamente, el Audion no demostró un comportamiento adecuado por lo que esta compañía, a través de su filial Western Electric, empezó a trabajar en el diseño de un triodo propio haciendo hincapié en el grado de vacío interior necesario para obtener una amplificación satisfactoria.
A partir de aquí la vida de De Forest se complicó un poco más porque acababa de abrir la puerta de la Era de la Electrónica. Recordemos que él era una persona de taller y gran parte de su trabajo se basaba en la prueba y error, sin un profundo análisis científico que permitiera entender y perfeccionar un resultado. Con este perfil de inventor clásico intentó hacerse un hueco en un mundo que ya empezaba a estar dominado por grandes compañías con recursos infinitos, como General Electric, AT&T, RCA, Westinghouse y Marconi Wireless, entre otras. Así paso, sus patentes europeas expiraron porque no pudo hacer frente a los pagos de renovación; sus audiones carecían de fiabilidad porque el proceso de fabricación industrial no era eficiente; se vio envuelto en repetidas disputas legales con Fleming por la originalidad de su invención; malvendió parte, y luego la totalidad, de los derechos de sus patentes a Western Electric para contar con liquidez financiera y ya, para colmo de complicaciones, se enredó legalmente contra las aplicaciones que otros inventaban en torno al Audion, como la del circuito de realimentación regenerativa patentado en 1914 por Edwin Howard Armstrong (1890-1954). Aquella disputa, que se extendió durante 12 años, pone de manifiesto como estos litigios arrastraban hacia la ruina y el agotamiento a ambas partes.
Con la Primera Guerra Mundial en curso cabría esperar que el uso del Audion de De Forest fuese determinante al permitir la trasmisión a distancia, especialmente con las primeras aeronaves de la historia. No fue así porque los ejércitos Aliados no tardaron en darse cuenta de la pobre fiabilidad ofrecida por estos triodos en condiciones de campaña. Para reconducir esta situación, el coronel francés Gustave-Auguste Ferrié (1868-1932) junto a Henri Abraham (1868–1943), François Péri y Jacques Biguet diseñaron y organizaron en tiempo récord la producción masiva del triodo TM (Télégraphie Militaire) que demostró ser un éxito haciendo posible las primeras comunicaciones a distancia entre tropas, aeronaves y puestos de mando.
A diferencia de otros inventores que pasaron sus últimos años en el olvido, De Forest recibió en 1922 la medalla de honor del IEEE (Institute of Electrical and Electronics Engineers), la Elliott Cresson en 1923, la Legión de Honor francesa y la medalla Edison, entre otras distinciones. Además, su nombre entró en el Salón de la Fama de los Inventores y cuenta con una estrella en el Paseo de la Fama de Hollywood. En 1950 Lee De Forest llegó a publicar su autobiografía bajo el título Father of Radio y, en reconocimiento a su legado, un cráter de la cara oculta de la Luna lleva su nombre.
Colección | Marconi y el Día Internacional de la Radio | Radio Galena | Radio de recepción regenerativa | Receptor réflex De Forest D-10 | El receptor superheterodino | Relés, válvulas y transistores
Marconi y el Día Internacional de la Radio
febrero 13, 2021 on 7:59 pm | In colección, hist. fotografía, radio, tv y vídeo, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | No quería dejar pasar este Día Internacional de la Radio sin recordar a través de dos piezas de la colección los orígenes de esta. El primero de ellos es una bobina de inducción o carrete de Ruhmkorff, inventado por Heinrich Ruhmkorff (1803-1877).
En estos dispositivos, a partir de una tensión continua, se conseguía elevar el voltaje a la vez que funcionaba como un conmutador produciendo, a su salida, alta tensión intermitente. Con esta tensión se provocaba una chispa que generaba una onda electromagnética capaz de propagarse por el espacio. Estos ingenios y su correspondiente chispero fueron empleados en los primeros Telégrafos Sin Hilos (TSH).
Por otra parte, como detector se utilizó el Cohesor de Branly, inventado por Édouard Branly (1844-1940). Este pequeño dispositivo es una ampolla de cristal que contiene limaduras de hierro en su interior donde, a ambos lados, se encuentran unos bornes. En estado normal, cuando no detecta una onda electromagnética, su resistencia eléctrica es muy alta y apenas circula tensión entre los citados bornes. En cambio, cuando una onda es detectada, las limaduras de hierro de su interior experimentan “rotura” de la microoxidación existente entre ellas y en ese momento el cohesor es un elemento conductor. Cuando esto sucede, se activa un pequeño martillito con el que se golpea la ampolla y las limaduras vuelven a su estado normal, o a ser un componente aislante. Una vez más serían los primeros telégrafos sin hilos donde se empezó a utilizar este ingenio.
Marconi y la Invención de la Radio
La paternidad de la invención de la radio es consecuencia del trabajo de múltiples personas. Aunque Guillermo Marconi (1874-1937) es la persona que se ha instalado en nuestra cultura, es preciso recordar que las primeras experiencias con ondas electromagnéticas son obra de Heinrich Rudolf Hertz (1857-1894), Nikolai Tesla (1856-1943) y Aleksandr Popov (1859-1905) entre otros, sin olvidar que la teoría del electromagnetismo fue expuesta en 1865 por James Clerk Maxwell (1831-1879). Posteriormente, el desarrollo de la radio solo fue posible gracias a las invenciones de John Ambrose Fleming (1849-1945) y su diodo termoiónico y el triodo de Lee De Forest (1873-1961).
El mérito de Marconi está en que, además de ser un gran inventor, supo desarrollar un servicio útil (la telegrafía sin hilos) y centrarse en un proyecto empresarial, cosa de la que siempre adoleció el gran Tesla motivando que muchos de los descubrimientos e iniciativas de este no lograsen cristalizar en la sociedad por su dispersión y escasa gestión. No obstante, aunque muy tarde, hay que recordar que en 1943 la Corte Suprema de Estados Unidos devolvió a Tesla la patente de Marconi reconociendo así su invención de la radio.
La citada faceta empresarial de Marconi queda resumida en que al comienzo del siglo XX la Marconi´s Wireless Telegraph Company Limited obtiene la patente del invento y en 1904 Marconi firma un acuerdo con la Oficina de Correos Británica para trasmitir mensajes telegráficos. Años después, en 1909, el prestigio de Marconi era inmenso y fue reconocido con el Nobel de Física. Con semejante aureola de sabiduría Marconi era recibido con los más altos honores como recuerda la siguiente noticia donde se relata su visita a Madrid en 1912 junto a Su Majestad Alfonso XIII.
Todo lo anterior daría para que una persona “normal” se retirase y viviese de su éxito pero, en el caso de Marconi, la telegrafía sin hilos no fue suficiente y avanzó en la radiodifusión de voz fundando Radio Vaticano en 1931. Incluso, entre las inquietudes de Marconi, se encontraba la búsqueda de vida extraterrestre a través de la escucha de emisiones de radio y el envío de marconigramas.
Produce cierto vértigo comprobar como el legado empresarial de Marconi ha logrado evolucionar hasta el siglo XXI a través de innumerables compañías, adquisiciones y mutaciones.
Colección | Telegrafía y Telefonía | Telégrafo y Telecomunicación | Construcción de un Telégrafo | La Música Eléctrica del Cura Castillejo | Emisión Termoiónica y Lee De Forest | Radio Galena
1G o primera generación de telefonía móvil
febrero 8, 2021 on 7:43 pm | In colección, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | Ahora que es tan popular el término 5G y que los gobiernos y empresas se afanan en insistir en su importancia, hay gente que por su juventud no ha conocido como empezó todo, es decir, el 1G. Aprovechando que he añadido unos textos comentando alguna pieza de la galería, he querido recordarlo aquí.
Indelec 3833-01, 1986
El equipo anterior es uno de los primeros teléfonos móviles que se comercializaron para ser usados en la red de Telefónica. Este móvil pertenece a la primera generación -o 1G- compatible con el sistema NMT-450 (Nordic Mobile Telephony) en la banda radio de 450MHz. NMT coincidió con otros sistemas de telefonía –incompatibles entre si- como AMPS en EE.UU, TACS en Reino Unido o B-Netz en Alemania. España adoptó el sistema nórdico por ser uno de los más maduros. Aquello garantizaba a Telefónica una mayor oferta en equipos terminales y de red (especialmente Ericsson, Nokia y Philips). También cabe destacar que las especificaciones de NMT eran abiertas para que cualquier fabricante desarrollara un terminal o estación base sin tener que pagar royalties. En el Indelec 3833-01 llama la atención su volumen y peso cercano a los 12Kg, incluyendo su batería y maleta de transporte. Este era un equipo que, a pesar de ser portable y gozar de autonomía al tener batería, estaba pensado para ser transportado en el coche.
Con este terminal se escribe uno de los capítulos de nuestra historia tecnología y su aspiración por hacerse un hueco entre los grandes vendors. En efecto, el 3833-01 fue diseñado y fabricado en Dinamarca entre los años 1984 y 1985 por la compañía AP Radiotelefon con el nombre BV 31-A. La comercialización de este equipo dentro de Telefónica fue posible gracias a Indelec, una joven compañía que estaba impulsada por el Gobierno Vasco, Telefónica como cliente preferente y Philips como socio tecnológico. Esta participación de Philips permitiría a Indelec alcanzar el conocimiento necesario para desarrollar sus propias soluciones.
Standard Eléctrica ITT-7700, 1986
Ante la revolución que estaba comenzando, ITT Standard Eléctrica, el histórico aliado tecnológico de Telefónica, no podía permanecer sin plantear una solución. Por eso, a pesar de que en esta época atravesaba por serias dificultades financieras, optó por introducir en Telefónica un móvil diseñado y fabricado por la japonesa Mitsubishi, que en aquel entonces era un líder en esta tecnología. Inicialmente, el ITT-7700 se comercializó bajo la firma ITT Standard Eléctrica hasta que la citada compañía fue absorbida en 1987 por la francesa Alcatel y ya etiquetado con esta marca. Aunque este equipo es contemporáneo del Indelec 3833-01, las mejoras en su diseño electrónico y autonomía y, sobre todo, sus 8Kg de peso son significativos frente a este.
Indelec I-4000, 1988
Durante la primera mitad de los años ochenta del pasado siglo, la telefonía móvil era un servicio que, aunque ya disponible, era poco visible debido a su alto coste y, sobre todo, porque los terminales no estaban pensados para ser transportados fuera del vehículo. Esto empezó a cambiar con el Indelec o Telyco I-4000 que, aunque seguía siendo utilizado en coches, podía ser transportado “cómodamente” gracias a sus 4Kg de peso. Por esta razón, equipos como este, empezaban a ser vistos por la calle en manos –o al hombro- de algunos ejecutivos.
El origen de este equipo hay que buscarlo una vez más en Dinamarca, en la antes mencionada AP Radiotelefon. Allí fue donde originalmente se diseñó para ser presentado por Philips en abril de 1986. Desconozco los detalles de la relación entre AP Radiotelefon y Philips pero sospecho que, hacia 1986-87, AP Radiotelefon fue adquirida por Philips. En la información que ha llegado hasta mis manos -anterior a este equipo- ya existía la conexión entre ambas empresas y el patrón se repite: equipos diseñados y fabricados por AP Radiotelefon y vendidos bajo marca Philips. Al existir la citada relación con Philips, una vez más, este equipo llegó a España de la mano de Indelec e incluso fue comercializado con la marca Telyco de la cual Telefónica era propietario. Con este equipo también se cierra la época NMT-450 o, como Telefónica la denominó, TMA-450 (Telefonía Móvil Automática).
TMA-900 y Motorola DynaTAC, 1990
Si hay un móvil donde se simboliza el estatus y el poder económico en la época 1G es con el Motorola DynaTAC. Algunos lo recordaréis de la interpretación de Michael Douglas en el papel de Gordon Gekko en Wall Street (1987).
Este era un teléfono realmente móvil al poder ser trasportado con facilidad. Fue desarrollado en 1983 por un equipo de Motorola liderado por Martin Cooper. Desde aquel año hasta 1993 se sucedieron diferentes versiones con algunas mejoras y adaptando su uso a cada país y sistema radio. Hay que destacar que la principal razón de su “pequeño” tamaño y bajo consumo eléctrico obedece a que trabaja en frecuencias altas, concretamente en 850MHz de AMPS (Advanced Mobile Phone System), mientras que en España veníamos usando el sistema nórdico (NMT) a 450MHz. También, en este móvil, se aprecia el avance que se estaba sucediendo en la integración electrónica y el desarrollo de chips a medida en lugar de recurrir a componentes genéricos.
En nuestro país fue distribuido por Amper, otra de las empresas históricas en la órbita de Telefónica. Popularmente este móvil fue conocido con el sobrenombre de “el ladrillo”. En España se introdujo cuando se empezó a prestar servicio a 900MHz con el sistema TACS. A este sistema Telefónica lo denominaría TMA-900 y años después pasó a llamarlo Moviline.
Mapas de cobertura 1G
Para terminar he querido incluir dos mapas de cobertura en abril de 1990 para los servicios 1G y la prevista a diciembre del mismo año. En el primero se muestra la penetración de TMA-450 y en el segundo TMA-900.
Colección | Los Móviles | HarmonyOS y los Sistemas Operativos Móviles | GTP y la seguridad en redes 4G y 5G NSA
Redes LAN inalámbricas: WaveLAN, Altair y ARLAN
octubre 12, 2020 on 9:40 am | In colección, hist. informática, hist. telecomunicaciones, telecomunicaciones | No CommentsAdolfo García Yagüe | El establecimiento de las bandas ISM sobre ciertas porciones del espectro radio fue un terremoto que no dejó indiferente a casi nadie. Este movimiento sísmico zarandeó el mercado y agitó los cimientos de muchas empresas en su intento por posicionarse en esta novedosa oportunidad. Por ejemplo, NCR intuía el potencial que podían ofrecer las redes inalámbricas a su negocio tradicional, que era (y es) el de los puntos de venta o POS de los supermercados. Otros, como Telxon, llegaron a la conclusión de que las comunicaciones RF (radiofrecuencia) apenas tenían que ver con la lectura de códigos de barras por eso, en 1994, escindieron su expertise en radio en una nueva compañía llamada Aironet. Otro ejemplo era el de Motorola que, conscientes de su sabiduría en el mundo de la radiofrecuencia, decidieron alejarse de lo que otros competidores hacían mientras que a ambos lado del Atlántico se empujaba hacia una estandarización. Incluso, en el colmo de esta agitación del mercado, había quién apostaba por una comunicación a distancia mediante rayos infrarrojos.
NCR WaveLAN
Muchos de vosotros conocéis que NCR (National Cash Register) es una de las firmas más antiguas de este sector. Fue fundada en el siglo XIX por John Henry Patterson (1844-1922) y por allí pasó gente tan carismática como Thomas Watson (1874–1956) de IBM. Aunque NCR ha jugado en todas las posiciones del mundo de las IT (tecnologías de la información), siempre ha mantenido una posición de liderazgo en las soluciones relacionadas con formas de pago: desde lectores bancarios de cheques y cajeros automáticos hasta cajas registradoras o terminales puntos de venta (TPV). En los ’80 venía investigando en las capacidades de la comunicación infrarroja porque, como podéis intuir, en las grandes superficies no siempre es fácil, rápido ni barato llevar un cable de datos a un determinado punto del centro comercial para ubicar un TPV. Por esta razón, cuando en 1985 se establecieron las bandas ISM, la tecnología radio llamó su atención y empezaron a indagar en sus posibilidades.
NCR contaba con un Centro de Ingeniería en Nieuwegein, una pequeña ciudad a las afueras de Utrecht, Holanda, donde principalmente se trabajaba en la adaptación de sus soluciones al mercado europeo. Allí estaba empleado Bruce Tuch, un americano afincado en Holanda con gran experiencia en radiofrecuencia tras su paso por Philips. Bruce y su colegas holandeses empezaron a investigar en las posibilidades de ISM y en 1987 construyeron un prototipo que permitía la comunicación inalámbrica a 100Kbits por segundo, y al año siguiente hicieron otro cuyo ancho de banda alcanzaba los 500Kbits/s. Aun siendo un gran salto, aquello no era suficiente para una caja registradora que, en esencia, era un ordenador compatible IBM PC donde ya era común la comunicación Ethernet LAN a 10Mbps. En este sentido, NCR estableció un mínimo de 1Mbps de ancho de banda para considerar el lanzamiento de un producto comercial.
El reto era grande. Como hemos visto en el artículo anterior, para velocidades del orden de miles de bits por segundo de las comunicaciones RS-232 o RS-485, era factible aplicar los mecanismos habituales de Spread Spectrum. En cambio, con cualquiera de estas técnicas de espectro ensanchado, era complejo y costoso ofrecer un ancho de banda de 1Mbps. Pensemos que en la técnica DSSS emisor y receptor comparten un código binario (Código Chip) con el que se realiza una operación -por ejemplo un XOR– sobre cada bit del mensaje. Por esta razón, un bit que se desea enviar se convertirá en una cadena de bits antes de ser transmitidos por radio. Este ensanchamiento del mensaje hace que la comunicación cuente más robustez frente a interferencias, refiriéndonos a esta como ganancia de procesado. En FHSS, la otra técnica de Spread Spectrum, emisor y receptor acuerdan varias frecuencias por las que “saltarán” y enviarán pequeños fragmentos del mensaje. Así, en ambos casos, si se desconoce el código chip o las frecuencias de salto, resulta difícil entender el mensaje por alguien que intercepte la comunicación.
Ante este muro infranqueable, en 1988 Bruce Tuch viajó a Washington y planteó a la FCC la cuestión sobre cómo interpretar las reglas de Spread Spectrum y la longitud mínima que tenía que tener el código chip pues, a mayor longitud de este, más complejidad en la electrónica de proceso y menos ancho de banda. Bruce quedo sorprendido cuando FCC le confirmó que con una longitud de 10 bits era suficiente. Aquella respuesta despejó el camino y, al llegar a Holanda, su compañero Hans van Driest ya tenía implementado un chip de 11 bits de longitud llamado Secuencia Barker (+1, –1, +1, +1, –1, +1, +1, +1, –1, –1, –1).
Aplicando las técnicas de espectro ensanchado DSSS descritas y la modulación DQPSK (Differential Quadrature Phase-Shift Keying) en la banda ISM de 902-928MHz, NCR logró un ancho de banda cercano a los 2Mbps. Este nivel físico necesitaba de un nivel MAC (o de acceso al medio) capaz de detectar la portadora de otra estación y así evitar la colisión que se produce cuando varios equipos simultanean su comunicación. Para este fin adaptó el funcionamiento del procesador Ethernet N82586 de Intel para que, en lugar de CSMA/CD (escucha portadora y detecta colisión), funcionara como CSMA/CA (escucha portadora y evita colisión) junto con el envío de unos mensajes de acuse de recibo desde el receptor. De esta forma, además de beneficiarse de un chip comercial y acelerar el desarrollo de una solución inalámbrica, Tuch y su equipo se acercaban a lo que ya se venía haciendo en el estándar Ethernet.
En 1990 NCR lanzó al mercado WaveLAN, un adaptador inalámbrico en 902 a 928MHz compatible con el IBM PC. Como hemos visto en otros textos, trabajar en esta banda ISM abarataba el diseño electrónico pero ofrecía menor capacidad, sin olvidar que estos productos no eran compatibles con el plan de frecuencias europeo. Por estas razones, al año siguiente, presentarían una versión para trabajar en 2,4GHz. Las WaveLAN eran tarjetas que se insertaban en un ordenador normal y eran compatibles NDIS (Network Driver Interface Specification), es decir incluían drivers para ser usadas por sistemas operativos de red como Netware o LAN Manager. Además estos adaptadores, al igual que las tarjetas de Ethernet y Token Ring, disponían de un zócalo donde instalar una ROM con un programa de autoarranque para redes Netware. Así mismo, con WaveLAN, NCR ya fue consciente de las vulnerabilidades de la comunicación inalámbrica e incluyó, como opción de ampliación, la posibilidad de instalar un chip para el cifrado DES de 56 bits a través de la configuración de una clave o Network ID.
En 1991 NCR fue comprada por AT&T pero la historia del equipo de Nieuwegein no acaba aquí y continuó con su participación en el desarrollo del estándar 802.11 en representación de Lucent Technologies.
Motorola y las LAN inalámbrica
Escribir sobre las comunicaciones radio y no mencionar a Motorola es difícil. Esta compañía se fundó en Chicago en 1928 como Galvin Manufacturing Corporation y paso a llamarse -dos años después- Motorola para ser identificada con su producto estrella, un autorradio (Motor + Victrola). Esta especialización en el campo de la radiofrecuencia fue clave para que en los años 40 suministrara al ejército americano el famoso Walkie Talkie SCR-536. De esta época también es el radioteléfono Handie-Talkie FHTRU-1A. Los buscapersonas, la telefonía móvil celular o la red de satélites Iridium llevan el sello de Motorola, por no hablar de sus avances en semiconductores. Con semejante currículo ¿Cómo no iba a desarrollar una solución inalámbrica para las LAN?
Altair (comercializado como Rialta en el mercado español) fue un producto que se alejó del planteamiento seguido por NCR y otros fabricantes que, como hemos comentado, eran prácticos y cercanos a las normas de la FCC. Motorola, en lugar de seguir estas recomendaciones de uso de las bandas ISM, consideró que no merecía la pena trabajar con espectro ensanchado y optaron por las frecuencias de 18 y 19GHz… Para evitar trámites al usuario final y facilitar la adopción de este producto, Motorola tuvo que obtener una autorización para vender Altair en cada país y el usuario tenía que rellenar un formulario de registro, ya que el uso de estas frecuencias no es libre. La realidad era que en 18 o 19GHz la penetración radio es muy baja y un simple tabique representa un obstáculo insalvable. Por eso, en el marketing de la época, Motorola hablaba del uso en oficinas con espacios abiertos y recomendaba que existiese visibilidad directa entre equipos Altair.
El Altair de Motorola se asemeja a un Bridge donde uno de sus puertos es radio y el otro Ethernet. Esto significa que estaba pensado para ser conectado a un segmento Ethernet y trabajaba a nivel trama, sin importar el tráfico cursado: NetBIOS, Novell IPX, SNA o TCP/IP. Esto, a priori, es una ventaja que permite ser agnóstico a lo que viaja por el cable. No obstante, poco a poco, TCP/IP iba ganando protagonismo en redes donde era necesario establecer una jerárquica separando con routers las diferentes LANs. Por esta razón, la tendencia era ir migrando hacia TCP/IP desde otros protocolos de red, bien con técnicas de encapsulado o directamente. Además, otra de las señales que se aprecian con claridad en los ’90 es el auge de Internet e IP. Dejando a un lado frecuencias y protocolos de red, la topología de una solución Altair consistía en una máquina central denominada Control Module cuyo coste era de 3.995 dólares y al que se conectaban por radio diferentes User Module a un precio de 3.495 dólares por unidad. Un precio desorbitado en 1991 -y a día de hoy- para la mayoría de las empresas teniendo en cuenta, además, que el throughput de una comunicación no superaba los 2Mbps y la instalación de estos equipos tenía numerosos condicionantes relacionados con las frecuencias usadas y su propagación.
Con estas líneas dedicadas a Motorola Altair solo pretendía ilustrar como las redes LAN inalámbricas despertaron iniciativas arriesgadas y el coste que supone desarrollar productos de espaldas al mercado, guiándote solo por el nivel de sofisticación técnica al que puedes aspirar. Así, Altair, fue descontinuado hacia el ‘93-‘94 y Motorola se enroló en 1996 en el consocio Wireless LAN Interoperability Forum (WLIF) que promovía la adopción de la tecnología OpenAir (RangeLAN2) de Proxim.
Aironet ARLAN y la movilidad
Para conocer el origen de Aironet (1994) hay que mirar a Telxon (1974) y antes, incluso, a Telesystems SLW (1986) y Marconi Wireless (fundada a principios del XX). Ahí es donde empieza esta historia, cuando empleados de la Marconi canadiense deciden montar Telesystems. Aironet, además de por sus productos y sus aportaciones al estándar IEEE 802.11, será recordada por haber sido absorbida en 1999 por Cisco Systems, convirtiéndose así en el inicio inalámbrico de esta compañía.
En los párrafos anteriores hemos visto diferentes enfoques para abordar las LAN inalámbricas y si NCR planteaba un modelo descentralizado basado en sus tarjetas WaveLAN, Motorola se decantaba por una topología centralizada donde un Altair Control Module ejercía de controlador de la red inalámbrica. Ambos enfoques tienen pros y contras pero es cierto que en una red local los recursos suelen estar en un lugar central y es recomendable que todo el tráfico pase por ahí pero, a la vez, es acertado que este equipo no regule “la libertad” de cada participante en la red para hablar y usar el medio (aunque, nadie le escuche). Esto nos hace pensar en un punto de acceso que hace de intermediario o bridge con los recursos y hacia el que todas las estaciones son libres para dirigir su tráfico. Cuando hablamos de recursos podemos pensar en la asignación de direcciones IP que hace un DHCP, los servidores o la salida a Internet.
El ARLAN 630 y fue uno de estos primeros puntos de acceso que comercializó Aironet para las bandas ISM de 900MHz y 2,4GHz. Operaban en DSSS y ya estaban cerca de la norma 802.11 pero, por ejemplo, carecía de mecanismos de cifrado y el único sistema de seguridad se basaba en el establecimiento de filtros que impedían que ciertas estaciones y protocolos pudiesen cruzar a través de él es decir, un AAA muy básico (Authentication, Authorization and Accounting).
En el lado de los usuarios, Aironet y otros fabricantes se dieron cuenta que carecía de sentido seguir promoviendo adaptadores ISA y PCI para LANs inalámbricas dirigidos a equipos de sobremesa que, normalmente, no se mueven y son conectados por cable, sin obviar que el uso de ordenadores portátiles y el término “movilidad” empezaba a ser una realidad para muchas empresas. Por este motivo, Aironet intensificó sus esfuerzos en integrar toda la electrónica y la antena en una tarjeta PCMCIA insertable en un portátil. El formato PCMCIA y más tarde PC Card, fue concebido a principios de los ‘90 para utilizar tarjetas de memoria con un tamaño similar al de una tarjeta de crédito. Unos años después esta norma se fue ampliando para permitir la conexión de tarjetas de red, módems y otros periféricos que necesitaban un interfaz de alta velocidad. Así, bajo este formato, aparecieron unos cuantos productos que desdoblaban en dos elementos la solución: una tarjeta PCMCIA donde residía todo el proceso y tratamiento de datos conectada a una pequeña unidad externa donde residía la parte de radiofrecuencia junto a su antena.
Mientras aproximaciones como las citadas en esta líneas llegaban al mercado, varios fabricantes trabajaban para intentar consensuar una norma que unificara los diferentes planteamientos y así conseguir la interoperabilidad entre ellos. Como se comentará en el próximo texto, de estas iniciativas destaca IEEE 802.11, pero es necesario recordar que coincidió en el tiempo con otras como HIPERLAN, HomeRF y OpenAir (continuará).
Colección | Código de Barras y Comunicación Inalámbrica | Redes de Área Local (1) | Sistemas Operativos de Red (2) | Electrónica de Red (y 3)
Código de Barras y Comunicación Inalámbrica
septiembre 25, 2020 on 6:25 pm | In colección, hist. informática, hist. telecomunicaciones | No CommentsAdolfo García Yagüe | En fechas anteriores escribía sobre cómo el uso de ordenadores personales y el despliegue de redes locales cambió la forma de trabajar de ciertas empresas. Esta revolución en las oficinas coincidió con otro cambio en almacenes y supermercados donde empezaban a florecer los códigos de barras. En las superficies comerciales, además de un sistema de comunicación con un ordenador central, se disponía de un scanner en la caja registradora o TPV (Terminal Punto de Venta o POS, Point Of Sale) capaz de leer aquellos extraños símbolos. Por su parte, además de conectividad, en los almacenes era necesario disponer de un pequeño terminal portátil capaz leer la citada codificación.
Este terminal -o pequeño ordenador- estaba pensado para ser manejado con una mano (hand-held) y en él se ejecutaba un programa que guiaba al operario en la gestión de inventarios y pedidos. Todo un desafío si pensamos en las opciones técnicas disponibles en los ’70. Por este motivo se recurrió a componentes del mundo aeroespacial como el microprocesador RCA 1802 que, por ejemplo, podía bajar su frecuencia mínima de trabajo y así ahorrar energía. Otro ejemplo son los exiguos 4KBytes de memoria CMOS donde estos terminales salvaguardaban durante 48 horas los datos leídos. O el uso temprano de baterías alcalinas, el acoplador acústico integrado y, años después, la comunicación por radio.
Compañías como Motorola, Honeywell, Intermec (1966), Norand (1967), Teklogix (1967), MSI (1967), Zebra (1969), Symbol Technologies (1973), Telxon (1974), Datalogic (1972) o Psion (1980) han sido los protagonistas de este sector que, poco a poco, se ha ido concentrando en manos de tres compañías: Zebra, Honeywell y Datalogic.
Códigos de barras
En el repaso de esta historia es necesario remontarse a la segunda mitad del siglo anterior. Allí, en 1951, David Hammond Shepard (1923-2007) construyó el primer OCR funcional y, a partir de ese momento, el reconocimiento óptico de caracteres empezó a llamar la atención de grandes compañías. Por otro lado en los ‘60 podemos encontrar experiencias como KarTrak, de Sylvania y GTE (General Telephone & Electronics Corporation), donde se identificaba con un código de colores a los vagones de ferrocarril destinados a mercancías; o el de la Kellogg Company para el control automático de productos durante la fabricación y logística. Estas experiencias fueron importantes pero empleaban códigos y técnicas propietarias. Así, en 1971, apareció el Plessey Code de la firma inglesa Plessey Company, que es uno de los primeros códigos de barras similares a lo que hoy conocemos. La innovación de Plessey fue contemporánea de otro gran invento: el microprocesador 4004 de Intel. Aquel salto tecnológico permitió a James S. Bianco, de Control Module Industries (CMI), desarrollar el primer lector integrado por encargo de Levi Strauss. Este terminal pesaba 12Kg y empleaba una cinta de cassette para almacenar las lecturas. Ese mismo año la compañía Norand comercializaría el modelo 101 dirigido al mercado de la distribución.
Desarrollos como el de CMI y Norand evidenciaban que, si se quería llegar a más clientes, era necesario ponerse de acuerdo en establecer una codificación universal o, al menos, que ésta fuera estándar para ciertos mercados y/o productos. Así es como en 1973 George Laurer (1925-2019), de IBM, propuso la codificación UPC (Universal Product Code) para la distribución al por menor. La adaptación europea se llamó EAN (European Article Number) y data de 1976. UPC y EAN son las codificaciones que hoy estamos acostumbrados a ver en el supermercado e identifican el país de origen, empresa y producto. A estas le han seguido otras más específicas como Codabar, Code 39, Nixdorf Code o Interleaved. Por supuesto, las codificaciones bidimensionales como PDF417, Datamatrix, QR y BIDI derivan de aquí. En España, en 1983, la primera empresa que empezó a usar la codificación EAN fue Mercadona, una joven cadena de supermercados que empezaba a dar sus pasos en la Comunidad de Valencia.
Técnicas de lectura
Desde los tiempos del Norand 101 para la lectura de un código de barras se han venido utilizando distintas técnicas. En los primeros años los lectores se acompañaban de un wand –varita o lápiz- en cuyo interior encontramos una pequeña fuente de luz y un fotodiodo. Estos wand, cuando están en contacto con un código de barras y recorren su superficie, captan los niveles de luz reflejados por cada barra y separación entre estas. Estas variaciones son detectadas por el fotodiodo y, a continuación, digitalizadas para ser interpretados por el terminal.
El método anterior fue el más común hasta 1982. En aquel año Jerome Swartz (1940), fundador de Symbol Technologies, comercializó el lector láser LS-7000 y, a diferencia del método del lápiz, no necesitaba contacto físico con el código de barras siendo capaz de leer éste, con visibilidad directa, a una distancia aproximada de 50cm. El principio de funcionamiento consistía en recorrer el código con un haz láser y, a la vez, captar remotamente las diferencias de luz reflejadas. Fueron numerosas las dificultades que se plantearon en la miniaturización del tubo láser de Helio-Neón hasta que, Uniphase, logró reducir su tamaño para ser incluido dentro de un dispositivo de mano junto a la etapa de alimentación de miles de voltios. Además, este mismo dispositivo de lectura, tenía que incorporar un ingenio mecánico con el que modificar el ángulo de un espejo para cambiar la trayectoria del haz y así recorrer toda la superficie del código. A pesar de las dificultades, este tipo de lector resultó ser un éxito y convirtió a Symbol en una de las marcas más notorias del sector. Su tecnología -y una agresiva defensa de su propiedad intelectual- hizo que números fabricantes de terminales portátiles operaran con un lector de Symbol, al igual que los lectores empotrados en las líneas de caja de cualquier supermercado. En el año 1988, esta fortaleza económica, permitió a Symbol vencer a Telxon en la disputa por la adquisición de MSI Data Corp y así contar con su propia línea de terminales. Ya en el comienzo de la década de los noventa, con la aparición lector Symbol LS-2000, se sustituyó el láser de He-Ne por uno semiconductor consiguiendo reducir el precio y su tamaño.
Otra de las técnicas de lectura que ha alcanzado un lugar destacado fue introducida por Norand en el mismo año. Ésta es una aplicación de los conocidos CCD empleados en fotografía digital o vídeo y en los escáner de documentos. Estos lectores disponen de una fuente luminosa procedente de uno o varios diodos y una matriz semiconductora de cientos o miles de condensadores que captan la luz (el CCD). Una vez más, lo que lee el CCD, es el resultado de la reflexión procedente del código de barras. A diferencia del wand o el láser, para la lectura, no es necesario recorrer todo el código -de izquierda a derecha o viceversa- y tampoco que el lector “toque” el código, soportando una separación de pocos centímetros. Frente a los primeros lectores láser de He-Ne el coste del CCD era inferior y gozaba de más robustez, pero tenía limitaciones relacionadas con el tamaño de los códigos que podía leer y a qué distancia.
Como se puede comprobar, en las últimas décadas del siglo pasado se han empleado distintas técnicas de lectura basadas en la reflexión de una fuente de luz. Esto cambiaría en el comienzo del presente siglo gracias a la miniaturización que ha experimentado la fotografía digital y el consiguiente procesado en tiempo real de imágenes. Esto ha permitido trasladar esta tecnología al mundo de los lectores de código de barras y a dispositivos tan diversos como los teléfonos móviles donde, además de ser posible la lectura de codificaciones complejas como las bidimensionales, sirve de complemento de ciertas aplicaciones de realidad aumentada.
RS-232 y Acoplador Acústico
Hasta aquí hemos visto como leer un código para identificar un producto pero de poco sirve si esta información no es tratada y consolida en un sistema de gestión de inventarios y pedidos. Teniendo en cuenta que las necesidades de comunicación de aquellos terminales eran más humildes de las que hoy demandamos a Internet, los primeros años han estado marcados por las bajas velocidades que ofrecía un interfaz serie RS-232 es decir, no es raro hablar de 300 bit por segundo, 1200, o incluso 9200, 19200 y 57000. Así pues podemos comentar tres métodos de comunicación. El primero de ellos es el más básico y consiste en una conexión directa a un ordenador central a través de un cable RS-232. En estos casos, cuando el operario acababa su jornada o cuando tenía que actualizar sus tareas, conectaba su terminal a un cable RS-232 y colocaba el terminal en modo de transferencia. A partir de ese momento descargaba las lecturas y recibía nuevas órdenes de trabajo. En algún caso era posible, incluso, actualizar el programa que estaba utilizando aunque durante muchos años se emplearon memorias EPROM intercambiables para este fin. Estos ciclos de trasferencia a veces coincidían con las fases de reposo del equipo y eran aprovechados para recargar las baterías.
La comunicación anterior era posible siempre y cuando en las mismas instalaciones existiese al otro lado del cable un ordenador central o un sistema concentrador de comunicaciones. En caso contrario, cuando se trataba de almacenes y delegaciones dispersas, lo habitual era recurrir a la línea telefónica y establecer una comunicación por módem. Por esta razón, prácticamente todos los terminales de primera generación, cuentan con un acoplador acústico unidireccional que es empleado para el envío de datos desde el terminal (o almacén) a la central y así actualizar las altas y bajas del stock local. Por ejemplo, en equipos como el terminal MSI/77 (1977) eran habituales las velocidades de transmisión de este acoplador a 110 y 300 baudios.
Comunicación Radio
Hablar de comunicación por radio o inalámbrica es hablar de la regulación que se aplica en cada país. Esto significa que para usar una porción del espectro radio es necesario pedir un permiso y pagar por ello. Es un proceso caro, farragoso y es muy probable que la solicitud sea denegada. Recordemos que las bandas de radio están asignadas a ciertos usos y no es legal invadir estos espacios. De esto se dieron cuenta en EE.UU., en 1980. En aquel año Walter C. Scales a petición de la FCC (Federal Communications Commission) redactó un estudio donde recomendaba abrir a los usuarios ciertas porciones del espectro radio siguiendo unas normas de uso. Además, desde los años 50, existía el antecedente en el uso libre de la región de los 2,4GHz -empleada para calentar- en los hornos microondas. Scales hablaba de la importancia que esto podía tener como elemento dinamizador de la industria y, para ello, sugería emplear la técnica de codificación de Espectro Ensanchado o Spread Spectrum, y así dar mayor robustez a las comunicaciones de los usuarios al reforzarlas ante las interferencias mutuas e involuntarias que se producirían en esos espacios. Esta técnica, en su versión FHSS (Frequency Hopping Spread Spectrum) y DSSS (Direct Sequence Spread Spectrum), fueron desarrolladas para uso militar y ambas aportaban una razonable inmunidad frente a interferencias e incluso eran útiles para ocultar las comunicaciones. Aquellas ideas estaban bien encaminadas y desembocaron en 1985 en el establecimiento por parte de la FCC de tres regiones del espectro radio, conocidas como bandas ISM (Industrial, Scientify and Medical), para ser usadas por cualquiera que siguiera unas indicaciones técnicas básicas. Así se abrieron las frecuencias de 902 a 928MHz, 2400 a 2483.5MHz y de 5725 a 5875 MHz.
Como podéis imaginar, la posibilidad de conectar por radio a los terminales móviles para la lectura de códigos de barras o facilitar la reubicación de ciertos TPV para atender a los clientes ante una determinada promoción o remodelación, eran solo el principio de lo que estaba por llegar. Por esta razón, a finales de los años 80 los principales fabricantes de cajas registradoras y terminales móviles se apresuraban en desarrollar y certificar productos que dieran una nueva perspectiva a la movilidad en espacios interiores. Para la gran mayoría de estas compañías representó un reto desarrollar y competir con una solución radio según las normas de FCC. Por esta razón, en este nuevo ciclo tecnológico, destacaron tres jugadores: Teklogix, fabricante canadiense con experiencia previa en el mundo radio; Symbol, quien desarrollo su propia solución inalámbrica y Telxon, que tomo una participación para más tarde absorber a Telesystems SLW, también canadienses y primeros en presentar una solución radio ISM en 1988.
Por razones de coste y complejidad técnica, y porque esta frecuencia tiene mejor propagación radio, el primer rango en ser usado fue el comprendido entre 902 y 928MHz con codificación DSSS y, aunque era una región de solo 26MHz de ancho de banda, satisfacía las necesidades de una comunicación serie como la comentada antes. El caso español (y europeo) era un poco diferente porque ya estaba planificado el uso de esta región por los servicios TMA 900 (Telefonía Móvil Automática), que luego evolucionarían a GSM. Así, para subirnos al carro de la nueva tecnología ISM y no frenar el despliegue de redes inalámbricas, entre los años 92 y 96 se adaptaron y certificaron equipos para funcionar en los rangos de 406,425MHz a 411,550MHz (Teklogix y Symbol) y entre 433,1 a 433,3MHz (Telxon). Hoy, alguna de estas frecuencias, se emplea en aplicaciones de telemando como la apertura y cierre de portones de garaje.
Aunque no existía compatibilidad entre fabricantes, los sistemas radio de aquella primera generación comparten una arquitectura similar. En ella, como punto central de red, encontramos a un equipo lógico encargado de controlador a una o más cabezas o etapas radio desplegadas dentro de la superficie en la que pretendemos tener cobertura. Para la unión de este controlador de red con las cabezas radiantes que de él dependen se han empleado cables RS-232 y, en el caso de Symbol Technologies, cable coaxial con el que se lograba abaratar la instalación y así aumentar la distancia entre etapas radiantes. Este controlador era el responsable, entre otras cosas, de asegurar el roaming de un operario que está en movimiento y ser atendido en marcha. Una cosa a destacar de estas redes es que carecen de técnicas de cifrado y la información viaja en claro, entre otras cosas porque son sistemas con poca capacidad de proceso para realizar un cifrado en tiempo real y solían ser redes aisladas y poco llamativas para los atacantes. Este cifrado, y disponer de mayor ancho de banda, era imprescindible si se pensaba llevar esta tecnología a las redes LAN con tarjetas como la WaveLAN de NCR.
Construcción de un Telégrafo
julio 4, 2020 on 11:29 am | In academia, colección, hist. telecomunicaciones | No CommentsEn la presentación anterior daba unas pinceladas del funcionamiento de un circuito eléctrico y su aplicación en un telégrafo. Ahora, como segunda parte, es el momento de construirlo.
He intentado que los componentes y herramientas sean fáciles de conseguir. Quizás, el menos común, sea el manipulador telegráfico pero es posible comprarlo a través de eBay o Amazon por unos pocos euros. Evidentemente, para la construcción se requiere el uso de algunas herramientas que, potencialmente, son peligrosas como el taladro y el soldador. Por favor, tienes que ser prudente y, si no te sientes seguro usando la herramienta o conectando el telégrafo a tierra, pide ayuda a una persona con conocimientos. Es tu responsabilidad. Gracias.
Colección | Descargar presentación | Telégrafo y Telecomunicación | Marconi y el Día Internacional de la Radio | Telegrafía y Telefonía
Telégrafo y Telecomunicación
junio 11, 2020 on 9:49 pm | In academia, colección, hist. telecomunicaciones | No CommentsA mi hija de 10 años le ha tocado estudiar los componentes básicos de un circuito eléctrico. Para quien no lo sepa es una lección más del temario de Ciencias Naturales de 5º de Primaria. Mientras repasábamos, noté que es dificil encontrar un circuito eléctrico básico a nuestro alrededor y, dejando a un lado el encendido y apagado de la iluminación o el secador de pelo, echaba en falta una aplicación donde analizar cada uno de sus componentes. Fue en ese momento cuando, sin poder evitarlo, recurrí a ingenios del pasado como el Telégrafo para ilustrar el tema de estudio. Mi hija me miraba sorprendida cuando le contaba la epopeya y adversidades de los primeros tendidos de cable submarino o las dificultadas para amplificar una ruta.
Alguna de estas explicaciones las puse en orden en un PowerPoint recordando a Samuel Morse. Lo sé, me emocioné un poco pero aquello era un ejemplo claro y práctico de un circuito eléctrico, además sentaba las bases de otra revolución de la humanidad: las Telecomunicaciones.
Colección | Descargar presentación | Construcción de un Telégrafo | Marconi y el Día Internacional de la Radio | Telegrafía y Telefonía
HarmonyOS y los Sistemas Operativos Móviles
agosto 16, 2019 on 10:48 am | In colección, copyleft, open source, hist. informática, hist. telecomunicaciones, m2m, iot | 2 CommentsAdolfo García Yagüe | Bueno, bueno… pues parece que al final el nuevo sistema operativo de Huawei no será una distribución basada en Android o Linux. Por lo visto está construido alrededor de un microkernel (lo cual le aleja de estos) y, además, Huawei ha dado a entender que ya lo tenía desarrollado para sus sistemas embebidos e IoT y “solo” había que adaptarlo al mundo Smartphone. Originalmente se llamaba HongmengOS y, tras su apresurado lanzamiento, se llamará HarmonyOS. En todo caso, se espera que su adopción en los teléfonos de Huawei sea gradual y dependerá de cómo se desarrolle el conflicto entre EE.UU. y China que, evidentemente, no beneficia a ambas empresas ni a sus usuarios. Por eso es prematuro vaticinar cuál será su éxito.
De lo que no cabe ninguna duda es que no hay que subestimar a Huawei, y mucho menos a China. Tampoco hay que minusvalorar la arquitectura y diseño de HarmonyOS ya que, al menos sobre el papel, es muy potente y se ha concebido para cualquier dispositivo, incluidos vehículos y electrodomésticos. De hecho, desde hace algún tiempo, Google comenta la hipotética jubilación de Android a favor de FuchsiaOS, este último también se plantea como un sistema operativo universal.
Volviendo a Huawei y HarmonyOS, parece evidente que éste se las tendrá que ingeniar y contar con un módulo de emulación que le permita ejecutar la mayoría de las Apps de Android. Esto solo será un paliativo porque, en el medio plazo, uno de los grandes retos, será ganarse el apoyo de los desarrolladores y la industria para ser totalmente independiente de Google. Sin esta característica no creo que llegue muy lejos aunque su arquitectura y potencia sean fabulosos. En este sentido Huawei ya anunciado que HarmonyOS será Open Source y que cualquiera tendrá acceso al código. Dicho esto habrá que ver que entiende este fabricante por Open Source y cuál es su capacidad de persuasión para captar la atención de otros fabricantes y desarrolladores. No obstante es una buena noticia y es la mejor forma de desactivar cualquier suspicacia sobre la seguridad o el control “gubernamental” del teléfono.
Si en el hardware hemos asistido a una evolución casi uniforme, en el software hemos conocido unas cuantas iniciativas que han condenado al olvido a algún fabricante. Hace bien poco el propio Bill Gates recordaba que su mayor fracaso ha sido la movilidad, y eso que Microsoft lo lleva intentando desde 1997 con su Windows CE y antes, en 1993, con su Windows Pen. Desde entonces esta compañía se ha empeñado en convencernos de que la movilidad era una versión para pantalla pequeña del Windows de escritorio (teléfono, acceso menús, navegación, configuración). Hasta que no aparecieron los primeros Nokia Lumia, allá por el 2011, no entraron en razón y ya era demasiado tarde.
A Nokia y a Ericsson les pasó algo parecido. Sus reflejos funcionaron muy bien cuando se hicieron en 1999 con EPOC. Este sistema operativo fue desarrollado por los británicos de Psion, otro histórico. La arquitectura de EPOC permitía abstraerse fácilmente de un determinado hardware y la comunicación de procesos era sencilla y modular. Nada que ver con los anteriores monolitos software. El Ericsson R380 fue el primer teléfono basado en la versión de 32 bits de EPOC, siendo este renombrado y popularizado bajo el nombre de Symbian. A partir de aquí fueron apareciendo numerosos teléfonos inteligentes basados en este sistema operativo que, en la mayoría de los casos, estaban inspirados en un entorno gráfico similar a una PDA. Symbian compartió época con PalmOS, BlackBerry OS y Windows Mobile. De aquel momento, quizás el más rupturista, fue el DangerOS donde ya se aprecian algunos detalles que luego veríamos en Android. Otro que supuso un cambio fue el LG Prada y su pantalla táctil capacitiva, pensada para ser usada solo con los dedos de la mano. En cualquier caso el Danger Hiptop y el LG Prada fueron teléfonos que tuvieron poca repercusión comercial.
Eran años donde los fabricantes apenas arañaban cuota a Nokia o a RIM con sus Blackberry. Nokia tenía la potencia y calidad para inundarnos de teléfonos, sin importar en que gama compitieran: alta, media o baja. Por su parte, Blackberry supo detectar la importancia del correo electrónico para las empresas. RIM venía del mundo de los buscapersonas bidireccionales. Este mercado se inició hacia mediados de la década de los ´90 por la venerable Motorola y la apuesta de RIM fue usar Mobitex, una red radio sencilla y económica, para que los Operadores prestaran este servicio. Eran tiempos donde el uso del correo electrónico en las empresas empezó a ser una revolución y RIM tuvo clara la visión de crear un dispositivo que, en lugar de presentar los escuetos mensajes de busca, sirviese para recibir y contestar los correos electrónicos de la organización. Además, como era algo empresarial, ya se consideró la importancia de la seguridad del dispositivo y, si se deseaba, la Blackberry podía encriptar toda la información en ella contenida.
Así las cosas, llegó Apple y su cuidada capacidad y experiencia para construir un hardware tan bueno o mejor que el de Nokia. Además, desde hacía unos años, Apple gozaba del éxito de iTunes y su iPod lo que le permitía tener claras las ideas: la creación de un ecosistema. No se trataba solamente de hacer un buen teléfono, había que crear una plataforma (hoy lo llamamos nube) donde vender aplicaciones y guardar datos… La idea no era totalmente nueva y hay antecedentes de cosas parecidas, incluso en los tiempos de WAP (Wireless Application Protocol) los Operadores de Telecomunicaciones lo intentaron (e-moción de Telefónica o Conect@ de Airtel) pero nadie como Apple supo darle forma.
La historia puede seguir con Android y su marketplace controlado por Google. Lo importante es que a lo largo de estos años numerosos sistemas operativos vagan en el limbo de la obsolescencia y, aunque algunos sigan en activo, pasan desapercibidos: FirefoxOS, Ubutu para teléfonos, MeeGo, GEOS, Maemo, Tizen… No lo olvidemos. Está por ver que pasara con HarmonyOS.
Colección | 1G o primera generación de telefonía móvil | Los Móviles | GTP y la seguridad en redes 4G y 5G NSA
5G y lo que hemos vivido
junio 8, 2019 on 7:25 pm | In colección, hist. telecomunicaciones | No CommentsHace unos días, Andrea Donà, responsable de redes de Vodafone UK, afirmaba en una entrevista que 5G es la tecnología definitiva y daba a entender que tras esta revolución no se sucederían más generaciones de móviles.
Con toda seguridad, la próxima aparición y desarrollo de 5G transformará las redes inalámbricas como las conocemos. Es probable que su arquitectura, al ser tan modular (y virtual), pueda considerarse como definitiva ya que la actualización de alguno de sus módulos para soportar nuevos servicios, modulación o acceso radio sea menos disruptiva de lo que ha sido hasta hoy. Es decir, entre otras muchas cosas, 5G ofrece un marco sobre el que ir cambiando los diferentes módulos (software) para adaptarla a lo que tenga que venir.
También está claro que los terminales evolucionarán. Quizás no tanto como lo visto en los últimos años pero parece claro que aún hay margen para aumentar su integración con otros dispositivos de tipo wearable, bajar su tamaño, consumo de baterías, etc. Por otro lado, para los operadores es tremendamente atractivo contar con una tecnología inalámbrica que pueda garantizar anchos de banda a la medida de la aplicación: 5G puede asegurar decenas de Bytes por segundo para que miles de coches autónomos y sensores mantengan una conexión en tiempo real, a la vez puede garantizar cientos de Megabytes a los empleados de una empresa para que trabajen en una LAN entre centenares de localizaciones. Es decir, es muy probable que veamos ordenadores, portátiles o servidores, conectados a 5G. Como no, equipos de demarcación LAN-WAN como routers o puntos de acceso wi-fi.
El motivo de los párrafos anteriores no es otro que reflexionar sobre lo que hemos visto en las últimas décadas. Somos unos privilegiados por haber presenciado el nacimiento de la telefonía móvil, Internet, las redes locales, el wi-fi, Linux y tantas otras cosas. No sé lo que verán las generaciones venideras pero está claro que lo vivido en la nuestra es histórico. Por eso, esta es una de las motivaciones que me impulsó a ir reuniendo e ir preservando piezas del pasado y entregárselas “a los de futuro”. Sería muy triste -y algo injusto- que nuestros hijos y nietos piensen que siempre existió la telefonía móvil, Internet o que hacer una videoconferencia es lo más normal…
(c) 1999-2024 Ccäpitalia.net - Se autoriza el uso según terminos Creative Commons BY-NC-SA
Powered by WordPress