RADIOFAROS CONSOL

 

1.- INTRODUCCIÓN .-

 

 

Comienzo en esta entrada mi iniciativa particular para que no se pierda en el olvido la trascendencia que han tenido las antenas alemanas construidas bajo el mandato de Hitler -con permiso de Franco- allá por el año 1942, en la localidad de Arneiro (municipio de Cospeito). Recientemente han caido al suelo debido a un temporal de viento las dos torres que quedaban en pie (eran inicialmente tres torres). En particular, mi interés tiene que ver más bien con el aspecto técnico, y en consecuencia a partir de este momento publicaré en esta web una serie de mini-artículos dedicados fundamentalmente a la historia y funcionamiento de la estación radioeléctrica Elektra-Sonne (llamada también Consol) que operaba desde Arneiro con una frecuencia de portadora de 285 KHz., como recuerdo de una tecnología pasada que en parte, al menos desde el punto de vista conceptual, supuso la constitución de uno de los ancestros del Sistema GPS de Posicionamiento actual. Para acometer esta tarea repartiré el gran conjunto de conceptos que es preciso manejar en pequeñas entradas independientes, de tal manera que de forma global se puedan entender con el grado de profundidad que se quiera los entresijos de este sistema radiante.

 

2.- DECLARACIÓN DE INTENCIONES .-

 

Comienzo con este apartado el conjunto de artículos dedicados al Sistema de Posicionamiento Consol. Para desarrollar esta tarea me he ayudado de la documentación histórica que se halla en internet publicada por D. ÁNGEL VALÍN BERMÚDEZ y D. SERAFÍN R. TRASHORRAS, pero únicamente los datos históricos, pues los detalles técnicos proceden de otras fuentes, en concreto, libros y manuales tanto nacionales como extranjeros de la década de los años 50. No he pedido permiso a los autores antes reseñados para usar los datos históricos que ellos han colgado en la red, pero entiendo que al mencionar sus nombres de forma explícita quedan resueltos los problemas de derechos de autor, y en cualquier caso pondré enlaces a sus páginas, para que sean visitadas desde esta web. Téngase en cuenta además que no pretendo reflejar lo ya publicado tal cual, sino procesar y elaborar el material y efectuar añadidos en base a lo que yo buenamente puedo aportar. Evidentemente tal procesado y filtro no podrá ser desarrollado para las reseñas históricas, las cuales son las que son.

Mi intención no es describir de forma super-exhaustiva el funcionamiento del sistema radiante, sino más bien hacer una introducción lo suficientemente elaborada de dicho sistema, y por ello entiendo no copiar todo lo que halle en internet o en otros medios al pie de la letra o con otras palabras, sino más bien documentar el tema con lo que conozco de este sistema, en base a lecturas de libros nacionales y extranjeros de mediados del siglo pasado y en base también a la actual teoría de antenas.

 

3.- DATOS HISTÓRICOS .-

 

Utilizo aquí como fuente de datos históricos los brillantes artículos publicados en la web por D. Ángel Valín Bermúdez y D. Serafín R. Trashorras, con las correcciones que he creido oportunas.

Según parece, ya avanzados los años 30, se le pidió a algunas empresas la mejora del sistema «American Radio Range». Se trataba de un sistema radiante usado para el posicionamiento, es decir, para obtener la longitud y latitud de un punto en el planeta, allá donde ese sistema llegara con cobertura. El ingeniero encargado de desarrollar el sistema Consol -la mejora pretendida- fue el Doctor Ernst Kramar, el cual en aquel entonces (1938) trabajaba en la empresa Estándar Elektrik Lorenz.

Una vez activo, el sistema Consol cubría todo el Atlántico Norte , y además de la estación de Arneiro (Lugo), existían estaciones en Stavanger (Noruega), Ploneis (Francia), Guillena (Sevilla), y Bush Mills (Gran Bretaña) (esta última operativa sólo después de la II Guerra Mundial), todas ellas operando a distintas frecuencias de portadora para garantizar la ausencia de interferencias y todas ellas ubicadas en diferentes puntos de frecuencia de lo que se conoce como banda BEACON (Banda para balizas).

El general Franco concedió a Hitler potestad para instalar las estaciones de Arneiro y Guillena en Lugo y Sevilla respectivamente. Según los datos de que dispongo, ambas fueron construidas en la década de los años 40, para ser más exactos allá por el 1942. También fue utilizado por los alemanes el Aeródromo de Rozas, en teoría como soporte logístico y lugar de suministro para las antenas, aunque su construcción fue anterior (ya existía).

Existen reseñas de distintas fuentes de que las antenas fueron utilizadas por ambos bandos, tanto el aliado como el nazi. Esto entra dentro de lo posible, pues para operar en alta mar o en el aire con el objeto de recibir la señal y determinar la posición, el equipo no tenía por qué ser muy sofisticado. En realidad bastaba con un receptor de radio operando en la banda BEACON, con la suficiente selectividad en frecuencia como para distinguir las distintas portadoras de frecuencias próximas entre sí dentro de la reseñada banda, y a poder ser también sería útil un radiogoniómetro, aunque no era imprescindible, más adelante entraré en estos temas con detalle.

En principio los aliados lo único que tenían que conocer eran las frecuencias empleadas por las diferentes estaciones ubicadas en Europa, y por técnicas de radiogoniometría, usando la parte temporal de señal de radiofaro NDB (Non Directional Beacon), no sería preciso conocer más para establecer una aproximación no muy fina de la posición, aunque sería deseable saber cómo se generaba la señal CONSOL (segunda parte temporal de la señal transmitida), lo cual entiendo que sería guardado en secreto por el bando alemán. Desconozco el grado de conocimiento de los aliados respecto al sistema Elektra-Sonne, aunque para operar efectivamente les bastaría con conocer las frecuencias y posición en el mapa de cada emisora y con tener radiogoniométros en banda BEACON.

Decía que existen reseñas acerca del empleo por parte de los aliados de CONSOL. Algunos llegan a afirmar que en un momento en que la estación sufrió avería fueron los aliados quienes suministraron piezas de recambio. Personalmente dudo de estas afirmaciones, entre otras cosas puesto que en el lugar no existen testigos de tal hecho, y además entiendo que los alemanes procurarían el mayor secretismo, pues el Atlántico Norte era vital para ellos con fines estratégicos.

Una vez ya terminada la II Guerra Mundial, la estación pasó a depender del Ejército del Aire de España hasta el año 1962, cuando su control se trasladó a Aviación Civil. Prestó servicio para la navegación aérea hasta 1971. Las antenas se apagaron en 1980.

Actualmente, sólo quedan los restos, y dentro de poco no quedará ni eso. Las tres torres radiantes están en el suelo, las dos últimas cayeron debido a un vendaval reciente, y la primera hace ya al menos un par de años. No queda nada de la estación de control, y del barracón de generadores de corriente. Sólo están los edificios: el que albergaba el transmisor y la circuitería, el barracón de cocina y dormitorios, el garage de grupos electrógenos, y un pozo. Pero de lo que había dentro no ha quedado absolutamente nada. Por dejadez de los organismos oficiales el que podría haber sido un precioso museo tecnológico e histórico ha quedado en la forma de edificios en ruinas. Una verdadera pena.

Enlaces a páginas relacionadas :

Web de Serafín R. Trashorras:

http://uboat.freehostia.com/arneiro/arneiro.htm

Fotos de equipos de transmisión :

http://www.jproc.ca/hyperbolic/consol_spain.html

Información militar :

http://josecadaveira.tripod.com/militaryruins/id80.html

Página web alemana :

http://www.seefunknetz.de/consol.htm

Wikipedia :

http://es.wikipedia.org/wiki/Torres_de_Arneiro

 

4.- FOTOGRAFÍAS DEL ESTADO ACTUAL .-

 

 

He visitado los restos de la antigua estación radioeléctrica Consol de Arneiro (Lugo).

En este apartado me limitaré a insertar las fotografías que he tomado. Se puede apreciar que la antena que ocupaba la posición central de las tres, la que sale en las fotos, yace sobre el terreno, y ya en parte desguazada. Esta antena y la antena Sur cayeron al suelo durante el pasado temporal Klaus. La antena Norte había caido ya hace un par de años con motivo también de fuertes vientos racheados.

La foto de arriba representa la base sobre la que estaba apoyado el pie de esteatita de la torre central. Si ese punto de apoyo no aislara la antena de la tierra, ésta no desempeñaría su función, sino más bien la de pararrayos.

La siguiente foto representa una vista de la antena en su posición yacente sobre el suelo. Al fondo se puede apreciar el capuchón capacitivo que permitía a la antena una longitud eléctrica «aparente» más aproximada a la cuarta parte de la longitud de onda de transmisión que la de la propia antena en sí, como se desprende gráficamente de la carga en un extremo de una línea de transmisión con un condensador, observada en una carta de Smith, y como se puede razonar por el hecho del desfasaje que introduce el condensador a un fasor de corriente nulo en el extremo de la línea de transmisión -en el aire no fluye corriente-, que consigue un fasor de corriente impresa más homogéneo a lo largo de ésta en el tramo que «de ella» abrimos como antena, lo que garantiza un mayor nivel del campo radiado, con ahorro de altura y material.

 

 

La siguiente foto representa el mencionado capuchón equivalente electromagnéticamente a la placa de un condensador.

 

 

En la foto que sigue se puede ver el pozo que había en el complejo, dedicado a suministro del mismo.

 

 

En la siguiente fotografía se representa el garage donde se hallaban los generadores de corriente, que es adyacente a las habitaciones y cocina de los operarios (en el mismo edificio).

 

 

Finalmente, en esta última foto se puede observar el edificio donde se hallaba el transmisor y la circuitería de control.

 

 

5.- FOTOGRAFÍAS INMEDIATAMENTE POSTERIORES A LA CAÍDA DE LAS TORRES .-

 

 

Inserto en esta entrada las fotografías que fueron tomadas uno de los días inmediatamente posteriores a la caída de las torres centro y sur de la estación Consol de Arneiro (Lugo).

 

 

6.- DATOS BIOGRÁFICOS DE ERNST KRAMAR .-

 

A Ernst Kramar se le debe la implementación de lo que se conoció como sistema de posicionamiento Consol.

Nació en Klazno el 15 de junio de 1902, un pueblo próximo a Praga (actual República Checa). Sus estudios universitarios consistieron en ingeniería eléctrica en la ciudad de Praga, entre los años 1920 y 1925, en una universidad entonces llamada Deutsche Technische Hochschule. En el año 1926 se graduó como Doctor Ingeniero por el Barkhausen Institute (Universidad Técnica de Dresde). Comenzó entonces su verdadera andadura profesional.

En el año 1927, Ernst Kramar entró en la empresa C. Lorenz AG (Berlín), compañía anterior a SEL (Standard Elektrik Lorenz). En aquella época se dedicó a resolver diferentes problemáticas en torno a la radio, pero no empezó a resaltar como ingeniero hasta que en 1932 usó frecuencias de la banda VHF con fines de radionavegación, desarrollo que recibió el nombre de Lorenz Landing System, del cual el actual ILS usado en aeropuertos es una mejora, del mismo modo que las balizas VOR, las cuales dan gran información de navegación a los pilotos.

En la Segunda Guerra Mundial, Ernst Kramar trabajó en técnicas de rádar y fue jefe de desarrollo de sistemas de radio en Pforzheim y Stuttgart.

En colaboración con los demás ingenieros de las compañías en las que trabajó, fueron desarrolladas un gran número de patentes, más de 85, lo que le valió un gran número de méritos y premios, tales como la Lilienthal Medal (1937), la Medalla de Oro de la Asociación Alemana para la dirección y navegación (Deustche Gesellschaft für Ortung und Navigation), y la Gran Cruz de la Orden del Mérito Nacional de la República Federal Alemana (1969).

Como resumen de todo esto, se podría decir que Ernst Kramar fue un reconocido científico que se adaptó a diferentes regímenes políticos durante su vida y que colaboró con el desarrollo técnico de Alemania, lo cual le valió múltiples condecoraciones. Sus desarrollos se han mantenido vigentes para el bien de los navegantes ya después de la Segunda Guerra Mundial, y han supuesto una inmensa aportación a la tecnología de las comunicaciones en el siglo XX.

 

7.- FOTOGRAFÍAS DE ANTES DE LA CAÍDA .-

 

 

Reproduzco aquí algunas fotografías de la antena central de la estacion Consol de Arneiro (Cospeito), algún tiempo antes de su caída. Actualmente no ha quedado nada de ellas.

 

 

Se pueden observar perfectamente las riostras que sujetaban a la torre desde varias direcciones, la cual levitaba cuando había viento, puesto que en el suelo estaba simplemente apoyada, y eran estos tirantes los que impedían su caída.

 

 

8.- GENERALIDADES TÉCNICAS DE CONSOL Y OTROS SISTEMAS HIPERBÓLICOS .-

 

 

El sistema de posicionamiento Consol se engloba dentro de los sistemas de posicionamiento hiperbólicos. Los sistemas más conocidos de este tipo fueron fundamentalmente tres, a saber, el sistema Decca, el sistema Loran y el que aquí me ocupa, el Consol. El hecho de que reciban este nombre de hiperbólicos deriva de la filosofía implícita en la recepción de las señales. La característica común de los sistemas hipérbolicos es que la diferencia de fases o de tiempos entre señales emitidas desde antenas diferentes de la misma estación, en el momento de su recepción, sirve para determinar la línea de demora que media entre el receptor y la estación emisora, o al menos una de las posibles –como sería en el caso de Consol-. Como es lógico y sobradamente conocido, el lugar matemático espacial en el que la diferencia de distancias a dos puntos diferentes se mantiene constante es un hiperboloide de revolución. Pues bien, si entre una antena y el receptor la onda sin modular (CW) tarda x segundos, y si entre otra antena de la misma estación y el mismo receptor tarda x + y segundos, la diferencia entre ambos tiempos, esto es, y segundos, o respectivamente, entre ambas fases, lleva parejo un determinado hiperboloide de revolución, lugar geométrico en el que el receptor arrojaría la misma medida. Por lo tanto, se sigue inmediatamente de esto que una medida basada en un único par de antenas no sería operativa, por dar lugar a ambigüedad. Es estrictamente necesario conocer una aproximación a la línea de demora mediante radiogoniometría, y disponer de otro hiperboloide de revolución que se corte con el primero en algunos puntos entre los cuales se halla el de la verdadera posición del receptor. Entre esas medidas se resuelve el problema de la ambigüedad. Esto se podía hacer empleando distintas escuchas con relación a distintas estaciones, o bien, como sucede con Decca y Loran, con diferentes medidas obtenidas en relación a distintos pares de antenas dentro de cada estación.

 

 

El sistema Decca estaba basado en estaciones emisoras –o cadenas Decca- formadas normalmente por tres o cuatro antenas, ubicadas en diferentes lugares relativamente próximos entre sí y formando una figura geométrica que podía variar. La filosofía del sistema Decca de cuatro antenas se basaba en que una de las antenas iba asociada al transmisor maestro, que emitía una onda continua –esto es, CW- a determinada frecuencia. Las otras tres antenas recibían esa señal, y esa señal recibida era procesada por un conversor de frecuencia que la multiplicaba por una determinada relación, pasando esa señal a ser transmitida, despúes de amplificarla, en cada antena esclava. Por lo tanto, como se deduce de esto, no se transmitía la misma portadora en las cuatro antenas, ya que ello las haría indistinguibles en el receptor. Como la diferencia de fase entre la portadora maestra y una de las señales esclava es en recepción dependiente de la diferencia de distancias que han recorrido ambas ondas, así como de la frecuencia empleada en la antena maestra y del factor que relaciona la onda emitida en cada par maestra-esclava, al final esa diferencia de fase, o de tiempos de propagación, podía ponerse en relación directa con un determinado hiperboloide relativo a cada par maestra-esclava, y arrojaba un valor numérico de diferencia de fase que podía ser llevado a un sistema de presentación. El sistema de presentación de Decca consistía en tres marcadores con forma de reloj, uno para la diferencia Rojo, otro para la diferencia Verde y otro para la diferencia Morado. Cada reloj estaba asociado a un par de antenas maestra-esclava, de tal modo que en la antena receptora se recibían tres ondas a tres distintas frecuencias, y la diferencia de fase entre cada par de ondas se representaba en cada uno de los tres relojes. Cada uno de los tres relojes recibía pues un par de señales que eran transformadas en frecuencia por dos factores diferentes en dos ramas circuitales distintas, para ponerlas a ambas en la misma frecuencia, tras lo cual se medía la diferencia entre sus fases, con un discriminador de fase, y ese resultado pasaba después al reloj correspondiente. Por lo tanto, como cada reloj iba asociado a un hiperboloide diferente, la intersección de los tres lugares geométricos arrojaba -en un mapa convenientemente marcado con las hipérbolas- la posición del navío o avión donde se hallaba el receptor, en relación a la estación emisora.

 

 

El sistema Loran también se basaba en la filosofía hiperbólica, sólo que en este caso cada estación estaba formada únicamente por tres antenas separadas entre sí -aunque en algunos lugares se construyeron cuatro-, en las cuales un tren de pulsos con un cierto intervalo de repetición modulaba una onda continua. Entre la transmisión de cada par de antenas se añadía además un cierto retardo. El sistema de lectura consistía en un receptor que alimentaba un tubo de rayos catódicos (TRC), que al recibir las ondas desfasadas entre sí correspondientes a la recepción de cada par de antenas, dibujaba en pantalla –si la recepción era la adecuada y no había otros ecos- dos pulsos separados por un cierto tiempo. Este tiempo de diferencia daba idea del hiperboloide parejo a cada par de antenas y la intersección entre los dos hiperboloides daba la posición del navío. También se podían usar estaciones Loran diferentes para ver la intersección de las líneas de demora correspondientes.

 

 

El sistema de posicionamiento Consol, el que se empleaba en la estación radioeléctrica de Arneiro, se basaba en modular tres ondas continuas de la misma frecuencia –una por antena dentro de la estación, la cual tenía tres antenas- mediante una variación temporal de sus desfases recíprocos, añadiendo un desfasaje entre las dos antenas de los extremos variable y periódico en el tiempo y formado por una parte en forma de tren de pulsos cuadrados de 180 grados de amplitud más otra parte variando en forma de diente de sierra. De este modo, gracias al desfasaje variable de las tres señales emitidas en las tres antenas, se lograba un patrón para el diagrama de radiación con varios lóbulos que iban girando alrededor desde el momento de inicio de cada barrido. Para una ubicación genérica en relación a una determinada estación emisora, había momentos en los que las dos ondas y la del mástil central llegaban las tres perfectamente enfasadas, dando lugar a que en ese instante la amplitud entre puntos y rayas fuera máxima; momentos en los que estaban enfasadas las ondas extremas pero en contrafase con la onda central, dando lugar a una amplitud entre rayas y puntos máxima; y momentos en los que las dos ondas extremas estaban en fase y a su vez desfasadas 90º en relación a la central, momento de equiseñal; con todos los momentos intermedios entre ellos con variación continua. Esto por lo que respecta a la amplitud de la señal demodulada, pero en relación a su forma, resulta lógico el saber que en el instante de equiseñal (amplitud intermedia), las dos señales de las ondas extremas, alternando puntos y rayas, con parte real nula de ambos fasores, daría lugar a una onda demodulada constante, porque en ese momento sus fasores tenían un valor de más/menos la unidad imaginaria, arrojando un resultado intermedio al combinarlas con el fasor de la estación central; mientras que antes o después de la equiseñal serían los puntos (o respectivamente rayas) los que prevalecerían porque los fasores de las ondas de los mástiles extremos formarían ángulos suplementarios para las dos en el momento del punto (o respectivamente raya) y posición simétrica de los fasores en el momento de la raya (o respectivamente punto) -simetría respecto al eje imaginario con los fasores por debajo del eje real-, con ángulo distinto a 90º, con respecto al fasor de la onda central. Eso tendría la consecuencia de que uno de los signos se oiría más fuerte que el otro, dando lugar a puntos fuertes intercalados con rayas débiles antes de la equiseñal; y otro tanto ocurriría después del instante de equiseñal si cambiamos la palabra «puntos» por la de «rayas», con lo cual para cada ubicación concreta el operador de radio oía primero un determinado número de puntos (o de rayas) seguido después de otro determinado número de rayas (respectivamente de puntos). Esta descripción se correspondería con cada ciclo completo de señal de orientación, aunque en una posición determinada de escucha la señal recibida podría comenzar su evolución en cualquiera posición del mismo. Se ha escrito la palabra «viceversa» en varios lugares, porque dependiendo de donde se halle el receptor, oirá primero las rayas más fuertes que los puntos o al revés. Operativamente, gracias a esos dos números de puntos con rayas inapreciables y rayas con puntos inapreciables, anteriores y posteriores respectivamente a la equiseñal, pareja a las sucesivas diferencias de fase de ambas antenas extremas, al ir barriendo los haces el espacio, se podía llevar a cabo la obtención de la línea de demora en relación a la estación que se estaba escuchando, para lo cual el operario podía recurrir a planos debidamente señalizados con la posición de la estación y las líneas rectas que salen de ella en todo su alrededor, que no son sino aproximaciones de las hipérbolas verdaderas. Es por esto que el sistema Consol no podía emplearse en las proximidades de cada estación, dado que en dichas proximidades las hipérbolas no son aproximables por rectas y tienen una notable componente curva, lo que origina una mucho mayor imprecisión. Esto ya condicionaba de por sí el emplazamiento que debía elegirse para las estaciones, que como es lógico no se situaban justo en la costa sino tierra adentro. Antes de cada barrido la antena central de la estación emitía una onda continua modulada con un código Morse identificador de la estación, además de la propia portadora sin modular, señal que se propagaba ciertos segundos antes del inicio del barrido. Esta señal isotrópica de baliza no direccional servía para que el operario del navío o del avión buscase la dirección de mínimo de recepción con el radiogoniómetro –instrumento empleado para determinar una aproximación a una línea de demora con respecto a un cierto transmisor que sintonizamos-. De este modo se obtenía una aproximación a la línea de demora, que era empleada después de recibir la sucesión de puntos y rayas de la segunda parte de la transmisión –o parte Consol de la señal- para eliminar las ambigüedades inherentes a este sistema. Esto sucede porque el hecho de emitirse varios lóbulos que se van moviendo por cada lado tiene como consecuencia que en diferentes lugares muy distantes entre sí se puede escuchar exactamente la misma secuencia de puntos y de rayas, y gracias a la aproximación obtenida con el radiogoniómetro en la recepción de la señal NDB –Non Directional Beacon- se podía discernir verdaderamente en cual de los radiales se hallaba el navío. Por lo tanto, si con una estación obtenemos un radial o línea de demora, es necesario al menos el escuchar otra estación después para determinar el punto de corte de ambas. Esto no era problema, dado que en Europa existieron estaciones Consol en Arneiro, en Sevilla, en Ploneis, en Stavanger, durante la II Guerra Mundial, y aditivamente en Bush Mills y muchas otras ubicaciones del mundo ya después de la confrontación.

 

 

En las imágenes mostradas en esta entrada se pueden apreciar gráficamente diferentes aspectos relativos a los sistemas hiperbólicos, en concreto sólo he colocado imágenes de los sistemas Decca y Loran, puesto que Consol lo trataré con más detalle en lo sucesivo. En la primera imagen se advierte la representación del corte de los hiperboloides con la superficie terrestre, que da lugar como es sabido a hipérbolas -en realidad no son estrictamente hipérbolas, ésto sucedería si intersecáramos los hiperboloides con un plano, pero en realidad dichos hiperboloides se intersecan con una figura muy parecida a un elipsoide de revolución (el planeta)-. Se representan diferentes hipérbolas parejas a diferentes diferencias de fase medidas en dos de los decómetros o relojes de presentación de Decca (había tres relojes de presentación o decómetros, pero bastaba con la medida de dos de ellos para averiguar la posición). Se observa como las dos curvas cuyas diferencias de fase características (una curva para cada diferencia), que han sido medidas, se cortan en un punto, que sería el lugar en el que se hallaría el navío. La segunda imagen representa el discriminador de fase a válvulas de vacío, las cuales operaban como diodos, que se empleaba para suministrar la señal a los decómetros. La tercera imagen es una fotografía que muestra la apariencia real de los decómetros. La penúltima imagen representa la obtención de la posición mediante el sistema Loran, y finalmente la última imagen es una fotografía del sistema de recepción y presentación de Loran, en la que se puede ver una pequeña pantalla que era marcada con el haz de electrones de un tubo de rayos catódicos. Las fotografías han sido tomadas del libro de mediados de siglo titulado «Radar and electronic navigation», del autor G.J.Sonnenberg.

 

9.- EL TRANSMISOR .-

 

 

Siguiendo con la serie de artículos dedicados al sistema radioeléctrico Consol, en el presente apartado trataré la filosofía del sistema transmisor, el cual en la estación de Arneiro (Cospeito) se hallaba emplazado en uno de los edificios ubicados a menos de 200 metros de la antigua (ahora ya no existente) antena central.

La misión del transmisor del sistema Consol era la de generar la señal de corriente de alta potencia que debía ser “colocada” en cada uno de los tres mástiles radiantes.

La operación del sistema Consol se basaba en dos partes diferenciadas, en la primera de las cuales –funcionando como baliza omnidireccional- sólo transmitía la antena central, emitiendo el indicador Morse de la estación modulando a la portadora, mientras que en la segunda parte –en la que se generaba la señal de orientación- una señal CW sin modular –que sonaría como un pitido continuo en un receptor- se aplicaba a la antena central, al tiempo que a la misma señal se le sometía a un programa doble de desfasaje, para generar así las dos señales de los mástiles radiantes extremos.

En esa segunda parte de transmisión de señal de orientación, la antena central emitía un tono de portadora, vibrando en la estación de Arneiro dicha portadora a la frecuencia de 285 KiloHerzios. Ahora bien, si empleamos este mismo tono de portadora sin modular en los tres mástiles radiantes, no obtendríamos el diagrama de radiación de rotación lenta de un radiofaro. Para ello, y de acuerdo con el dibujo de más arriba, la antena central emitía la portadora sin ninguna modificación en su fase en dicha fracción de tiempo de orientación (segunda parte) eso sí con una potencia que era doble a la de las antenas laterales (esto es, una amplitud de señal aproximadamente cuádruple). Al mismo tiempo, la portadora era sometida a un régimen de desfasaje compuesto de dos partes, para la cual existían sendos circuitos. Primeramente a la señal sin modular se le practicaba un desfasaje brusco periódico P por saltos de 180º, generando así dos señales retardadas en esa cantidad, y después se les añadía además un desfasaje D continuo que variaba entre 0º y 180º. De este modo se obtenían dos señales diferentes entre las cuales mediaba un retardo (o desfase) de acuerdo con el régimen doble, y que eran aplicadas a las antenas de los extremos. El desfasaje resultante variaba, pues, con una forma parecida a la hoja de una sierra. El régimen de tipo P con saltos bruscos era el responsable de que al sintonizar en alta mar el receptor con los 285 KHz., en este caso, de Consol de Arneiro, se oyesen puntos más fuertes entre los que había rayas más débiles o viceversa, y al considerar dicho régimen combinado con el régimen continuo D lo que se obtenía es que la envolvente de los puntos iba creciendo y la de las rayas decreciendo (o viceversa) hasta hacerse iguales en el instante de equiseñal.

¿Por qué se hacía esto así?. La razón de que se añadiera ese desfasaje variable y periódico (con periodicidad de 1 minuto para las estaciones de Arneiro, Sevilla y Stavanger y tiempo de permanencia de las tres señales con idéntica fase –momento en que el régimen P generaba 180º y el D generaba 180º- de un sexto de segundo), será explicada con una analogía física en el siguiente párrafo.

Supongamos tres personas alineadas, separadas entre sí –cada dos consecutivas- por una cierta distancia igual, que saltan a la misma frecuencia de repetición en un lago grande de suficiente profundidad. Si el salto entre las tres personas es siempre síncrono, esto es, tocan el agua en el mismo instante los tres, cada una de las tres personas generará la misma onda esférica plana, y el resultado total de la triple acción humana en cada punto del lago resultará ser la suma de cada contribución particular. Ahora bien, para cada dirección particular considerada desde el saltador central, los tres frentes de onda llegarán con distintas fases, con lo cual la interferencia que crearán según cada dirección tendrá diferente amplitud, pues el resultado de sumar vectorialmente en el plano complejo los tres fasores puede dar un fasor resultante de mayor módulo que cada uno de los tres por separado, o podría ser también de menor módulo que el máximo módulo de dichos tres fasores, el primer caso sería una interferencia constructiva y el segundo caso sería una interferencia destructiva; y en general dichos tres fasores pueden aparecer según combinaciones de diferentes estados de vibración parejos a distintos ángulos de fase aunque sus amplitudes sean aproximadamente iguales-. De este modo, como en la dirección perpendicular a la de alineamiento entre las tres personas, las tres ondas llegan al frente de onda con la misma fase, esto es, en el mismo estado de vibración, debido a que en esa dirección los retardos de cada una hasta llegar al frente de fase son idénticos en una posición lo suficientemente alejada de los saltadores, se deduce que según esa dirección, y en campo lejano, las tres ondas se suman sin más, dando lugar a la interferencia más constructiva que puede existir, según la cual las tres amplitudes de vibración se suman tal cual para dar la amplitud resultante.

Supongamos ahora que entre los instantes de salto de las dos personas extremas, utilizando la central como referencia, aplicamos los dos regímenes de desfase comentados. Como hablar del desfasaje entre dos señales es equivalente a hablar del retardo que media entre ellas, lo que sucederá es que los tres saltadores sólo saltarán síncronamente en el sexto de segundo en el que el régimen P aporta 180º y el régimen D también 180º, y en el que permanecen las tres ondas transmitidas con la misma fase. Considerando sólo el régimen D, en el intervalo temporal del primer medio minuto el primer saltador será el primero en saltar, seguido del segundo saltador por un tiempo cada vez mayor, y siendo esa diferencia temporal la suplementaria de la que hay entre el segundo y el tercero saltadores. Cuando se llega a la mitad del tiempo de operación, existe igualdad de retardos hasta los dos saltadores. Después de este instante, el desfase con respecto al tercer saltador seguirá disminuyendo y con respecto al primero aumentando. Pero si consideramos aditivamente a esta disposición el régimen brusco P, obtendremos unos desfases que se superponen al lineal, y que se disponen al transcurrir el tiempo de forma casi simétrica antes del punto medio con relación a después del punto medio, por lo que a partir de ese medio minuto se tendrá una onda casi simétrica a la del medio minuto inicial (salvo por que ahora serán los símbolos que tenían mayor amplitud los que tendrán menos y viceversa), todo esto observado desde la recta perpendicular a la alineación de saltadores. ¿A qué da lugar esta disposición de retardos temporales?. En cada configuración particular instantánea de retardos, en un momento dado del doble régimen, las tres ondas planas esféricas de los tres saltadores se sumarán tal cual (en fase) en una determinada dirección, en general diferente de la dirección perpendicular. Además, como es lógico, habrá solución de continuidad espacial y temporal en la dirección así establecida, como es de esperar dado que la disposición instantánea de retardos también varía suave y continuamente en el tiempo. Por lo tanto, la dirección de interferencia totalmente constructiva o de máximo valor de la onda total irá girando. En realidad todo lo que aquí he dicho debe ser ampliado, ya que habrá más direcciones de máxima interferencia que una, dado que todas aquellas direcciones en que las tres ondas llegan con desfases de múltiplos de 360º, equivalentemente retardos múltiplos del periodo de repetición de saltos, también darán lugar a interferencias totalmente constructivas en campo lejano (se habla de campo lejano en radiación de ondas refiriéndonos a lugares lo suficientemente alejados de la estación transmisora como para que ahí las ondas esféricas puedan ser consideradas como planas). Por lo tanto, lo que se tiene en realidad es un conjunto de líneas de máxima amplitud que van girando alrededor, con variación continua angularmente entre ellas, dando lugar a algo parecido a un faro.

 

 

Si ahora aplicamos esta analogía al sistema radiante formado por las tres antenas, con su régimen de desfasaje implícito, habremos conseguido en realidad un radiofaro, con un cierto número de lóbulos girando a la misma velocidad en torno a la estación transmisora. En el anterior esquema se representa el régimen de desfasaje brusco y periódico P.

A continuación se detallan los datos técnicos relativos a la transmisión que se efectuaba desde la estación Consol de Arneiro en los años 1957 y 1966, extraidos de la publicación del Instituto Hidrográfico de la Marina “Radiofaros Consol –publicación especial número 2-“.

 

ESTACION CONSOL DE ARNEIRO (LUGO) – (Datos técnicos de 1957)

Situación : Latitud 43º 14’ 53’’,29 N. Longitud 7º 28’ 55’’,89 W.

Frecuencia : 285 KHz. (1052,6 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo LG (.-.. –.) y raya larga durante 60 segs.

b) Emisión de orientación = Puntos de 1/6 de seg. y rayas de 5/6 de seg. durante 60 segs.

Período total : 120 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 019º al 157º y del 199º al 337º.

 

ESTACION CONSOL DE ARNEIRO (LUGO) – (Datos técnicos de 1966)

Situación : Latitud 43º 14’ 53’’,29 N. Longitud 7º 28’ 55’’,89 W.

Frecuencia : 285 KHz. (1052,6 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo LG (.-.. –.) durante 5,0 segs.; silencio 2,5 segs.

b) Emisión de orientación = Puntos y rayas durante 30 segundos.

c) Omnidireccional también = Silencio 2,5 segs.; raya larga 17,5 segs.; silencio 2,5 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 019º al 157º y del 199º al 337º.

 

Para ya finalizar esta entrada, se representa una “fotografía” de un corte horizontal del diagrama de radiación en un instante determinado de la rotación lenta del mismo.

 

 

10.- DATOS TÉCNICOS DE TRANSMISIÓN DE LAS ESTACIONES EUROPEAS .-

 

En esta entrada presentaré los datos técnicos concretos relativos a la transmisión que se efectuaba desde la estaciones Consol europeas en los años 1957 y 1966, a excepción de los de la estación de Arneiro que ya he publicado. Estos datos han sido extraidos de la publicación del Instituto Hidrográfico de la Marina “Radiofaros Consol –publicación especial número 2-“, en sus ediciones respectivas de 1957 y de 1966.

 

ESTACION CONSOL DE GUILLENA (SEVILLA) – (Datos técnicos de 1957)

Situación : Latitud 37º 31’ 17’’,44 N. Longitud 6º 01’ 48’’,06 W.

Frecuencia : 315 KHz. (952,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :a) Emisión omnidireccional = Indicativo SL y raya larga durante 60 segs.

b) Emisión de orientación = Puntos de 1/6 de seg. y rayas de 5/6 de seg. durante 60 segs.

Período total : 120 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 014º al 152º y del 194º al 332º.

 

ESTACION CONSOL DE STAVANGER (NORUEGA) – (Datos técnicos de 1957)

Situación : Latitud 58º 37’ 30’’ N. Longitud 5º 37’ 45’’ W.

Frecuencia : 319 KHz. (940,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Señal continua e indicativo LEC durante 30 segs.

b) Emisión de orientación = Puntos de 1/6 de seg. y rayas de 5/6 de seg. durante 60 segs.

Período total : 60 segundos.

Horario de emisiones : Servicio permanente.

Sectores utilizables : Del 350º al 140º y del 170º al 320º.

 

ESTACION CONSOL DE BUSH MILLS (IRLANDA DEL NORTE) – (Datos técnicos de 1957)

Situación : Latitud 55º 12’ 20’’ N. Longitud 6º 28’ 02’’ W.

Frecuencia : 266 KHz. (1127,8 metros).

Tipo de onda : A 1.

Potencia : 2 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo MWN y raya larga durante 10 ó 30 segs.

b) Emisión de orientación = Puntos de 1/8 de seg. y rayas de 3/8 de seg. durante 30 segs.

Período total : 40 ó 60 segundos.

Horario de emisiones : Servicio permanente.

Sectores utilizables : Del 065º al 195º y del 245º al 015º.

 

ESTACION CONSOL DE PLONEIS (FRANCIA) – (Datos técnicos de 1957)

Situación : Latitud 48º 01’ 06’’ N. Longitud 4º 12’ 55’’ W.

Frecuencia : 257 KHz. (1167,3 metros).

Tipo de onda : A 1.

Características de emisión :

a) Emisión omnidireccional = Indicativo FRQ durante 20 segs.

b) Emisión de orientación = Puntos de 1/12 de seg. y rayas de 5/12 de seg. durante 30 segs. Silencio = 10 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo, excepto de 7:30 a.m. a 7:45 a.m., que funciona para su regulación.

Sectores utilizables : Del 033º al 179º y del 213º al 359º.

Nota : Cuando funcionaba en esta fecha en período de prueba emitía la palabra TEST en lugar de su indicativo FRQ y no podían utilizarse sus emisiones en dicho perído.

 

ESTACION CONSOL DE GUILLENA (SEVILLA) – (Datos técnicos de 1966)

Situación : Latitud 37º 31’ 17’’,44 N. Longitud 6º 01’ 48’’,06 W.

Frecuencia : 315 KHz. (952,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo SL (… .-..) durante 3,5 segs.; silencio durante 2,5 segs.

b) Emisión de orientación = Puntos y rayas durante 30 segs.

c) Omnidireccional también = Silencio 2,5 segs.; raya larga 19 segs; silencio 2,5 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 014º al 152º y del 194º al 332º.

 

ESTACION CONSOL DE STAVANGER (NORUEGA) – (Datos técnicos de 1966)

Situación : Latitud 58º 37’ 30’’ N. Longitud 5º 37’ 45’’ W.

Frecuencia : 319 KHz. (940,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo LEC (.-.. . -.-.) durante 5,8 segs; raya larga, 19,2 segs.; silencio, 2,5 segs.

b) Emisión de orientación = Puntos y rayas durante 30 seg.; silencio durante 2,5 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 350º al 140º y del 170º al 320º.

 

ESTACION CONSOL DE BUSH MILLS (IRLANDA DEL NORTE) – (Datos técnicos de 1966)

Situación : Latitud 55º 12’ 20’’ N. Longitud 6º 28’ 02’’ W.

Frecuencia : 266 KHz. (1127,8 metros).

Tipo de onda : A 1.

Potencia : 2 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo MWN (– .– .-) y raya larga durante 8 segs.

b) Emisión de orientación = Puntos de 1/8 de seg. y rayas de 3/8 de seg. durante 32 segs.

Período total : 40 segundos.

Horario de emisiones : Continuo, excepto de 16:00 a 16:15 diariamente y de 11:00 a 12:00 los miércoles.

Sectores utilizables : Del 065º al 195º y del 245º al 015º.

 

ESTACION CONSOL DE PLONEIS (FRANCIA) – (Datos técnicos de 1966)

Situación : Latitud 48º 01’ 06’’ N. Longitud 4º 12’ 55’’ W.

Frecuencia : 257 KHz. (1167,3 metros).

Tipo de onda : A 1.

Características de emisión :

a) Emisión omnidireccional = Indicativo FRQ (..-. .-. –.-) dos veces.

b) Emisión de orientación = Puntos de 1/12 de seg. y rayas de 5/12 de seg. durante 30 segs.

Período total : 40 segundos.

Horario de emisiones : Continuo, excepto de 7:30 a.m. a 7:45 a.m., que funciona para su regulación.

Sectores utilizables : Del 033º al 179º y del 213º al 359º.

Nota : Cuando funcionaba en esta fecha en período de prueba emitía la palabra TEST en lugar de su indicativo FRQ y no podían utilizarse sus emisiones en dicho perído.

 

Como se puede observar, a tenor de los datos que aquí se hallan, cada una de las estaciones Consol de Europa varió al transcurrir el tiempo sus características intrínsecas de transmisión, lo cual es lógico, ya que este hecho se corresponde con los reajustes que se hacen en cualquier sistema técnico a lo largo de su vida útil, y las estaciones Consol no fueron una excepción a esto.

Para ya culminar con esta entrada, inserto a continuación un mapa extraido de un libro extranjero de mediados de siglo, en el que se recoge una representación de las coberturas de cada una de las estaciones Consol europeas, exceptúando la de la estación de Ploneis (Francia), y por supuesto sin tener en cuenta las estaciones que funcionarían años más tarde con esta misma tecnología. Se puede observar en este mapa que quedaban muy pocas zonas en el Atlántico Norte a las que no llegara la señal de al menos dos estaciones. Era imprescindible el recibir en alta mar la señal de dos estaciones, ya que con la señal de una no bastaba. Así como con los sistemas Decca y Loran, que ya he tratado en su día, era suficiente recibir distintas ondas parejas a distintas antenas dentro de la misma estación, sin embargo el sistema Consol sólo proveía de una línea de demora por medida/estación, y para llevar a cabo el emplazamiento de la ubicación se necesitaban al menos dos líneas de demora, que se intersecaban en el mapa en el lugar de la posición del navío, submarino o avión. Por otra parte, también se puede observar en el dibujo, así como en los datos expuestos, que existían sectores no utilizables para cada estación, a pesar de que su señal sí llegaba físicamente a esas zonas. En estos sectores, que se correspondían con ángulos pequeños en relación a la dirección de alineamiento de las tres antenas de la estación, no se debía usar la información extraida de la recepción de la señal, dado que una diferencia o imprecisión pequeña en la medida de la cantidad de puntos (o rayas) hasta el momento de equiseñal y después del mismo, que no era infrecuente por determinarse ambos números mediante la audición de la onda demodulada, significa un mayor error en relación a la posición real en esta zona si comparamos ese error con el que se produciría con igual audición en las posiciones del receptor no próximas a la dirección de alineamiento de las antenas.

 

 

11.1.- EL SISTEMA RADIANTE. NOCIONES BÁSICAS .-

 

Dedicaré un pequeño conjunto de subsecciones dentro del tema de los radiofaros Consol para introducir algunos conceptos básicos dentro del electromagnetismo, que después usaré cuando hable de las antenas del mencionado sistema de posicionamiento. Ésta no es sino la introducción dentro de este grupo de subsecciones.

Existen muchos tipos diferentes de antenas, pero básicamente se pueden reducir a dos tipos, en concreto, antenas lineales, y antenas de apertura. Y digo sólo estos dos tipos, porque en general existen muchas antenas, como por ejemplo los mástiles radiantes de la estación Consol, que pueden ser puestos en equivalencia con antenas lineales, dado que están constituidas por tramos de acero, y la dimensión física de su grosor es mucho menor que la longitud de onda, y no ocasiona una pérdida de generalidad el considerar como antenas lineales otros tipos de radiadores de mayor longitud, siempre que estén confeccionados con elementos lineales, o inclusive agrupamientos o arrays formados por conjuntos de antenas en interacción, del que es un ejemplo la tan conocida y clásica antena Uda-Yagi, usada en recepción de televisión. De este modo, no sólo son antenas lineales los clásicos dipolos, monopolos, y monopolos sobre masa –caso éste último al que pertenecen los mástiles radiantes Consol-, sino que también son antenas lineales las espiras usadas en los radiogoniómetros, las antenas rómbicas y espirales –adaptadas éstas últimas especialmente a las polarizaciones elípticas-, las espirales cónicas, los dipolos doblados, los solenoides cargados con ferrita, usados desde los comienzos de la transmisión en onda media en receptores de radiodifusión, e incluso se pueden catalogar como antenas lineales algunas de las empleadas en banda ancha, que utilizan por ejemplo una distribución logarítmica en la distancia entre elementos, antenas multibanda con distintas longitudes de los elementos y también con distancias específicas entre ellos, antenas logoperiódicas trapezoidales, usadas como alimentadores (feeders) de antenas parabólicas grandes, y un largo etcétera, en el que podemos incluir como caso llamativo las antenas con geometría fractal, como el monopolo de Sierpinski –también pensado para banda ancha-. De este modo una antena lineal es un radiador que se puede aproximar por un conjunto de líneas construidas de un material buen conductor de la corriente eléctrica, en un punto de las cuales se suministra la corriente impresa o de excitación, y que presentan una determinada geometría que condiciona ya de por sí todas sus características de transmisión-recepción.

Por otra parte, se denominan antenas de apertura a aquellos radiadores en los cuales el campo electromagnético radiado se puede calcular como una integral extendida a una cierta superficie y obtenida en base a la distribución de campo eléctrico de excitación en dicha superficie. Casos de éstas antenas son las conocidas parabólicas, tanto si las alimentamos desde el foco de la parábola; como también en la variedad Cassegrain, en la que se usa un subreflector montado en el foco de la parábola, estando el feeder en el centro de la misma y orientado al subreflector. Otros casos de antenas de apertura son las antenas de lente, o las llamadas bocinas, que no son más que precisamente aberturas con forma de embudo que dan solución de continuidad al campo eléctrico que viaja por la guía de onda y que sale por ellas al aire. Y también se usan antenas de tipo micro-strip para frecuencias de microondas.

Es decir, existe una gran variedad de antenas, cada caso particular se emplea para ciertas utilidades concretas. En otras subsecciones explicaré lo que es el diagrama de radiación, la ganancia y directividad de una antena, el ancho de banda de la misma, el ancho de haz, la resistencia de radiación, la impedancia de entrada, y la polarización. Ante un determinado caso de diseño, se trata de determinar la geometría y dimensiones de la antena para que sus parámetros característicos se aproximen a los que se necesitan para la correspondiente situación particular de transmisión-recepción.

En cálculo de antenas, a partir de las ecuaciones de Maxwell, se puede definir una magnitud de la que deriva el campo magnético radiado, que es el potencial vector. Aplicando ciertas buenas aproximaciones se obtiene, por un lado, que el fasor de campo magnético se puede poner como el rotacional del potencial vector, mientras que el fasor del campo eléctrico, en una radiación monocromática (si se excita una única frecuencia o tono de portadora) se obtiene como la pulsación multiplicada por el potencial vector y con un factor que incluye la unidad imaginaria cambiada de signo. Esto es, si somos capaces de obtener una expresión para el potencial vector A en una cierta posición alejada de la antena, seremos capaces de conocer los fasores de campo magnético y eléctrico de la onda en ese lugar.

¿Qué es un fasor?. Un fasor es un vector complejo de una o más dimensiones, tal que multiplicándolo por una exponencial compleja de pulsación w y obteniendo la parte real de dicho producto, se consigue la función temporal o señal de una cierta magnitud eléctrica, que podría ser por ejemplo una señal de corriente, un voltaje o señal de tensión, o también la expresión instantánea del campo eléctrico o del campo magnético. Es decir, podemos pensar en un fasor para cada señal que estudiemos, el campo eléctrico instantáneo llevará un fasor asociado, el campo magnético tendrá asociado otro fasor, la corriente por ejemplo de un circuito también se puede escribir en forma fasorial, etcétera… Pero los fasores tienen la limitación de que sólo se pueden emplear para pulsaciones monocromáticas, esto es, sólo podríamos usar los fasores cuando trabajamos con una única frecuencia, que sería la portadora. El caso general de una transmisión pasobanda, más aproximada a la realidad, y que es el caso más genérico posible, precisa del empleo de otro concepto matemático más sofisticado como es la envolvente compleja, que no es otra cosa que una función compleja temporal formada por un módulo dependiente del tiempo multiplicando a un factor de fase también dependiente del tiempo. Si multiplicamos esta envolvente compleja por una exponencial compleja de pulsación w (correspondiente a la frecuencia de portadora de w/(2*pi) ), y tomamos la parte real, estaremos en realidad obteniendo la variación temporal instantánea de una determinada magnitud bajo estudio, que al igual que en el caso del uso de fasores puede ser un campo, una corriente, o una tensión, pero que en este caso particular presenta la propiedad de no ser una frecuencia pura, sino el conjunto de muchas frecuencias puras actuando a la vez, y ocupando un cierto ancho de banda. Multiplicar un fasor o una envolvente compleja por una exponencial compleja de una cierta pulsación equivale a girarlo en el plano complejo con una velocidad de giro o rotación igual a la pulsación, medida en radianes por segundo.

En general, y como remate de este primer acercamiento a las antenas y al electromagnetismo, el potencial vector que necesitamos para conocer cómo funciona una antena se halla según una expresión como la que sigue:

 

 

En esta expresión el vector A es el potencial vector, el valor nu es la permeabilidad magnética, el vector J es la distribución sobre la superficie de la antena del fasor de la densidad de corriente, k es la constante de propagación, y R es la distancia entre el punto concreto de la antena cuyo aporte estamos considerando y el lugar donde se quiere calcular el potencial vector. El valor dv’ es el elemento diferencial de volumen por el que fluye la densidad de corriente y V’ es todo el volumen por el que circula la corriente en la antena. Así pues, esta ecuación lo que viene a expresar, es que el potencial vector es una combinación lineal formada con coeficientes complejos que multiplican a los vectores densidad de corriente de cada posición de la antena, que equivale a la suma de los elementos de potencial vector, y que se hallan por un escalado complejo del producto de la densidad de corriente impresa y el inverso de la distancia. La exponencial compleja que forma parte de los coeficientes de escalado es un término de fase que expresa la tardanza en producirse los efectos (campos electromagnéticos) en el punto de cálculo, posteriormente en el tiempo a las causas, que fueron las corrientes impresas de la antena, y que tardaron un cierto tiempo en propagarse.

En la siguiente subsección de este hilo trataré el caso particular de la radiación del dipolo elemental y de otros tipos de dipolos más largos.

 

11.2.- EL SISTEMA RADIANTE. EL DIPOLO ELEMENTAL Y OTROS DIPOLOS MÁS LARGOS.-

 

 

Un dipolo elemental es un elemento de corriente cuya longitud es mucho menor que la longitud de onda, y por el que fluye una corriente uniforme. Aunque podría parecer un caso anómalo, en realidad muchas antenas operando en baja frecuencia tienen un comportamiento similar al mismo, por poseer sus mismas cualidades. Si se supone un hilo de densidad de corriente J = I.delta(x).delta(y) z, siendo la función delta la delta de Dirac, que es una idealización que establece que la densidad de corriente es nula salvo en el origen de coordenadas, y aplicando la ecuación del potencial vector mostrada en la anterior sección, utilizando además las aproximaciones pertinentes, se obtiene, como es lógico, un potencial vector de una única componente según el vector unitario z; pero resulta más práctico representar el resultado en coordenadas esféricas y no cartesianas, y así se obtiene una componente para el potencial vector según el vector unitario theta proporcional al seno de theta y una componente según el vector unitario phi nula. No existe componente según el vector unitario rho, porque en campo lejano esta componente según el mencionado versor unitario del sistema de coordenadas esféricas es aproximadamente nula.

 

 

De esta forma el fasor de campo eléctrico radiado, que es –j veces el producto de la pulsación por el potencial vector, también varía con el seno de theta y presenta un factor de fase que equivale a la tardanza en producirse los efectos lejos de la antena (campos) posteriormente a las causas que los originaron (corriente). Por su parte, la intensidad de campo magnético, que se escribe como el inverso de la permeabilidad multiplicado por el rotacional del potencial vector varía como el seno de theta también, pero su única componente tiene como vector unitario al versor phi.

 

 

Para calcular el diagrama de radiación de potencia, que es una representación de cómo radia una antena según cada dirección genérica dada por un ángulo theta y un ángulo phi determinados, se obtiene la parte real del producto vectorial del fasor de campo eléctrico y el conjugado del fasor de intensidad del campo magnético, que es el conocido como vector de Poynting y que da cuenta de la potencia que atraviesa la unidad de superficie en el punto genérico bajo análisis, y que como es lógico variará como el cuadrado del seno de theta con otros factores que incluyen el inverso del cuadrado de la distancia y un factor directo constituido por el cuadrado de la longitud del dipolo elemental y el cuadrado del valor eficaz de la corriente. Como desde cualquier punto a una distancia R del dipolo vemos el dipolo de la misma manera, el campo eléctrico y el diagrama de radiación presentan simetría de revolución, y además una forma similar a un toro.

 

 

Si ahora calculamos toda la potencia radiada integrando el flujo del vector de Poynting a través de cualquier superficie que encierre el dipolo y dividimos esa potencia radiada por el cuadrado de la corriente a la entrada de la antena se obtiene la resistencia de radiación de la misma, que se puede definir como aquella resistencia que colocada en vez de la antena consumiría por efecto Joule toda la potencia que radia aquélla. Cuanto mayor sea la longitud del dipolo elemental frente a la longitud de onda, mayor será la resistencia de radiación para este caso, y por tanto, más potencia se radiará, y mayor valor poseerá el fasor de campo eléctrico, y por tanto mayor amplitud el campo eléctrico instantáneo.

Todo lo hasta aquí comentado se refiere a campo lejano, es decir, lejos de la posición que ocupa el dipolo elemental. En las inmediaciones del dipolo, los campos que se obtienen se corresponden con los que produciría un dipolo eléctrico con una cierta carga en cada extremo de signos opuestos, y no varían con la frecuencia, esto es, son estáticos. Debido al carácter oscilante de las fuentes, al pasar un medio período de la corriente de excitación, se invierte el sentido de la corriente y los signos de las cargas. Como consecuencia de esto, un dipolo elemental eléctrico se comporta capacitivamente y con una pequeña resistencia de radiación. A una frecuencia de 285 kiloHerzios, un hilo de aproximadamente 200 metros es casi un dipolo elemental, siempre y cuando coloquemos en sus extremos unas superficies conductoras donde pueda almacenarse carga eléctrica. La impedancia de entrada, que es el cociente entre el fasor de tensión y el fasor de corriente a una cierta frecuencia tiene en este caso una componente de tipo capacitivo. Esto es, un dipolo elemental puede verse como un condensador abierto.

De momento me he limitado a presentar una estructura pequeña en relación a la longitud de onda, donde podemos suponer que la distribución de corriente es uniforme. Si las dimensiones de la antena no verifican tal cualidad, habrá interacciones entre todos sus elementos con retardos asociados, de tal forma que ya no se podrá aproximar la corriente por un valor uniforme. Entramos así en el terreno de las antenas dipolo.

El caso más simple de antena dipolo es la antena cilíndrica, consistente en un hilo conductor recto de longitud 2H y radio a muy inferior a la longitud de onda, al que se le alimenta con un generador en el centro. De forma experimental, se ha obtenido que la distribución de corriente para estas clases de antenas es aproximadamente sinusoidal, con valor cero en los extremos, dando así continuidad a lo no conductividad del aire. Para justificar esta distribución de corriente se puede pensar en la antena cilíndrica como una línea de transmisión de líneas paralelas que termina en circuito abierto y que vamos abriendo hasta quedar las dos líneas en posición vertical. Puesto que la línea termina en circuito abierto, aparece una onda estacionaria de corriente, con un nulo en el extremo. Dentro de las antenas dipolo tal vez el caso más común es el del dipolo en lambda/2 o dipolo de media onda, para el valor de H = lambda/4. Para este caso el diagrama de radiación es similar al del dipolo elemental, de forma toroidal, con simetría de revolución, y un haz algo más estrecho.

El siguiente esquema representa los parámetros característicos de algunos dipolos de diferentes semilongitudes H, incluyéndose entre estos parámetros a la longitud, el ancho de haz a 3 dB, que representa aquel ángulo que subtiende el diagrama de radiación de potencia con unos valores subtendidos superiores o iguales a la mitad de la densidad de potencia radiada máxima de radiación, así como la resistencia de radiación, y la directividad, la cual es un parámetro que nos da idea del cociente entre el máximo de la densidad de potencia radiada y la densidad de potencia radiada por una antena isotrópica que radiase la misma potencia que la antena bajo análisis. Esto es, la directividad nos viene a informar de lo que concentra la radiación según la dirección de máximo una antena, comparándola con otra que radiando la misma potencia lo hiciese por igual en todas direcciones. Si extendemos este concepto para todas las direcciones tenemos una función de los ángulos theta y phi, conocida como ganancia, que da cuenta de la relación entre la densidad de potencia por metro cuadrado en una dirección frente a la densidad isotrópica de una antena que radiase la misma potencia.

 

 

11.3.- EL SISTEMA RADIANTE. EL MONOPOLO SOBRE MASA Y COMO SE IMPLEMENTÓ EN LA ESTACIÓN ELEKTRA-SONNE.-

 

 

En los anteriores subapartados de esta misma sección, dentro del análisis del sistema de posicionamiento Consol, se han considerado las antenas dipolo de manera aislada. En la práctica, si existen obstáculos cerca de una antena, éstos consiguen modificar el diagrama de radiación de la propia antena en relación a la situación de ubicación en el vacío. La propia presencia de la tierra en el lugar físico donde se halla la antena condiciona sus características de radiación-recepción. La energía que radia la antena es reflejada en mayor o menor medida en la superficie terrestre, según sea fundamentalmente el grado de conductividad o facilidad de conducción de la corriente eléctrica que posea la tierra. Así, pasamos a tener no sólo la onda radiada directamente por la antena, sino además una onda reflejada por la superficie.

En electromagnetismo se utiliza la teoría de imágenes para obtener una antena a todos los efectos equivalente a la situación de proximidad de la antena real a la tierra. Para ello, se busca la geometría de una distribución de corrientes ideal que estuviese por debajo del plano de la tierra, y que fuese tal que, suponiendo que éste fuese un plano conductor perfecto, se obtuvieran las condiciones de contorno reales que existen sobre el mismo, en términos de valores de los campos eléctrico y magnético. Garantizando esto se estaría en una situación de equivalencia a todos los efectos en la propagación y magnitudes de la onda de espacio (formada por la onda directa y la onda reflejada), en la región en la que ésta puede ser recibida por un receptor, que es el espacio por encima de la superficie terrestre. Es decir, se puede sustituir un plano conductor perfecto por unas corrientes equivalentes. Este hecho se aprovecha en las antenas monopolo sobre masa, del cual las antenas del sistema Elektra-Sonne eran un caso particular. Este tipo de antenas se usan fundamentalmente a bajas frecuencias, dado que sería muy difícil construir un dipolo operando a la frecuencia de portadora, dado el gran tamaño necesario. Las antenas monopolo sobre masa son antenas lineales situadas en posición vertical sobre la tierra, conectadas a uno de los terminales de la línea de transmisión que trae la onda de corriente desde el transmisor, estando el otro terminal de la línea conectado a tierra.

El equivalente del monopolo y su imagen es una antena dipolo, de tal manera que en el espacio sobre la tierra los campos reales serán los de un dipolo de longitud igual a la doble del monopolo. De esta manera, tanto la distribución de corriente como el diagrama de radiación serán los mismos que los del dipolo. Como sólo se radia en la mitad del espacio, el monopolo radiará la mitad de la potencia radiada por el dipolo equivalente y por tanto la resistencia de radiación será también la mitad de la resistencia de radiación del dipolo equivalente, siendo además la directividad doble de la dicho dipolo.

Todo lo anterior sería válido si considerásemos una tierra perfecta, es decir, de conductividad infinita. En la práctica la conductividad es finita, y ello acarrea la presencia de pérdidas de energía, que causan una menor eficiencia de la antena y una elevación del lóbulo –en el plano vertical- en su diagrama de radiación. En los mástiles de radiodifusión de Onda Media, con el objeto de contrarrestar las pérdidas por la conductividad finita de la tierra, se aumenta ésta enterrando platinas metálicas conductoras (tiras conductoras) conectadas entre sí, en la base de la antena y sus proximidades, y también humedeciendo el terreno para que aumente su conductividad. Estas medidas fueron puestas en práctica durante la operatividad del sistema Elektra-Sonne.

 

 

Por otra parte, es un hecho que -para bajas frecuencias- es difícil el poder construir antenas grandes. Además de la dificultad de la construcción de un mástil radiante de gran tamaño, surge el problema de que al disminuir la frecuencia la resistencia de radiación disminuye de manera rápida, y la reactancia de entrada aumenta también con rapidez, presentando valores capacitivos. Esto ya fue descrito en la sección 11.2, cuando se habló del dipolo elemental. Esta reactancia capacitiva vista hacia la derecha de la salida de línea de transmisión sería nociva a efectos operativos, pues representaría la presencia de potencia reactiva en la antena y en la línea, que es potencia que no sólo puede provocar sobrecargas por ser la antena y la línea, en estas circunstancias, una interfase de transferencia y de almacenamiento de energía, sino que además disminuye la magnitud de la energía transferida. Es una situación no deseable, pues en vez de consumirse toda la energía que se entrega a la antena, parte de ella se almacena y no se consigue la optimización de la energía radiada, que lógicamente habrá de ser máxima. Para corregir esta situación, ha de emplearse una bobina, con el objeto de “corregir el factor de potencia”. Esta bobina cancelará el efecto capacitivo de la impedancia de entrada de la antena, y permitirá que toda la energía que se entrega al monopolo –salvo la que se pierde por efecto Joule a causa de su componente resistiva- sea radiada, consiguiéndose que el conjunto de la antena y la bobina logren un comportamiento resonante o de máxima transferencia de energía. Se dice entonces que la antena está en resonancia o que está sintonizada. A escasos metros de los mástiles radiantes de la estación Consol existían unas cabinas donde se hallaban las bobinas variométricas, que habían de ser ajustadas para lograr poner en resonancia las antenas, eliminándose así la potencia reactiva.

Además de esto, como ya se mencionó en anteriores apartados y se puede observar en las fotografías anteriores en este análisis del sistema Elektra-Sonne, los mástiles radiantes Consol estaban terminados en unas caperuzas capacitivas. El hecho de la utilización de estas terminaciones acumuladoras de carga se puede razonar teniendo en cuenta que su presencia fuerza a que la distribución de corriente en la antena no se anule en el extremo y pueda ser vista desde la entrada como la distribución de una antena más larga. Si a partir de la finalización de la línea de transmisión no se hubiese abierto ésta como antena, tendríamos una línea de transmisión terminada en un condensador, el cual puede ser sustituido a todos los efectos por otro tramo de línea de transmisión con la longitud necesaria para presentar la misma impedancia de entrada que el condensador. Se razona entonces que el condensador –o en este caso su equivalente obtenido mediante la caperuza y la tierra, que son sus dos placas- tiene como efecto el de alargar la antena, obteniéndose en el tramo de antena que va desde la base hasta el capuchón capacitivo la distribución de corriente de la antena alargada, pero sólo en ese tramo, que es el que realmente existe, y que será por lo tanto prácticamente uniforme arrojando en el cálculo unos valores de campos electromagnéticos radiados mayores por calcularse los mismos en función del potencial vector, según se vio en la sección 11.1, con la presencia de una densidad de corriente mayor en la antena en relación a la situación del no uso del capuchón capacitivo, al pasarse de una distribución de forma casi triangular a una distribución prácticamente uniforme (constante), dando lugar así a una integral de potencial vector de valor mayor.

Por otra parte, dado que las dos antenas extremas estaban ubicadas lejos del transmisor, era preciso llevar la onda mediante sendas líneas de transmisión desde el mismo a ambas antenas –también era necesaria una línea más corta para hacer lo propio con la antena central-, y para ello era precisa una adaptación de impedancias tanto a la salida del transmisor como a la llegada a las proximidades de las antenas, para conseguir máxima transferencia de energía con reflexiones de onda nulas en los cambios de medio (interfases transmisor-línea y línea-antena). Esto se lograba mediante los oportunos transformadores.

 

 

Como se puede observar en las imágenes, que han sido extraidas del libro “Radio Navigation Radar and Position Fixing Systems for use in Marine Navigation”, volumen II, publicado por el Ministerio de Transporte Británico en mayo de 1946, redactado en el “International Meeting on Radio Aids to Marine Navigation”, y en el que se realiza un estudio –entre otras cosas- del sistema Consol con vistas a la instalación en Bush Mills (Irlanda) de la que sería la estación Consol británica, operativa después de la Segunda Guerra Mundial; las líneas de transmisión tenían una impedancia característica de 600 Ohmmios, entre la estación transmisora y las antenas extremas había una distancia de aproximadamente 3 longitudes de onda, en las proximidades de los mástiles radiantes existían unas “Aerial Tunning Unit”, que son los lugares donde se realizaba la sintonía de cada antena, mediante las bobinas variométricas; existían además unas “Balance/Unbalanced Matching Unit”, donde se adaptaban las impedancias, operando además como balun, para conseguir distribución equilibrada o balanceada entre la corriente de ambas ramas del dipolo equivalente; y además, existía un “Monitor Hut”, o punto de monitorización, ubicado en la perpendicular de la línea de antenas a una distancia lo suficientemente grande como para estar situado en la zona de campo lejano –que en la práctica eran unos kilómetros-, cuya misión era la de garantizar que los desfases producidos sobre la onda por haber viajado largo trecho a través de las líneas de transmisión desde el transmisor central, así como los eventuales desfases espurios que se produjesen en la máquina Elektra por su posible y eventual situación de incorrecto ajuste, ambos considerados cooperativamente, no alterasen la operación ideal de funcionamiento del período de transmisión de señal Consol o señal de orientación, según el cual entre las señales aplicadas a las antenas extremas debe mediar un desfase exacto resultado de la alternancia de 0 grados y de 180 grados, más un desfase creciente y lineal en forma de diente de sierra. Esto es, mediante el punto de monitorización, donde se hallaba un receptor de radio, y que estaba comunicado por línea con la estación de control, se lograba saber cuándo pasaba el máximo (o el mínimo, según conveniencia) del lóbulo de radiación perpendicular sobre la línea recta que unía dicho punto de monitorización y la antena central, y que era perpendicular a la línea de antenas, y así se podía avisar a la estación de control, para que allí ajustasen en consecuencia la máquina Elektra (la cual era la responsable de conseguir los dos regímenes de desfase superpuestos P y D de los que se ha hablado en la sección 9, entre las corrientes aplicadas a las dos antenas extremas) para lograr un correcto funcionamiento y la corrección de los factores de fase producidos por el viaje de la onda hasta las antenas y por un ajuste inadecuado de la propia máquina Elektra, consiguiéndose el deseado movimiento de los lóbulos de barrido a ambos lados, que establecen el movimiento de los radiales de equiseñal, y en perfecta sincronía con el comienzo del ciclo de señal de orientación, de tal forma que en alta mar se produjese la observancia del paso del rayo de equiseñal justo en el momento que le corresponde según lo descrito en las cartas de navegación que incluyen los radiales, y según lo prescrito por el diseño, y no antes ni después, cosa que daría lugar a lecturas de posición muy erradas.

En la imagen a continuación se representa el corte horizontal del diagrama de radiación de una estación Consolan, sistema similar a Consol salvo en el número de antenas empleadas (dos para este caso), y en el número de lóbulos del corte horizontal del diagrama de radiación de dicho sistema. El sistema Consolan fue un desarrollo creado posteriormente al sistema Consol, es decir después de la confrontación bélica, y estaba basado en el sistema Elektra-Sonne. La imagen ha sido extraida del libro Funk-systeme für Ortung und Navigation, escrito por Ernst Kramar, y publicado en el año 1973. En cuanto al corte vertical del diagrama de radiación, y para ya concluir con este apartado, faltaría decir únicamente que por ser monopolos sobre tierra las antenas, sería similar al de una antena dipolo.

 

Diagramas1p

 

12.- ASPECTOS TÉCNICOS BÁSICOS DEL APARATO ELEKTRA.-

 

Si el sistema Elektra-Sonne tenía un cerebro, aunque rudimentario en relación a las tecnologías actuales, ese cerebro, de cuyo funcionamiento dependía la distribución de desfasajes de las antenas extremas, no era otro que el aparato Elektra.

El aparato Elektra se encargaba de implementar los dos regímenes de desfase P y D comentados en la sección 9, donde se habló del transmisor y de su funcionamiento a grandes rasgos. En la siguiente figura se puede contemplar un diagrama simplificado de dicho aparato, extraido del libro Funk-systeme für Ortung und Navigation, escrito por el propio Ernst Kramar y publicado en el año 1973.

 

 

En la imagen se aprecia un circulito central que simboliza el transmisor, que en la estación de Arneiro generaba una señal sinusoidal de 285 KiloHerzios. Como se puede ver, esta señal es llevada tal cual a la antena B (de las tres antenas, la que ocupaba la posición central), sin aplicarle ningún desfase en dicha máquina, aunque como es lógico la señal sí llegaría con un cierto retardo a la antena, pues el edificio de los transmisores se hallaba a unos 150-200 metros de la antena central. Este transmisor es lo que aparece en el diagrama reseñado como “Sender”. A continuación, si seguimos el cableado de izquierda a derecha desde el oscilador, podemos contemplar un doble conmutador que era accionado de forma automática y mecánica, y que era el responsable del desfasaje P, con distintas polaridades en alternancia. En la posición en que se halla el conmutador en el esquema dejaba pasar la señal tal cual a los terminales de salida, esto es, ausencia de desfase para las dos antenas, que equivale a la posición de +1 en el diagrama de desfasaje P de la sección 9 dedicada al transmisor –si nos abstraemos del funcionamiento del círculo mayor o red con goniómetro, que se encarga del desfasaje D y que explicaré más tarde-. Pero si nos fijamos bien en el dibujo, podemos advertir que cuando dicho doble conmutador se halla en la otra posición, bajando hacia abajo, cambia la polaridad de la señal que sale de sus terminales, lo cual es equivalente a introducir un desfase de 180 grados entre los dos terminales de salida, que es lo mismo que introducir señales entre vivo y tierra con signo cambiado en ambas antenas. Con esta simple conmutación se consigue el régimen brusco P de alternancia, responsable de los puntos y rayas de la señal de orientación.

Pero ésto no es todo. Los terminales a la salida del doble conmutador entregan la tensión a una red con goniómetro, que en el esquema lleva el nombre de Goniometer Mit Netzwerk, y que se representa en el esquema con un doble círculo, uno para el vivo y otro para la tierra. Por ser este dispositivo a todos los efectos una línea de transmisión, introducirá desfase entre las señales de las antenas extremas dependiente de la posición del cursor que lo va recorriendo. Los cursores, que eran movidos por un motor, van recorriendo los dos círculos (trozos de líneas de transmisión especiales cuyo único objeto es desfasar). A medida que los cursores van avanzando desde su posición más a la derecha van añadiendo en una de las antenas un desfase creciente y a la otra antena el desfase exactamente suplementario, teniendo en cuenta que el tramo de línea que aparece dibujado con trazo sólido se corresponde con un desfase total de 180 grados. En otras palabras, gracias a esta red con goniómetro se consigue que el desfase aplicado a una de las antenas extremas vaya aumentando al mismo tiempo que el de la otra va disminuyendo; y al estar la red circular combinada con el efecto del conmutador, el funcionamiento representa la apariencia de que la fase de una antena extrema va aumentando con respecto a la central con saltos bruscos de 180º (cuando P representa una raya al estar la polaridad invertida), y la de la otra antena extrema, en esta misma situación de conmutador a -1, tiene su fasor con ángulo simétrico al de la anterior respecto al eje imaginario, estando ambos fasores por debajo del eje real, mientras que cuando sale un punto (conmutador a +1, o ausencia de cambio de polaridad), ambas antenas extremas se hallan con desfases suplementarios, por encima de la recta real, teniendo el fasor complejo de la central un valor igual a un número real correspondiente a la corriente de dicho mástil. Es fácil ver que el comportamiento íntegro de esta red desfasadora tiene casi simetría especular temporal de la señal total generada con respecto al punto medio marcado por el goniómetro, que es el punto correspondiente a la emisión de la equiseñal para la dirección perpendicular a la línea de antenas, pues en esa dirección las ondas radiadas no añaden desfase alguno entre ellas (viajan enfasadas), al margen de los desfases que les proporciona la máquina. Y digo «casi» simetría especular, porque en el trayecto que va desde el punto medio al extremo izquierdo de la red, el comportamiento de los puntos es el mismo que el de las rayas en la parte entre el punto medio y el extremo derecho, es decir, se cambian los papeles mutuamente. Esto se podrá ver mejor en la sección que un día dedicaré a las señales recibidas, y se razona fácilmente pensando en el movimiento de los fasores giratorios, de cuyas partes reales (proyecciones sobre la recta real) se obtienen los niveles de señal correspondientes a puntos y rayas en todo el período. Como es lógico, para cada dirección radial relativa a la línea de antenas, la equiseñal se corresponderá a otro punto de la red distinto del central, dado que no sólo hay que tener en cuenta para la señal recibida los desfases que crea la máquina, sino los debidos a la propagación de las tres ondas.

Cuando los dos cursores llegan al punto más a a la izquierda de su recorrido, termina la parte de señal de orientación Consol, y el resto de recorrido, que aparece en línea discontinua, hasta empezar un nuevo ciclo con los cursores a la derecha, los cursores siguen girando, pero con la red en OFF. Se dedicaba este tiempo en cada estación Consol como mínimo para enviar desde únicamente la antena central la señal identificadora propia en código Morse, mezclada con un fragmento de portadora, para la operación de escucha de baliza NDB necesaria para discriminar con el radiogoniómetro en alta mar una aproximación a la línea de demora.

Todo lo descrito en esta sección contempla la suposición ideal de que no hubiera desfases debidos al viaje de las ondas entre la estación de control y las antenas extremas. En realidad dichos desfases sí que existían, y por lo tanto, tal y como mencioné en el anterior apartado, debía hacerse una corrección usando otros dispositivos dentro de la máquina Elektra -aparte de los incluidos en el diagrama simplificado de éste-. Todo esto de acuerdo con las recepciones en el punto de monitorización de la señal compuesta por las tres ondas, para lograr que el radiofaro funcionase correctamente en su intervalo temporal de generación de señal de orientación. Tales dispositivos consistían en cadenas de desfase correctoras.

 

13.- LA EVOLUCIÓN DEL SISTEMA CONSOL CON EL PASO DEL TIEMPO.-

 

Habiendo pasado ya bastante tiempo de mi publicación inicial de la información histórica que obraba en mi poder, tengo algunas revisiones importantes que acometer al respecto de dichos datos, a la luz de nueva documentación al respecto que he ido recabando. Seguiré el mismo orden que empleé originalmente y adjuntaré las evidencias de mis afirmaciones una a una.

En el punto 3 se explicitaba que la estación de Bush Mills (Irlanda), se había construido después de la Segunda Guerra Mundial. Pero quedó (mal) redactado (a pesar de que yo ya sabía cómo debía quedar), y se podría interpretar como si no hubiese más estaciones que la ahora mencionada y las originales usadas en la guerra. Esa interpretación sería totalmente errónea. Aunque en este preciso instante no aportaré la lista de estaciones con sus respectivas frecuencias, cosa que dejaré para otra entrada, sí puedo adelantar que después de la confrontación bélica se fue completando la cobertura del sistema Consol. En particular, en el Atlántico más septentrional se construyeron estaciones en las islas de Jan Majen y Bjornoya, así como en la costa de Noruega, en la localidad de Andoya. Para probar esta afirmación, incluyo a continuación un mapa con el enclavamiento geográfico de estas tres estaciones, extraido del libro Funk-system für Ortung und Navigation, de Ernst Kramar.

 

ConsolNortep

 

14.1.- PUNTUALIZACIONES RESPECTO A LOS DATOS HISTÓRICOS. LA CAPTURA DEL U-505 (I).-

 

La afirmación de que el sistema Elektra-Sonne fue utilizado por ambos bandos es correcta. La Inteligencia británica sabía que las estaciones existían ya durante la guerra. Para ello contamos con el testimonio del Profesor R. V. Jones, que fue Profesor Emérito de Filosofía Natural en la Universidad de Aberdeen y un fellow honorario de los Colegios de Wadham y Balliol, en Oxford. Como Director de Inteligencia en el Staff Aéreo en 1946 y posteriormente Director de Inteligencia Científica en el Ministerio de Defensa, trabajó en un rol de consejero desde la Segunda Guerra Mundial. Sus publicaciones incluyen Most Secret War (1978), Future Conflict and New Technology (1981), Some thoughts on Star Wars (1981), e Instruments and Experiences (1988), así como informes detallados de lo que realmente conocían los británicos en tiempos de guerra de Elektra-Sonne y otros sistemas de guiado para las bombas volantes V-1.

En el libro Hitler’s U-Boat War, the hunted 1942-1946, se hace alusión a dicha persona (R.V. Jones), concretamente en las páginas 554, 555 y 556 (no aparece en las tres, pero cito estos tres números para entrar en contexto al dato). Las filtraciones a los británicos poseían toda la credibilidad, puesto que acaecieron tras la captura del submarino nazi U-505 por parte del bando aliado.

Transcribo aquí la traducción del inglés del texto que yace en las páginas mencionadas:

«El más triste U-boat de la fuerza Atlántica, el IXC U-505, que había abortado al menos una docena de partidas desde diciembre de 1942, una de ellas ocasionada por el suicidio del patrón, Peter Zschech, finalmente navegó de nuevo el 16 de marzo. Estaba todavía comandado por el reemplazo de Zschech, Harald Lange, de 40 años, el más viejo capitán en servicio activo de los U-boat de ataque. Su primer oficial siguió siendo Paul Meyer, de edad 26 años, que había llevado el submarino a casa cuando Zschech se mató.

Después de que dio las nuevas claves Enigma al U-123, Lange en el U-505 patrulló sobre seis semanas entre Freetown y su puerto vecino, Monrovia (Liberia). Los Aliados hicieron un seguimiento de sus movimientos. En todo aquel tiempo permaneció sin sumergirse. Las prolongadas operaciones aguantando el calor y la humedad del trópico debilitaron la tripulación y saquearon las baterías. Bajo de combustible, Lange comenzó el viaje de retorno el día 27 de mayo, eligiendo hacer una parada en las islas Cabo Verde.

Los descifradores de códigos Aliados se prepararon para el seguimiento del viaje de regreso del U-505. El grupo de «asesinos de cazadores» de Dan Gallery (el porta-jeeps Guadalcanal y una escolta de cinco destructores), trataron de localizar el U-505, pero no lo lograron. Bajo de fuel, el 4 de junio Gallery dio órdenes de dirigirse a Casablanca.

Uno de los bien entrenados destructores de la escolta, Chatelain, reportó un posible contacto de sónar a las 11:10 aquella misma mañana. Su nuevo capitán, Dudley S. Knox, un jurista e hijo del prominente historiador naval Dudley Wright Knox, movió abajo el visor, y evaluó el contacto como un ‘submarino’, disparando una salva. Gallery dirigió prontamente dos Wildcats aerotransportables y dos destructores, el Jenks y el Pillsbury, para asistir al Chatelain y sacar el Guadalcanal del alcance de los torpedos, cubiertos por los otros dos destructores, Pope y Flaherty. Entonces, lanzó un ‘equipo asesino’ Wildcat-Avenger (gato salvaje vengador).

Los dos Wildcats aerotransportables, pilotados por John W. Cadle, Jr. y Wolffe W. Roberts, cubrieron al destructor Chatelain. Cuando los pilotos vieron el contorno del submarino a la profundidad del periscopio, Cadle radió: ‘el buque ha justo hecho fuego en la dirección opuesta de la salva’. Entonces Cadle marcó el punto dos veces con ráfagas de ametralladora. Gallery más tarde escribiría que la ‘inteligente’, ‘rápida’ y ‘valiente’ acción de Cadle y Roberts fue decisiva para los eventos que siguieron, y fue ‘uno de los pocos casos en los que una aeronave dirigió el ataque’ contra un U-boat. Más tarde, el patrón Dudle Knox a bordo del Chatelain denegó enfáticamente que fuera éste el caso. Escribió que después de su ataque fallido, volvió a obtener el contacto por sónar del U-505 a 100 yardas y que nunca lo perdió. Las observaciones y objetivo marcados por los Wildcats, según insistió Knox, fueron ‘valiosos’ pero sólo en que le permitieron cortar el procedimiento estándar y comenzar un ataque con cargas de profundidad en un rango de quinientas yardas, en vez de las prescritas cien yardas.

Knox movió abajo el haz del sónar y a las 11:21 comenzó a lanzar un conjunto de catorce cargas de profundidad. Al mismo tiempo Lange había descubierto que el U-505 estaba en gran peligro y había ordenado a su ingeniero, Joseph Hanser, coger el bote de profundidad. Las cargas de profundidad alcanzaron el U-505 y causaron una inundación, pero no dañaron severamente la estructura del bote. Sin embargo, lo pusieron fuera de control hasta aproximadamente los 755 pies, de acuerdo a las cuentas del tripulante Decker, que fue a decir que Lange entonces lloró ‘su última orden organizada’ a Hanser: ‘Súbenos, súbenos antes de que sea demasiado tarde’.

Aproximadamente veinte minutos más tarde que el contacto original por sónar, a las 11:22, el U-505 puso la popa hacia la superficie alrededor de cien yardas del Chatelain. Dudley Knox, que estuvo durante la alerta completa, paró e inmediatamente abrió fuego con sus cañones de calibre 3»/50, disparando cuarenta y ocho veces, algunos disparos alcanzaron el U-505. Cuando apareció aquello, el U-505 estaba virando hacia él -y bastó un vistazo para ver que un torpedo estaba viniendo hacia el Chatelain- Knox respondió disparando un único torpedo al U-505, pero falló, lo mismo que ocurrió para el torpedo alemán. Uniéndose al ataque, el Jenks, comandado por Julius F. Way, disparó treinta y dos veces con el calibre 3»/50 y el Pillsbury, comandado por George W. Casselman, disparó veintiuna veces. Al mismo tiempo, los dos Wildcats entraron en la refriega, reportándolo los pilotos (quizás imprecisamente). Todos estos disparos mataron uno de los cincuenta y nueve alemanes del U-505 e hirieron a otros, incluyendo el patrón Lange y el primer oficial Meyer. ….(continuará en la próxima entrada del hilo)….

 

15.-TABLAS Y GRÁFICAS DE INTERÉS.-

 

En este apartado añadiré imágenes relativas al funcionamiento del sistema Consol, extraidas del libro Funksystem für Ortung und Navigation, cuyo autor es Ernst Kramar.

En la primera imagen se aprecia la apariencia técnica general del sistema, con su distribución de antenas, y el mecanismo desfasador.

 

 

En la imagen que sigue se pueden ver dos cronogramas típicos de lo que podría ser un período de la señal recibida, incluyendo la emisión de baliza NDB y el subperíodo de señal de orientación.

 

 

La figura que sigue es otra representación de la parte de señal del subperíodo de orientación.

 

 

A continuación se muestra un esquema en el que se explica la composición del fasor de la señal recibida, en función de los fasores de las dos señales extremas y del de la señal central.

 

 

Para ya finalizar, en las dos tablas que siguen se tabulan los parámetros relativos a las estaciones Consol activas después de la confrontación bélica.

 

 

16.-TABLAS Y GRÁFICAS DE INTERÉS, II.-

 

Añado en esta entrada otras gráficas de interés relativas al sistema de posicionamiento Consol. La primera de ellas representa la evolución temporal de los fasores en un ciclo completo del período de la parte de señal de orientación, para la señal recibida en la perpendicular a la línea de antenas.

 

unciclo

 

La segunda de la serie representa la señal demodulada relativa al subperiodo de señal de orientación.

 

demodulada

 

Las dos siguientes imágenes representan la señal recibida para distintas ubicaciones en relación a la estación. En la primera imagen se aprecia únicamente la parte de orientación de la señal para dos posiciones angulares diferentes respecto a la estación. La segunda de ellas representa el ciclo completo de la señal recibida para la transmisión efectuada desde la estación de Stavanger.

 

recibidas1

stavanger

 

17.-TABLAS Y GRÁFICAS DE INTERÉS, III.-

 

Inserto en esta entrada imágenes complementarias autoexplicativas relativas a los sistemas de posicionamiento hiperbólicos.

La primera imagen describe la operativa implícita en la circuitería de las cadenas Decca. Se pueden observar las conversiones de frecuencia que se efectúan en las antenas esclavas para evitar interferencias a la misma frecuencia en el receptor de señales emitidas por distintas antenas de la cadena. También se representan las conversiones de frecuencia que son acometidas en el receptor para poder determinar la diferencia de fase mediante el discriminador de fase correspondiente a la señal diferencia Rojo.

 

 

La segunda imagen representa esquemáticamente los radiales que surgían de cada estación Consol. Se puede advertir la notable componente hiperbólica en las proximidades de las antenas, donde era impracticable la operativa de escucha por radiales, lo que condicionaba el emplazamiento de las estaciones.

 

 

La tercera imagen de la serie representa los sectores angulares utilizables para la estación de Stavanger.

 

 

La imagen que sigue representa las curvas de nivel relativas a la precisión diurna obtenida con el sistema en el Atlántico Norte.

 

 

A continuación se muestran las mismas curvas de nivel, sólo que para la recepción nocturna. Debido a las distintas condiciones de propagación en ambos períodos horarios, se obtenían distintas precisiones si se empleaba el sistema por el día o por la noche.

 

 

Para ya finalizar, incluyo aquí la tabla de azimuts verdaderos en forma numérica para la antigua estación Consol de Arneiro (Lugo). Los valores tabulados representan los ángulos de azimut correctos para cada conteo de rayas antes de la equiseñal, el cual varía entre 1 y 60 rayas.

 

 

18.-VIDEOS PUBLICADOS EN INTERNET SOBRE LOS RADIOFAROS CONSOL DE SEVILLA.

 

En esta entrada me limitaré a incluir los excelentes videos sobre la antigua estación Sonne-Consol de Sevilla, realizados por otras personas amigas de la radioafición, los dos primeros a cargo de Aena, y el tercero por Txetchu Rubio.

 




 

19.-TABLAS Y GRÁFICAS DE INTERÉS RELATIVAS AL SISTEMA DECCA.

 

En esta entrada incluiré algunas imágenes y gráficas relativas al sistema de posicionamiento hiperbólico Decca, primo hermano del sistema Consol.

 

 

La anterior imagen representa las bandas de frecuencias que fueron asignadas para la operación del sistema Decca en todo el mundo, establecidas en la Conferencia de Atlantic City de 1947.

 

 

La segunda imagen es un mapa que representa la cadena Decca británica, con las hipérbolas y los carriles que surgen de ellas

 

 

La imagen anterior es una representación en diagrama de bloques del receptor empleado en el sistema de posicionamiento Decca.

 

 

La imagen que precede este párrafo representa la respuesta en frecuencia del filtro empleado en el receptor Decca para poder trabajar con distintas estaciones a la vez. Para conseguir este filtro de cristal con la precisa selectividad en frecuencia era preciso tallar el cristal de una manera concreta.

 

 

El anterior esquema representa las frecuencias empleadas en la cadena Decca del Támesis.

 

 

La imagen que precede representa la sensibilidad de la frecuencia resonante en la pieza de cristal en relación a la variación de la temperatura.

 

 

Se representan en la anterior imagen los carriles en los que quedaba dividido el espacio de navegación por mediación de las hipérbolas Decca.

 

 

Lo mismo ocurre en la imagen que le sigue, que también representa los carriles, en particular la red de identificación.

 

 

El esquema anterior es un diagrama de bloques del circuito destinado a identificar la cadena Decca de la que se recibe la señal, en el supuesto de que haya varias operando en la zona donde se encuentra el navío o avión.

 

 

Para ya finalizar, se representa en la anterior fotografía el sistema de presentación de Decca.

 

20.-TABLAS Y GRÁFICAS DE INTERÉS RELATIVAS A LOS SISTEMAS HIPERBÓLICOS.

 

 

Incluyo en esta entrada imágenes y esquemas relativos a los sistemas de navegación hiperbólicos, extraidos del libro «La radionavegación», publicado en 1982. La imagen que precede representa las coberturas mundiales del sistema Loran C en el año de la publicación.

 

 

La segunda imagen representa las coberturas mundiales del sistema Decca en el citado año.

 

 

La siguiente imagen es un estudio comparativo de las diferentes prestaciones de los sistemas de radionavegación, teniendo en cuenta distintos aspectos.

 

 

En la imagen que sigue se representan las antenas de espira manual y fija usadas en radiogoniometría. En la página de la derecha se aprecia la fotografía de un radiogoniómetro manual y un radiogoniómetro portátil.

 

 

La imagen que precede este párrafo representa un receptor multibanda típico para la recepción de la señal Consol.

 

 

Otro tanto podemos decir de la siguiente foto, que representa un receptor Decca (téngase en cuenta que estas imágenes se corresponden con las implementaciones de estos sistemas cuando corría el año 1982.

 

 

Esta imagen representa la antena y receptor usados en un radiogoniómetro de calidad.

 

 

En la siguiente fotografía se puede identificar la evolución que ha tenido el sistema receptor de Loran. Se ha pasado de un TRC con los pulsos representados mediante rayos catódicos a un sistema de lectura digital.

 

 

A continuación se esquematiza la propagación que suele haber con este tipo de sistemas a baja frecuencia, que incluye una onda ionosférica y una onda directa y de superficie.

 

 

Para ya finalizar se muestra el cronograma típico de los pulsos recibidos mediante el receptor Loran.

 

21.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (I). INTRODUCCIÓN.-

 

Uno de los factores esenciales en las operaciones militares es saber dónde se encuentra el enemigo, de modo que puedas hacer frente a la situación ya sea atacando o evitando al oponente. Lo mismo aplica a cualquier fuerza amiga con la que puedas estar operando. De manera paralela a estos pasos, también necesitas establecer tu posición con respecto a cualquier peligro natural que puedas tener que evitar o explotar. Así que, si puedes establecer las posiciones de ti mismo, tus amigos, el enemigo y los peligros con respecto a la superficie de la Tierra, puedes usar esa información para controlar tus propios movimientos como desees. Alternativamente, en ocasiones, mediante uno u otro medio, puedes establecer directamente la posición del enemigo en relación con la tuya y actuar en consecuencia, un proceso igualmente útil para «orientarse» o evadir. Aunque algunas de las técnicas que mencionaré se remontan al inicio de la navegación humana, y antes de eso a los «sentidos especiales» de los animales, nuevos métodos fueron desarrollados intensivamente bajo la presión militar de la Segunda Guerra Mundial. Es sobre esta fase sobre la que principalmente propongo hablar; pero para ponerlo en perspectiva, echemos un vistazo breve a algunos episodios anteriores.

Existen leyendas chinas que dicen que el emperador Hoang, quien reinó alrededor del 2400 a.C., logró perseguir a su enemigo a través de una espesa niebla guiando a sus tropas con la ayuda de una brújula direccional, la cual, según Lord Kelvin, quien diseñó la brújula seca utilizada por la Real Armada y la Armada Mercante durante muchos años, no puede haber sido otra cosa que una brújula. Sin embargo, el Dr. Joseph Needham ha demostrado que, aunque los «cucharones» de piedra imán ciertamente se usaron en China en los primeros siglos de nuestra era, la primera descripción clara de una brújula en China (o en cualquier otra parte del mundo) no es anterior al 1088 d.C. Al mismo tiempo, ha presentado una descripción de la preparación y el uso de una brújula en un manual militar chino de tecnología militar de 1044 d.C. El «cucharón de piedra imán» que la precedió, incidentalmente, puede usarse como brújula, y no parece ser una mera especulación sugerir que la forma de cuchara se derivó de la constelación estelar norteña «El Gran Cazo». El Dr. Needham también ha demostrado que la leyenda de la brújula ha sido casi seguramente confundida con el hecho de que, tal vez desde el 1000 a.C. y ciertamente desde el 255 d.C., los chinos ya tenían una «carroza apuntadora hacia el sur» de dos ruedas, en la que un puntero horizontal era impulsado diferencialmente por los engranajes de las ruedas para mantener una dirección constante mientras la carroza atravesaba cualquier sucesión de curvas. Y un dispositivo con principios similares ha sido utilizado en este siglo en tanques militares, ya que una brújula magnética no funciona dentro de un casco de acero.

Mientras la velocidad de las fuerzas armadas sobre el mar o la tierra era inferior a 30-40 millas por hora, las diferencias en la habilidad de navegación entre enemigos rara vez tenían efectos espectaculares en la batalla. La destreza en la navegación, por supuesto, era vital, y esto, combinado con la cartografía de James Cook del San Lorenzo, contribuyó en gran medida a la conquista de Quebec, donde el gobernador francés, Vaudreuil, se quejaba de que «el enemigo ha pasado 60 barcos de guerra, no nos atrevemos a arriesgar una embarcación de 100 toneladas ni de noche ni de día». Si bien los efectos rara vez eran espectaculares, eran sin embargo profundos, ya que, junto con los avances en tecnología militar, la navegación hizo posible la dominación de la mayor parte del mundo por parte de las naciones de Europa Occidental. Y hubo otro efecto: los requerimientos de navegantes como Drake y Cabot para mejores instrumentos llevaron al desarrollo de la destreza en la fabricación de instrumentos en Londres, que fue uno de los ingredientes importantes en el ascenso de la ciencia en el siglo XVII, ejemplificado por la formación de la Royal Society en 1660; esto, a su vez, tuvo un impacto general en la tecnología de la guerra, con los efectos que hemos visto particularmente desde 1914 en adelante. Los problemas de navegación atlántica y mundial experimentados en el siglo XVIII por la Real Armada, enfatizados por la pérdida del escuadrón del almirante Cloudesley Shovell en 1707 frente a las Islas Scilly, llevaron a la solución del problema de la determinación de la longitud mediante las tablas lunares de Tobias Mayer y el cronómetro de Harrison, que benefició a todos los navegantes, tanto navales como mercantes.

El comandante Waters ha señalado que la navegación a menudo determinaba la ubicación de las acciones navales antes de que se resolviera el problema de la longitud. Era relativamente fácil determinar la latitud, por lo que un comandante que buscaba un desembarco seguro, y conocía su latitud, navegaría a la latitud correcta en el mar, y luego navegaría hacia el este o el oeste según fuera necesario. Un comandante enemigo que quisiera interceptarlo podría, por lo tanto, hacer una suposición razonable sobre dónde emboscarlo.

 

22.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (II). LA NAVEGACIÓN ANTES DE 1914.-

 

El desarrollo del vuelo, con sus velocidades mucho más altas, tanto de las aeronaves como de los vientos, y con la frecuente obstrucción de características de la superficie terrestre, dio un énfasis completamente nuevo a la importancia de la navegación, y especialmente a la rapidez para determinar la posición con respecto a un objetivo o una base de operaciones, bajo condiciones que generalmente eran mucho más restringidas y perturbadas que las del mar. Incluso los globos aerostáticos y dirigibles requerían algo de instrumentación; y los aviones, con sus altas aceleraciones en los giros, mostraron graves defectos en los instrumentos que se habían adaptado de los de uso marítimo.

Incluso la dirección aparente de la gravedad, esencial para establecer un horizonte artificial, podía desviarse de manera salvaje de la vertical, con consecuencias tan graves como el error de giro hacia el norte del compás magnético, de entre 1° y 13°. La importancia de la instrumentación fue tan sentida que la Sociedad Aeronáutica Real dedicó la primera conferencia ‘Right Lecture’ a este tema; fue impartida por el gran diseñador de instrumentos Horace Darwin. Y cuando estalló la guerra en 1914, se reunió en Farnborough una galaxia de nuestros mejores científicos para trabajar en la instrumentación de aeronaves, entre ellos Keith Lucas, quien analizó el error de giro hacia el norte, Lindemann (posteriormente Lord Cherwell), quien descubrió cómo recuperar un avión de un vuelo en barrena, y muchos otros.

Mucho antes de 1914, algunos hombres habían comenzado a visualizar formas de utilizar las ondas de radio como medio para establecer las posiciones de los barcos o aeronaves. En 1907, Bellini y Tosi produjeron un diseño con antenas receptoras cruzadas a 90 grados, desde las cuales se podían deducir las direcciones de las ondas entrantes a partir de la magnitud de las corrientes inducidas en las antenas; de este modo, se podía establecer la dirección del avión o barco que emitía las ondas. En el mismo año, Scheller, de la empresa Lorenz, patentó un sistema de dos antenas emisoras que usaban un transmisor común que se conmutaba de una a otra, de modo que una enviaba un patrón repetitivo de caracteres Morse, como ‘A’ (. -), complementario al que enviaba la otra, en este caso ‘N’ (- .).

Si el receptor se encontraba en un punto adecuado, recibiría señales de ambas antenas con igual intensidad, y dado que los ‘N’ se encajarían perfectamente en los espacios de los ‘A’, el operador simplemente oiría un tono continuo. Pero si el receptor se movía fuera de este punto hacia otro más alejado en el campo de transmisión de la primera antena, el operador escucharía los ‘A’ más fuertes que los ‘N’ y viceversa. Este dispositivo resultó ser una manera asombrosamente sensible de posicionar el receptor sobre la línea de señales iguales de las dos antenas y, como veremos, se volvería vitalmente importante en 1940. El sistema se probó en barcos antes de 1914, y en 1917, Kiebit en Alemania hizo pruebas con aeronaves; pero debido a las relativamente largas longitudes de onda (330 y 600 m) que tuvo que usar, hubo dificultades con las antenas y la propagación que causaron resultados contradictorios. Aun así, Buchwald afirmó en 1920 que un barco a una distancia de 8 km podía localizarse lateralmente dentro de un margen de 400 m.

También en 1907, la empresa Telefunken patentó el ‘radio compás’, que constaba de 32 antenas direccionales, cada una radiando principalmente hacia su punto apropiado en la brújula. El transmisor se conmutaba sucesivamente a cada antena en intervalos de un segundo, comenzando en el norte tras una señal identificativa. Por lo tanto, un operador con un receptor solo tenía que contar el número de segundos después de la señal identificativa antes de que la señal de la brújula llegara a su máxima intensidad, para establecer su dirección desde el sitio de transmisión; esta operación se facilitaba aún más al darle al operador un cronómetro cuya manecilla giraba completamente en 32 segundos, el cual debía iniciar al final de la señal identificativa y detener al llegar la señal de la brújula a su máximo.

 

23.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (III). LA PRIMERA GUERRA MUNDIAL.-

 

Así, para 1914, se habían concebido tres técnicas importantes de radio para establecer rumbos, y ahora la cuestión era cuál de ellas sería adecuada para los fines de la guerra. Las primeras pruebas serias se realizaron en los ataques de los dirigibles Zeppelin sobre Inglaterra durante la noche, que comenzaron el 19 de enero de 1915. Los primeros ataques dependían de la observación visual de características de la superficie, complementadas por la navegación a estima. Los errores consecuentes mostraron rápidamente la necesidad de nuevas ayudas, por lo que se instalaron estaciones de radiogoniometría en Borkum y en Nordholz, que luego fueron complementadas por otras en Sylt y cerca de Brujas.

El sistema tenía fallos graves; el primero era debido a fenómenos de propagación no sospechados, principalmente causados por las reflexiones de la capa de Heaviside o la ionosfera, lo que afectaba la precisión de los rumbos y, a veces, resultaba en errores de posición de más de cincuenta millas. El segundo fallo del sistema, dado que dependía de estaciones de D/F (dirección-fijación) basadas en tierra, era que las aeronaves debían transmitir, lo que revelaba sus posiciones tanto al enemigo como a sus propias bases. Y otro problema era que la capacidad del sistema estaba severamente limitada porque las estaciones en tierra solo podían ‘fijar’ una aeronave a la vez.

A pesar de todo, von Buttlar-Brandenfels, el único comandante de Zeppelin que voló durante toda la guerra, concluyó que la navegación por radio era mucho mejor que la navegación celestial. Los Zeppelines no lograron hacer daño serio a Inglaterra, y sus bajas (debido tanto a una mala navegación como a la defensa enemiga) se volvieron tan graves que, en 1917, los alemanes pasaron a utilizar aviones para los ataques. Al principio, en el verano de 1917, estos ataques se realizaron de día; pero en el otoño de ese año, los ataques principales se pasaron a realizar durante la noche, donde la navegación básica seguía siendo por lectura de mapas, usando la luz de la luna y seleccionando objetivos que fueran fácilmente identificables por su proximidad a las costas o estuarios.

En cuanto al desarrollo británico de las técnicas de navegación por radio, teníamos mucha evidencia de los errores involucrados, provenientes de las interceptaciones de los ‘fias’ de radio alemanes en los Zeppelins, que podían compararse con sus posiciones reales registradas por nuestras defensas en tierra. Esta evidencia mostró que necesitaríamos un sistema mucho mejor si, como se pretendía en 1918, debíamos intentar bombardear Berlín; pero se pensó que las mejoras necesarias en la técnica ya se habían logrado, de modo que la precisión debería estar en un rango de 5 a 7 metros. La guerra terminó antes de que esta creencia tan optimista pudiera ponerse a prueba.

 

24.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (IV). LA NAVEGACIÓN AÉREA EN EL PERIODO DE ENTREGUERRAS.-

 

Con el fin de la guerra, la principal necesidad en la navegación aérea cambió a medida que la aviación civil en rutas regulares comenzó a desarrollarse; y los antiguos dispositivos de boyas y faros tendrían sus contrapartes aéreas en potentes balizas visuales situadas en tierra. En Europa, los sistemas de D/F (dirección-fijación) basados en tierra de la Primera Guerra Mundial fueron desarrollados en una red, y se evolucionaron sistemas de bucles D/F para aeronaves, de modo que las aeronaves pudieran obtener los rumbos de las balizas transmisoras de radio situadas adecuadamente en el suelo.

En los Estados Unidos, con su sistema de vuelos interurbanos que se desarrollaba rápidamente, y especialmente aquellos que debían operar con una regularidad sin importar las condiciones meteorológicas para el servicio postal, se adoptó una solución que reducía la carga de trabajo tanto de la tripulación aérea como de la tripulación terrestre. Esta consistía en establecer un sistema de haces de radio, basado en el sistema Lorenz de 1907, que apuntaba de un aeropuerto a otro. Las pruebas realizadas por la Oficina Nacional de Normas en 1921 mostraron que la zona de señal equidistante tenía aproximadamente un kilómetro de ancho a 56 kilómetros de distancia del transmisor.

El resultado fue el sistema ‘Radio Range’ (rango de radio), donde una aeronave, en lugar de tener que llamar a una red de D/F en tierra para pedir un rumbo, podía volar a lo largo del haz de radio como una especie de ferrocarril aéreo. Esto fue una gran ventaja en una ruta muy transitada, donde una red de D/F podría fácilmente quedar saturada. Para 1933, 82 estaciones de haces estaban en funcionamiento, y otras 20 estaban en construcción. Pero esta solución, tan adecuada para la aviación civil, se consideraba inapropiada para los requisitos militares, donde las aeronaves necesitaban volar a cualquier parte, y no a lo largo de rutas fijas que permanecieran constantes de un día o incluso de un año a otro.

La solución militar preferida era un sistema de bucles D/F en la aeronave, por el cual se podían obtener rumbos en balizas fijas; y los resultados de la astronavegación obtenidos por operadores muy capacitados fomentaron la creencia de que la aviación nocturna sería posible solo con la estimación directa y la navegación celeste. En la RAF, de hecho, esta creencia se convirtió en una doctrina oficial que subestimaba completamente las dificultades de navegación en comparación con otras actividades aéreas, como el pilotaje y la puntería de bombas. Y esta insensibilidad a los problemas que planteaba la navegación era típica de los defensores del poder aéreo. Douhet abogaba por el bombardeo de precisión durante el día y el terrorismo aéreo durante la noche; ni él ni Mitchell en América vieron la necesidad de investigar ayudas a la navegación.

En cuanto a la RAF, finalmente empezó a reconocer en 1938 que la navegación de un bombardero de largo alcance era una tarea que requería atención especial; pero aún se asumía que la astronavegación complementada por las redes de D/F basadas en balizas en tierra sería suficiente. Esto, a pesar de que en 1939 el oficial al mando del Grupo 3 informó de manera realista que la estimación por radio (D/R) durante el día por encima de las nubes solo podía hacer que un bombardero llegara a estar dentro de un radio de 80 kilómetros de su objetivo. Algunos de nosotros intentamos ayudar al Comando de Bombarderos pensando en ayudas de radio basadas en las nuevas técnicas de pulsos que estaban entrando con el radar. En Bawdsey, en octubre de 1937, R.J. Dippy sugirió que si dos transmisores de pulsos dispuestos adecuadamente enviaran pulsos simultáneos, una aeronave que recogiera estos pulsos y anotara los intervalos de tiempo entre los pulsos a medida que llegaban podría ser dirigida a volar a lo largo de un camino que le permitiera localizar su aeropuerto en condiciones meteorológicas adversas.

Yo mismo propuse usar el mismo principio en un esquema que presenté al Ministerio del Aire en mayo de 1938. Esto fue estimulado por lo que había conocido sobre la localización por sonido de los cañones en el Frente Occidental de la Primera Guerra Mundial mediante un método desarrollado por Sir Lawrence Bragg. Si dos observadores registran el momento en que escuchan el disparo del cañón, entonces saben que el cañón debe estar en una posición tal que se encuentra más cerca de uno de los observadores que del otro, por la distancia que recorre el sonido en el intervalo de tiempo entre ambos. Un resultado elemental en la teoría de las secciones cónicas muestra que el cañón debe estar sobre una hipérbola particular cuyos focos son los dos puntos de observación.

Si se añade un tercer punto de observación al sistema, los intervalos de tiempo entre las tres estaciones permiten determinar otras dos hipérbolas, y las tres hipérbolas se intersectarán en un solo punto, que indicará la ubicación del cañón. La propuesta para la navegación aérea era, de hecho, este sistema invertido, utilizando ondas de radio en lugar de ondas sonoras. Cuando propuse este sistema, encontré poco entusiasmo entre mis colegas del Ministerio del Aire, que parecían casi felices de rechazar la propuesta argumentando que, a pesar de su ingenio, sería ineficaz porque las ondas de radio cortas que se tendrían que utilizar no se doblarían alrededor de la curvatura de la Tierra. Como observó el propio Tizard sobre la actitud de la época: ‘La realidad es que parece que a nadie le preocupa mucho pedir nuestro consejo sobre estos temas, o seguirlo si se les ofrece’. Decepcionado, lo único que pude hacer fue buscar cualquier evidencia que sugiriera hasta qué punto, de hecho, las ondas de radio podrían viajar.

Mi relato ya se está convirtiendo en algo personal. Me uní al personal del Ministerio del Aire en 1936, en gran parte porque el Comité Tizard quería ver qué se podía hacer con las técnicas infrarrojas como medio para detectar bombarderos entrantes, un problema defensivo, pero inevitablemente también había pensado en los problemas del bombardero. Y sugerí que el bombardero podría ser capaz de encontrar ciudades detectando la radiación infrarroja que estas emiten.

 

25.- INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (V). LA RADIONAVEGACIÓN DE LA LUTWAFFE.-

 

Cuando en 1939 me trasladaron a Inteligencia Aérea, no era fácil para un civil de rango bajo desafiar las afirmaciones de varios oficiales de alto rango de que los bombarderos podían encontrar sus objetivos en Alemania. Sin embargo, no pude resistir preguntarme cómo era posible que, si la navegación aérea era tan buena como se decía, tantos de nuestros bombarderos en vuelos de práctica en 1938 y 1939 se estrellaran contra las colinas de Inglaterra. Por lo tanto, uno de los aspectos de la Luftwaffe que observé con más interés fue su posible desarrollo de nuevas técnicas de radio para dirigir sus bombarderos, más allá de tomar rumbos de radio de la BBC y otros transmisores, los cuales habíamos inutilizado mediante dispositivos como un sistema de balizas de ‘enmascarado’ o ‘meacons’.

En los primeros meses de 1940, recibí dos pistas. La primera vino, no de manera sorprendente, durante un almuerzo. Estaba con el Sr. A.E. Woodward-Nutt, quien había sido parcialmente responsable de mi traslado a Inteligencia. Casualidad o no, él me mencionó que había un informe de los franceses sobre que los alemanes habían instalado un sistema de transmisores de haces para bombardear objetivos en Francia, pero que nadie lo tomaba muy en serio. Sin embargo, él había pedido a nuestros expertos en radio en Farnborough que estimaran la precisión que podría alcanzarse ahora con un haz de radio, y se sorprendió de lo estrecho que podría ser. Dado que algunos de nuestros mejores científicos se sorprenderían más tarde de la misma manera, vale la pena explicar el punto, que es de interés científico adecuado.

Existe un teorema bien conocido en la difracción óptica relacionado con la precisión de un haz transmitido a través de una abertura, que establece, grosso modo, que la precisión angular del haz es aproximadamente igual a la longitud de onda empleada dividida por el ancho de la abertura. Para tomar un ejemplo específico, supongamos que los alemanes quisieran navegar sus bombarderos hasta un objetivo en Londres de no más de una milla cuadrada. A una distancia de Cherburgo, aproximadamente 150 millas, esto implicaría un ancho angular de 1 en 150. De acuerdo con el teorema óptico que mencioné, el ancho de una antena en Cherburgo que sería necesario para transmitir un haz tan estrecho con una longitud de onda de 10 metros sería de 10 metros x 150 = 1500 metros. Muchos científicos, tanto antes como después de la guerra, habrían desechado el asunto en ese punto.

Afortunadamente, yo mismo ya me había encontrado con el problema algunos años antes, y había encontrado la falacia en el argumento. Es cierto que si se intentara hacer un haz real suficientemente estrecho, se necesitaría una antena muy grande; pero se puede lograr el mismo efecto usando dos haces mucho más anchos provenientes de dos antenas mucho más pequeñas, y superponiéndolos para producir una zona de señal equidistante en la región de superposición, utilizando exactamente la técnica que la empresa Lorenz patentó en 1907. El juicio de igualdad de señales que provienen de los haces derecho e izquierdo es tan sensible que un desplazamiento de una centésima del ancho del haz puede ser fácilmente detectado. Por lo tanto, cada antena puede ser una centésima del ancho requerido para hacer un haz verdaderamente estrecho, es decir, aproximadamente 15 metros, por lo que si se colocan una al lado de la otra, el ancho total no necesita ser mayor que 30 metros. Para el beneficio de los teóricos ópticos, puedo expresar la diferencia como la que existe entre el poder de resolución de Rayleigh de un sistema cuando intentas distinguir entre dos objetos simultáneamente, y la precisión con la que ese sistema puede usarse para establecer la posición de un solo objeto en su campo.

La segunda pista, en la primavera de 1940, vino de prisioneros que hablaban entre sí sobre el funcionamiento de un dispositivo que llamaban ‘X-Geritt’ o ‘X-Aparato’. A partir de las pocas pistas que dieron, pensé que esto debía depender de uno de dos principios. El primero era uno en el que la aeronave enviaba pulsos que se reflejaban en los objetos en el suelo, para dibujar un mapa radar mediante el cual el observador pudiera reconocer características geográficas como costas y pueblos. El segundo era un sistema de haces que se cruzaban utilizando el principio Lorenz que acabo de comentar. Luego, en marzo de 1940, surgió otra pista, en forma de una anotación en un papel recuperado de una aeronave derribada de la formación de bombardeo alemana Kampfgeschwader 26. Decía: «Ayuda de navegación: balizas de radio trabajando en el plan de balizas A. Además, desde las 0600 horas, baliza Dllhnen. Baliza luminosa después del anochecer. Baliza de radio Knickebein desde las 0600 horas en 315 grados».

La mención de una dirección para Knickebein sugirió que, sea cual sea el tipo de baliza de radio que fuera, debía emitir algún tipo de radiación en haz, y naturalmente lo asocié con mis pensamientos previos. Por lo tanto, di una advertencia en mayo de que los alemanes probablemente habían desarrollado algún tipo de sistema de haces cruzados para bombardeo a ciegas. La prueba definitiva llegó el 5 de junio de 1940, cuando interceptamos un mensaje al Oficial Jefe de Señales del Flieger Korps IV: «Knickebein, Kleve, está en el punto 53 grados 24 minutos norte y un grado oeste instalado». El punto mencionado en el mensaje está aproximadamente en la Gran Carretera del Norte, al sur de Retford, y el ‘Kleve’ del mensaje es la ciudad en el oeste de Alemania famosa como el hogar de Ana de Cleves. Si había un transmisor de Knickebein en Kleve, la siguiente pregunta era la longitud de onda en la que funcionaba. Aquí, un prisionero nos ayudó sin querer, quien le dijo a uno de sus compañeros de cautiverio que incluso si capturábamos una aeronave intacta, no descubriríamos el equipo de radio que empleaba. Esto solo podía significar que era un equipo ya instalado en los aviones bombarderos alemanes, pero que aparentemente estaba allí para otro propósito. El único equipo que podría ser era el receptor de aterrizaje a ciegas Lorenz. El sistema Lorenz se había desarrollado a partir de la patente de 1907 para proporcionar un haz de corto alcance para definir el camino de radio hacia la pista de aterrizaje de un aeródromo, y previamente se había asumido que ese era el único propósito del receptor de aterrizaje a ciegas instalado en los aviones alemanes. Llamé al Departamento de Radio en Farnborough y hablé con el líder de escuadrón Cox Walker, quien había analizado el receptor, y le pregunté si había algo inusual en él. Al principio dijo ‘No’, pero luego añadió: ‘Hay una cosa extraña: parece mucho más sensible de lo que necesitas solo para aterrizar a ciegas’. Eso fue suficiente.

El sistema Lorenz funcionaba con longitudes de onda de aproximadamente 10 metros, y sin embargo, la distancia desde Cleves hasta Retford es de unas 300 millas. Así que parecía que, en contra de lo que pensaban la mayoría de nuestros expertos en radio, las longitudes de onda de 10 metros se doblarían lo suficiente alrededor de la Tierra para proporcionar señales útiles a 300 millas de distancia, al menos si el receptor estaba a una altura de bombardeo de 20,000 pies. El resto de la historia ya ha sido ampliamente escrita en libros sobre la guerra; aquí simplemente he esbozado los puntos clave de interés en navegación que posteriormente afectaron nuestro propio pensamiento.

 

26.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (VI). LA GUERRA DE LOS HACES.-

 

El sistema Knickebein cruzaba dos haces sobre la zona objetivo, de modo que el bombardero podía volar a lo largo de un haz hasta que también escuchara el haz transversal; y cada bombardero pesado de la Luftwaffe estaba equipado para utilizar el sistema. Esto solo permitía bombardear un área, quizás de una milla cuadrada, pero podía ser usado a través de las nubes y de noche por cualquier piloto que hubiera sido entrenado en el sistema de aterrizaje ciego. Por lo tanto, representaba una amenaza grave porque toda la fuerza de bombarderos alemana podría operar de noche, cuando nuestros cazas eran impotentes para interceptarlos. Las contramedidas de radio eran, por lo tanto, nuestra única forma de defensa.

Aunque Knickebein utilizaba haces tipo Lorenz, era producto de una empresa rival, Telefunken. La propia compañía Lorenz adoptó un sistema más refinado, desarrollado a partir de 1933 por el Dr. Hans Plendl, que empleaba longitudes de onda más cortas (alrededor de 4 metros) y haces más estrechos y definidos. En este sistema, el bombardero volaba a lo largo del haz director, que generalmente provenía de un transmisor al noroeste de Cherburgo, y luego cruzaba dos haces transversales, uno a 20 kilómetros y el otro a 5 kilómetros antes del objetivo. Al cruzar el primero de estos haces, el observador de bombas iniciaba un reloj y lo detenía al pasar por el segundo haz. El intervalo de tiempo le indicaba la velocidad de la aeronave y también sabía que estaba a 5 kilómetros del objetivo; sabiendo la altura por su altímetro, entonces, en principio, podía calcular el momento exacto para soltar la bomba para que impactara en el objetivo, y el vuelo por el haz corregía aproximadamente el viento cruzado. En la práctica, la tarea del observador de bombas era aliviada por una pequeña computadora mecánica que determinaba por sí misma el momento correcto para liberar la bomba. Además de los tres haces básicos, también había haces más gruesos para ayudar a la tripulación aérea a fijar los haces principales. Este era el sistema X, que proporcionaba el método de bombardeo ciego más preciso de la época.

A pesar del logro del Dr. Plendl y la compañía Lorenz, parece que el Estado Mayor de la Luftwaffe no comprendió inicialmente su importancia. La Luftwaffe había sido diseñada principalmente para apoyar operaciones terrestres, y el bombardeo a gran distancia durante la noche, que podría haber atraído a los alemanes como lo hizo en la Primera Guerra Mundial, evidentemente se consideraba como un papel secundario. Afortunadamente para nosotros, las posibilidades completas del bombardeo por el sistema X o incluso del bombardeo por Knickebein no fueron apreciadas por el Estado Mayor de la Luftwaffe; malgastaron la primera de las unidades especializadas en el haz X, el Tercer Grupo de Kampf Geschwader 26, en operaciones de apoyo cercano en la campaña de Noruega, y fue un nuevo grupo, K. Gr. 100, el que utilizó por primera vez el sistema X contra Inglaterra. Inicialmente, este grupo operaba independientemente de la fuerza principal de bombarderos, y a veces podíamos ver su característica ‘firma’ en los gráficos de bombardeo. Uno de esos gráficos se muestra en la Figura. Este hace referencia a un ataque a Birmingham el 26 de octubre de 1940 y muestra cómo la mayoría de las bombas cayeron a no más de 100 yardas de la línea del haz principal, aunque se esparcieron por un rango de unas tres millas. Una característica del patrón que nunca he podido explicar, por cierto, es que algunos aviones soltaron sus bombas en dos líneas subsidiarias, aproximadamente a medio kilómetro a cada lado del haz principal. Me pregunté si esto se lograba mediante un desplazamiento deliberado desde el haz principal, pero parecía sorprenderle al Dr. Plendl cuando se lo mencioné después de la guerra, así que la dispersión pudo haberse debido a algún factor accidental en el sistema.

Nuestro conocimiento del sistema Knickebein nos permitió tomar contramedidas bastante efectivas desde el inicio de la campaña principal de bombardeo nocturno, y la importancia del K. Gr. 100 se hizo evidente para el Estado Mayor de la Luftwaffe. El Mariscal de Campo Mitch recomendó que el grupo recibiera prioridad en personal y aeronaves, y aconsejó a Göring que, con los haces de radio, los ataques podrían tener éxito incluso en las noches más oscuras o a través de las nubes. En Gran Bretaña, la importancia de los haces X fue repetidamente minimizada por varios oficiales de alto rango, al menos tan repetidamente como yo y mis colegas enfatizábamos su importancia. Cuando en octubre encontramos que el K. Gr. 100 comenzaba a soltar bengalas, la escuela anti-haces argumentaba que esto demostraba que el vuelo por el haz era tan deficiente que los pilotos tuvieron que recurrir a las bengalas para saber dónde estaban. Respondí con una explicación más probable: que el grupo probablemente estaba practicando el lanzamiento de bengalas (que siempre caían sobre el objetivo) para marcarlo para el resto de la fuerza de bombardeo, la cual había sido desactivada de Knickebein por nuestras contramedidas. El ataque a Coventry en la noche del 14 al 15 de noviembre mostró, desafortunadamente, que esta explicación era la correcta, y abrió una nueva fase en la guerra del terror que nosotros, finalmente, aplicaríamos de manera aún más vigorosa que los alemanes.

Tal fue el éxito del K. Gr. 100 que recibió un mensaje de Año Nuevo de parte de Göring:
«Al finalizar 1940, expresé al oficial al mando y a este grupo mis más sinceros agradecimientos por un logro único en la historia. Sé del enorme esfuerzo personal que ha implicado por parte de cada individuo, y estoy convencido, camaradas míos, de que en 1941 también solo conoceréis la victoria. Así que les deseo a cada uno de ustedes suerte y éxito continuo en el próximo año. ¡Heil Hitler!»
Nos tentó con ironía enviarle una copia de «La caza del Snark» –
«¿Y has matado al Jabberwock? Ven a mis brazos, mi niño de los haces. ¡Oh, día maravilloso! ¡Callooh! ¡Callay!» Él chasqueó de alegría.»

El rendimiento del sistema X fue gradualmente limitado por nuestras contramedidas, que en su mayoría consistían (como en el caso de Knickebein) en transmitir puntos desde transmisores operados por una nueva organización, el Ala No. 80, para enmascarar la verdadera zona equisignal, ya que el piloto entonces escucharía puntos superpuestos sobre ella, y así navegaría hacia la zona de líneas discontinuas. Esto a veces resultaba en una trayectoria curva, lo que dio lugar a la leyenda de que estábamos «girando el haz». Los alemanes estaban listos con una nueva técnica, el ‘sistema Y’, que era un desarrollo adicional del Dr. Plendl, utilizando longitudes de onda alrededor de 7 metros. En este sistema, había un haz director, muy similar al sistema X, pero con los puntos y rayas reemplazados por señales de igual duración provenientes de los haces derecho e izquierdo, con un espacio interpuesto, de modo que, por ejemplo, la señal del haz derecho se podría identificar por el hecho de que venía inmediatamente después del espacio. Esto simplificó la creación de un indicador de rumbo automático, que proporcionaba al piloto una indicación visual, en lugar de una auditiva, de su posición relativa a la línea equisignal verdadera. Un cambio más radical fue el método para determinar dónde se encontraba la aeronave a lo largo del haz director en relación con el objetivo. En el nuevo sistema, una estación en tierra cerca de la fuente del haz enviaba una señal modulada que era recibida por el bombardero y retransmitida de nuevo a la estación en tierra. La diferencia de fase entre la modulación saliente y la que regresaba medía el tiempo de viaje de la señal hacia el bombardero y de vuelta, y por lo tanto la distancia a lo largo del haz. Así, la posición y velocidad del bombardero podían medirse en la estación terrestre y el punto correcto de liberación de las bombas calculado allí y enviado como orden al bombardero.

Afortunadamente, había adivinado las partes esenciales del sistema antes de que fuera utilizado. Por un lado, el método de medición de distancia ya había sido descrito por los rusos en un sistema para posicionar barcos en el mar. Luego, el famoso Informe Oslo de 1939 había descrito un sistema de medición de distancia similar, siendo desarrollado para la Luftwaffe. No menos misterioso del Informe Oslo es el hecho de que, cuando conocí al Dr. Plendl después de la guerra, me dijo que se sentía muy orgulloso de haber desarrollado todo el sistema Y y haberlo puesto en funcionamiento en menos de seis meses; sin embargo, los primeros bombardeos realizados con ese sistema fueron en el campo de Bovington a mediados de octubre de 1940, y el Informe Oslo había sido considerablemente más de seis meses antes de eso. También había hecho la suerte (pero, como resultó, erróneamente razonada) suposición de que el sistema usaría solo un haz, porque otro código alemán para él era ‘Wotan’, y Wotan solo tenía un ojo.

Potencialmente, el sistema Y era mucho más preciso que el X porque el sistema de medición de distancia era mucho mejor que el que utilizaba los haces cruzados; además, el juicio era realizado por un operador sentado en la seguridad de una estación terrestre, no afectado por los peligros de una misión de bombardeo. La precisión nos fue demostrada en las primeras operaciones del IQ/UG 26 lanzando bombas de 1000 kg. El error de alcance era de unos 300 metros, y a la unidad se le dio la tarea de lanzar las primeras bombas de 2500 kg. Pero cuando el sistema se utilizó por primera vez en operaciones a gran escala, con el III KG 26 actuando como pioneros en lugar del KG 100, estábamos tan bien preparados que fuimos capaces de paralizarlo al recibir la transmisión de los aviones alemanes en el Alexandra Palace y retransmitirla en la frecuencia de la estación terrestre. El resultado fue que el nuevo sistema nunca tuvo éxito en las operaciones mayores y tuvo que ser retirado.

Por cierto, incluso cuando funcionaba técnicamente bien, tenía una grave desventaja. Esta era que la estación terrestre solo podía manejar un avión a la vez, por lo que los demás tendrían que ser «apilados» antes de que la estación pudiera verlos durante su vuelo de bombardeo. Esto requería un considerable tráfico de radio entre la estación terrestre y los aviones; y una vez que la tripulación alemana sospechó que estábamos manipulando su sistema, temían que también pudiéramos enviar órdenes falsas desde el R/T. En realidad, no lo hicimos, pero tal era su estado de aprensión que empezaron a cometer errores, a veces tomando órdenes que eran para otros aviones y, en otras ocasiones, ignorando órdenes genuinas por miedo a que fueran falsas.

El estado mayor aéreo alemán ahora estaba bien consciente de que su campaña de bombardeo contra Gran Bretaña dependía en gran medida de sus sistemas de navegación por radio, y realizó repetidos esfuerzos para derrotar nuestras contramedidas, incluyendo variantes como usar los haces X con el sistema Y. Con el fracaso de estas medidas, la Luftwaffe se vio obligada a seleccionar objetivos que estuvieran a distancias muy cortas, o cerca de características fácilmente reconocibles como las costas; estos, lamentablemente, incluían puertos como Portsmouth, Plymouth, Bristol, Liverpool y Glasgow, pero los ataques a objetivos en el interior a menudo se desvían. Tres factores trajeron el final de la campaña en mayo de 1941: las crecientes pérdidas alemanas, su dificultad para encontrar objetivos en el interior y, sobre todo, la decisión de Hitler de atacar Rusia.

Mientras tanto, tanto los alemanes como nosotros esperábamos que sus bombarderos regresaran el invierno siguiente, y comenzamos a ver señales evidentes de la nueva prioridad que se le daba a la navegación por radio. El número de estaciones Knickebein se incrementó de 5 a 11, y tanto los sistemas X como Y fueron reforzados con la esperanza de atravesar nuestra interferencia. Una nueva táctica fue agregar una modulación supersónica al sistema X, de modo que, incluso si el sistema audible era bloqueado, la señal supersónica pudiera ser utilizada; y se esperaba que los alemanes creyeran que no detectaríamos la señal supersónica. De hecho, conocíamos su plan con antelación, pero se utilizó con cierto éxito en los bombardeos de ‘Badeker’ de 1942 porque, a pesar de nuestra previa advertencia, aquellos responsables de las contramedidas no usaron receptores de banda ancha para detectar la señal ultrasónica.

 

27.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (VII). ELEKTRA-SONNE-CONSOL.-

 

Antes de analizar los desarrollos británicos en navegación por radio, hubo otro desarrollo alemán que perduró mucho después de la guerra. Este fue ‘Elektra’, que consistía en un sistema de tres antenas dispuestas en línea, de 4 a 6 km de largo, que emitían un abanico de haces en longitudes de onda relativamente largas (alrededor de 1000 metros). Era imposible ‘etiquetar’ los haces individuales, pero estaban lo suficientemente separados en ángulo (10-15 grados) para que un navegante pudiera estar razonablemente seguro de cuál estaba observando. El sistema se mejoró más tarde a ‘Elektra Sonne’, en el que todo el abanico de haces comenzó a girar lentamente, de modo que cada haz se desplazaba de su posición original a la del haz vecino más cercano en un minuto. La idea era muy parecida a la del compás original de Telefunken de 1907, y proporcionaba un servicio muy útil, ya que todo lo que necesitaba un navegante era un receptor simple y un cronómetro.

Entonces, el navegante solo tenía que observar el instante en el que una equiseñal pasaba por él después de que comenzara la rotación, para saber con bastante exactitud dónde se encontraba en relación con la posición original de los haces. Esto le daba su dirección respecto a la estación transmisora con considerable precisión, y así, observando una segunda estación, podía obtener una ‘posición’.

El sistema era especialmente útil para la navegación de largo alcance y las aproximaciones occidentales, cubriendo la Bahía de Vizcaya, mediante la instalación de dos estaciones: una cerca de Brest y la otra en España, no muy lejos del Cabo Finisterre. En cuanto supimos sobre la construcción de la estación en España, se me pidió que informara a nuestro embajador en Madrid, Sir Samuel Hoare, para que pudiera hacer representaciones al gobierno español. Resultó que, algún tiempo antes, había tenido que informarle sobre una ocasión bastante similar, cuando los alemanes intentaron instalar un sistema de alarma infrarrojo a través del Estrecho de Gibraltar, para poder detectar el paso de nuestros convoyes hacia Malta y el Norte de África. Mi informe había sido exitoso, ya que causó que los alemanes abandonaran el proyecto, pero resultó tan difícil explicarle a un embajador no técnico por señales que no me esperaba tener que hacerlo de nuevo.

Se me ocurrió que había una posibilidad de evitar la tarea, porque estábamos volando más aviones sobre la Bahía que los alemanes, por lo que llamé al Jefe de Navegación del Mando Costero y le pregunté si, si podía proporcionarle una cuadrícula de navegación de largo alcance sobre la Bahía de Vizcaya, estaría dispuesto a decir que nos sería más útil a nosotros que a los alemanes. Después de algunas discusiones en el Mando Costero, se acordó que efectivamente era así, y que, por lo tanto, sería ventajoso para nosotros dejar que las estaciones siguieran funcionando, siempre que supiéramos lo suficiente sobre sus características para poder calcular las cuadrículas. Gracias al reconocimiento fotográfico y nuestro conocimiento del sistema, pudimos hacerlo, y el sistema entró en servicio con la Real Fuerza Aérea bajo el nombre de ‘Console’. Resultó tan conveniente y exitoso que se mantuvo después de la guerra, y se convirtió durante mucho tiempo en una de las ayudas estándar de navegación en muchas partes del mundo.

 

28.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (VIII). LA NAVEGACIÓN EN LA REAL FUERZA AÉREA (RAF).-

 

En lo que respecta a la actitud británica hacia las ayudas radio-navegacionales especializadas, las lecciones de 1940 fueron comprendidas solo de forma lenta. Tan tarde como en febrero de 1941, el Subjefe del Estado Mayor del Aire escribió en un expediente en el que yo había propuesto ataques de bombardeo contra las estaciones de radio alemanas: “Nosotros no usamos haces, pero bombardeamos con tanto éxito como los alemanes, en pleno corazón de Alemania… Los haces son simplemente ayudas a la navegación, y nuestra experiencia indica que tales ayudas no son indispensables para llevar a cabo con éxito las misiones de bombardeo. Iría más lejos y diría que ni siquiera son realmente útiles… ¡Larga vida al haz del Boche!”.

Los hechos no respaldaban esta opinión, pese a la contundencia con que se expresó: había evidencia creciente de que estábamos fallando en encontrar nuestros objetivos en Alemania. Recuerdo una protesta de una de nuestras fuentes de inteligencia, quien señaló que, aunque afirmamos haber bombardeado, según recuerdo, las fábricas Skoda en Pilsen, él había estado allí la noche del ataque y no hubo bombas en un radio de 80 kilómetros. Llamé la atención de Lord Cherwell sobre este hecho, que estaba respaldado por pruebas de algunos oficiales en servicio más realistas. Luego, a mediados de 1941, Lord Cherwell instituyó lo que en ese momento fue una investigación muy impopular sobre la precisión de nuestros bombardeos nocturnos. Esta reveló que, en promedio, en una noche oscura, solo uno de cada 15 bombarderos llegaba a menos de ocho kilómetros de un objetivo en Alemania. Como dice la Historia Oficial, la investigación de Lord Cherwell —aunque desagradable— “prestó un servicio a la Comandancia de Bombardeo que no fue superado por ningún otro”.

Así, se hizo añicos el mito de nuestra precisión en los bombardeos. Y si todos hubieran creído en él, la situación habría sido realmente grave. Afortunadamente, algunos de nosotros pensábamos desde hacía tiempo que, tarde o temprano, la Comandancia de Bombardeo tendría que adoptar ayudas radioeléctricas especializadas para la navegación, y ya se disponía de un sistema.

R. J. Dippy había propuesto en junio de 1940 un esquema idéntico en principio al que yo había presentado en 1938, que consistía en enviar pulsos desde tres transmisores en tierra, y obtuvo autorización para continuar con su desarrollo. Este fue un gran éxito y se conoció como el sistema “G”. Ya había superado sus pruebas de servicio, pero la Comandancia de Bombardeo no estaba dispuesta a confiar en él hasta que se probara sobre Alemania. A pesar de las lecciones de la revelación prematura del tanque en 1916 y de los errores cometidos por los alemanes al usar sus sistemas de haces antes de poder explotarlos plenamente, la Comandancia se arriesgó a utilizar los primeros equipos prototipo del “G” sobre Alemania y, por supuesto, perdió uno durante una incursión en Hannover el 13 de agosto de 1941, cinco días antes de que se publicara el informe de Lord Cherwell.

Durante el mes anterior, yo había estado revisando la política alemana de navegación por radio, señalando sus logros y errores, y lo que podíamos aprender de ellos. Un pasaje de mi informe decía: “Alcibíades tenía un perro hermoso, al que deliberadamente le cortó la cola para dar a los ciudadanos de Atenas algo de lo que hablar, y así evitar que encontraran cosas peores que criticar de él… cuando estemos pensando en introducir nuevos sistemas propios, podríamos sacar provecho de la estrategia de Alcibíades, dando a la inteligencia enemiga algo en lo que ocuparse mientras logramos algunos meses de libertad con nuestro verdadero sistema”.

La pérdida potencialmente desastrosa del receptor del “G”, ocho meses antes de que el sistema pudiera entrar en uso operativo, ofreció casi de inmediato ese tipo de desafío. La primera noticia del incidente me llegó cuando Sir Henry Tizard convocó una reunión el 20 de agosto a petición del Jefe del Estado Mayor del Aire para discutir la nueva situación. Incluso si los alemanes no recuperaban el equipo, ya se habían perdido 78 tripulantes aéreos de la estación desde la que había operado el avión equipado con “G”, y algunos de estos tripulantes serían ahora prisioneros de guerra, con la posibilidad de que los alemanes los hubieran oído hablar entre ellos sobre el nuevo sistema.

Además, mucho antes de que la producción principal de receptores pudiera instalarse en nuestros bombarderos, todas las aeronaves nuevas tendrían que incluir instalaciones para recibirlo, y se pensaba que era esencial etiquetarlas; esto sin duda despertaría el interés alemán. Con todos estos factores, parecía muy poco probable que los alemanes no conocieran todos los puntos esenciales del sistema “G” mucho antes de que pudiéramos ponerlo en operación completa.

Ofrecí intentar engañar a los alemanes, aunque no era muy optimista, y Tizard me dijo que podía contar con todos los recursos que necesitara. En efecto, era una oportunidad notable para una farsa a gran escala. Los primeros pasos que tomé fueron para eliminar todo rastro del “G”. Desde entonces, se le denominaría “J”, de modo que si los alemanes escuchaban a prisioneros de guerra hablar más tarde sobre “I”, pensaran que habían confundido “J” con “G” en sus escuchas anteriores.

El siguiente paso fue inventar un sistema nuevo que diera cuerpo a la historia del “I”. Aceptando como inevitable que los alemanes se dieran cuenta de que íbamos a poner en marcha una nueva ayuda radioeléctrica, ¿qué mejor que engañarlos haciéndoles creer que habíamos copiado sus haces? Así, inventamos los haces “J” e incluso instalamos algunas emisoras de haces “J” en nuestra costa este. En cuanto al etiquetado de las instalaciones en las nuevas aeronaves, mandé fabricar nuevas etiquetas, reemplazando las originales que incluían un número de tipo en la serie 3000 (una clara señal de que se trataba de un dispositivo de pulsos), y en su lugar se usó TR 1335, que normalmente habría indicado un transmisor-receptor de onda continua.

En cuanto a las transmisiones por pulsos de las estaciones terrestres del “G”, cuya finalidad podría deducirse por sus características especiales, estas últimas fueron eliminadas para que las estaciones “G” parecieran estaciones de radar ordinarias.

También arreglé que se informara que un tal “Profesor Ekkerley” estaba dando conferencias especiales a unidades de la RAF, en las que describía el nuevo sistema de navegación por radio alemán “Jerry”, basado en haces del tipo Lorenz. Dejé que fuera el Servicio Secreto Alemán quien intentara descifrar si “Jerry” era un error por “Perry”, o si se refería a los alemanes (por el apodo inglés “Jerry”) o a cualquier otra cosa que pudiera sugerir el inglés coloquial.

Finalmente, organicé que la inteligencia alemana escuchara una conversación entre dos oficiales de la RAF que discutían la lista de honores de enero de 1942, y uno le preguntaba al otro por qué un conocido científico había recibido un GCB (Gran Cruz de la Orden del Baño), si lo único que había hecho era copiar los haces alemanes, ¡y con un año de retraso! Y lo que es más, ni siquiera fue él quien lo hizo, sino los hombres bajo su mando. “Pero”, dijo su compañero, “debes admitir que al menos ahora tenemos los haces ‘J’ que nos llevan hasta nuestros objetivos; funcionaron bien en Brest, y pronto los tendremos sobre Alemania”.

En la discusión posterior, la disposición de los haces se marcó sobre el mantel presionándolo con un tenedor, y se usó un salero para indicar Brest. El Servicio de Inteligencia alemán, agradecido, valoró mucho esta indiscreción.

El libro de Alfred Price Instruments of Darkness cuenta el resto de la historia. Los alemanes fueron tan engañados que establecieron una organización considerable de contramedidas para los haces “I”, y el sistema “G” entró en servicio a gran escala en marzo de 1942 con una vida útil sin interferencias de cinco meses, lo que fue mucho más de lo que habíamos osado esperar. Solo después del comienzo de operaciones serias con el “G” los alemanes se dieron cuenta de su error y comenzaron a planificar contramedidas. Mientras tanto, desilusionados con los haces “I”, dejaron de interferirlos, con el resultado de que el Mando de Bombarderos encontró esos haces falsos bastante útiles para orientarse en el regreso al Reino Unido.

El “G” era un buen sistema, ya que proporcionaba un método de localización sobre una amplia área, un número ilimitado de aeronaves podía usarlo simultáneamente, y los aviones no necesitaban transmitir, evitando así revelar su posición al enemigo. Sin embargo, no era lo suficientemente preciso como para permitir el bombardeo de objetivos puntuales; por tanto, mientras el Mando de Bombarderos no contara con nada más que el “G”, se limitaba a bombardeos de área durante la noche. Y como el Mando era el único medio con el que podíamos atacar directamente a Alemania, el bombardeo de área —contrario a nuestra declaración de 1939— se convirtió en política oficial. Así, la navegación se volvió un factor crucial en nuestra conducción de la guerra.

 

Oboe

 

El bombardeo de precisión requería una nueva ayuda, y esta llegó en forma de ‘Oboe’. Los antecedentes de ‘Oboe’ pueden rastrearse hasta algunos intentos iniciales que nosotros mismos hicimos para bombardear las estaciones de haces alemanas durante el invierno de 1940–41. A. H. Reeves, del TRE (Telecommunications Research Establishment), solía venir a hablar conmigo sobre diversas alternativas a los sistemas alemanes.

El sistema que finalmente prefirió, debido a la alta precisión de la determinación de distancia por radar, consistía en hacer volar un avión a lo largo de una trayectoria circular centrada en una estación de radar terrestre, desde la cual, si soltaba una bomba, se alcanzaría el objetivo. Las desviaciones de la trayectoria ideal por parte del avión se le comunicarían en forma de la indicación estándar de punto o raya (dot-dash), dependiendo de si estaba a la izquierda o a la derecha del recorrido.

Para determinar cuándo el avión había alcanzado el punto correcto en su trayectoria para soltar la bomba, una segunda estación terrestre también mediría la distancia, preferiblemente ubicada en la línea tangente a la trayectoria del vuelo. Para aumentar el alcance del sistema, el avión estaba equipado con un transpondedor que recogía los pulsos de las estaciones terrestres y los retransmitía con mayor potencia.

Este sistema tenía ventajas importantes: dependía solo de mediciones de distancia, que eran mucho más precisas que las mediciones de dirección (donde el error aumentaba con la distancia), y no revelaba el objetivo como lo hacían los sistemas de haces. Además, el momento de la suelta de bombas lo determinaba un observador en tierra, libre de las distracciones de un vuelo sobre territorio enemigo.

Las desventajas eran que, como en el sistema ‘Y’, la capacidad de manejo de tráfico era muy limitada, y que el avión tenía que transmitir señales que podían ser localizadas por el enemigo. Sin embargo, esta última desventaja se mitigó bastante porque el ‘Oboe’ era utilizado por Mosquitos, que eran demasiado rápidos para los cazas nocturnos enemigos, y porque más adelante se trasladó a longitudes de onda centimétricas, contra las que los alemanes estaban casi indefensos.

Las desventajas potenciales dificultaron la tarea de Reeves, ya que se les dio demasiada importancia en ciertos niveles altos. Tanto fue así que un científico bien conocido escribió:

“Estoy seguro de que ha llegado el momento de decir claramente que estas disquisiciones del TRE sobre Oboe se están volviendo ridículas. Si vinieran como invenciones del público general y no de fuentes oficiales, serían rechazadas sin dudar. Me preocupa gravemente que ahora el TRE proponga combinar Gee con Oboe. Repito, aún más enfáticamente, que sería desastroso permitir que los defensores de este fantástico Oboe arrastren al sistema sensato y práctico como Gee a la mala reputación en la que Oboe, incluso si se eleva al Mark XX, inevitablemente caerá. Si tuviera el poder, descubriría al responsable de este último esfuerzo con Oboe y lo despediría, para que dejara de desperdiciar no solo su tiempo y esfuerzo, sino también el nuestro, con sus vanas imaginaciones”.

En la práctica, ‘Oboe’ resultó ser el sistema de bombardeo a ciegas más preciso de toda la Segunda Guerra Mundial. Era tan preciso que tuvimos que revisar la alineación geodésica entre el Sistema de Ordenanza británico y el continente, lo cual dependía de la triangulación a través del Canal de la Mancha.

 

Ajustes Geodésicos y el Éxito de Oboe

 

Las discrepancias fueron analizadas por el Sr. E. C. Cornford, quien me recordó el problema en los siguientes términos:

“El problema básico era, por supuesto, que cada país había fijado de manera independiente el origen, la forma, la escala y la orientación del elipsoide al que había referido su triangulación nacional. Por tanto, el mismo punto físico en dos sistemas nacionales adyacentes tenía dos conjuntos diferentes de coordenadas en latitud y longitud. Hasta donde recuerdo, había una discrepancia de unos cinco segundos de arco entre las coordenadas del Ordnance Survey británico y las francesas en puntos de la costa del Canal, y una discrepancia aún mayor, principalmente en longitud, entre las coordenadas francesas y alemanas en Alsacia, que alcanzaba unas 300 yardas o más.”

Debido a las diferencias en escala, orientación y elipsoide entre los sistemas nacionales, no bastaba con hacer una corrección general de las coordenadas francesas para ajustarlas a las británicas. En cambio, tuvimos que calcular las longitudes y acimutes de líneas largas a través del sistema de triangulación francés desde el Paso de Calais hasta Alsacia, y luego a través del sistema alemán hasta, por ejemplo, la zona objetivo en el Ruhr. Estas se transfirieron luego a una extensión de nuestro sistema británico del Ordnance Survey. De este modo, se estableció una cuadrícula de correcciones variables a aplicar a los objetivos en Alemania (y también en Bélgica y Holanda), para hacerlos coincidir con las coordenadas de nuestras estaciones terrestres en el Reino Unido.

El Dr. F. E. Jones, estrechamente vinculado a Reeves en el desarrollo de ‘Oboe’, me pidió que sugiriera un objetivo de prueba desde el cual se pudiera obtener información precisa de observadores en tierra sobre la caída de las bombas, para poder comprobar las correcciones de triangulación. Sugerí apuntar a la sede del Sector 7 de la organización alemana de cazas nocturnos, que se encontraba en el Noviciado cerca de la ciudad belga de Florennes. Sabía que teníamos agentes belgas muy entusiastas en esa zona, que hasta ese momento no habían visto resultados visibles de la gran cantidad de inteligencia que nos habían enviado sobre la organización de los cazas nocturnos alemanes. Pude advertirles con antelación del ataque para que pudieran informar de los resultados inmediatamente.

El avión voló en un arco centrado en la estación de seguimiento en Trimingham, y las bombas fueron soltadas por la estación de rango en Walmer. Es un hecho que una de las bombas de esta primera misión con ‘Oboe’ impactó directamente en el Noviciado, y los belgas nos enviaron las posiciones de casi todas las bombas en 24 horas. Entonces se pudieron hacer correcciones para los errores relativamente pequeños de triangulación, los cuales habrían sido muy difíciles de detectar por otros medios.

En la práctica, el error medio del bombardeo fue de no más de 130 yardas desde 30,000 pies de altitud a 230 millas de distancia, y solo alrededor del 10 % del error se debía a imprecisiones básicas del sistema de radio.

 

Bombardeo de Precisión

 

El éxito de ‘Oboe’, si se hubiera seguido a fondo, podría haber cambiado por completo nuestra política de bombardeo. Tal como fue, los Mosquitos equipados con ‘Oboe’ tuvieron una larga racha de éxitos, marcando los objetivos para la fuerza principal, y el alcance del sistema se amplió sustancialmente mediante el uso de aviones intermedios que retransmitían las señales entre la estación terrestre y el avión de bombardeo.

Una fuerza bien entrenada de aviones no equipados con ‘Oboe’ podía lanzar sus bombas con sorprendente precisión sobre las marcas colocadas por el sistema ‘Oboe’, y dudo que alguien en el Estado Mayor del Aire haya comprendido la importancia de esto durante algún tiempo. Puede que yo haya sido el primero en hacerlo, porque había visto lo que el Grupo N.º 5 pudo lograr a este respecto cuando, en contra de mis expectativas basadas en experiencias previas con bombardeos de área, fueron capaces de eliminar las estaciones de interferencia alemanas en Francia poco antes del Día D. Ese tipo de objetivo exigía al menos tanta precisión como una planta petrolera en Alemania, y por tanto, parece que podríamos haber vuelto al bombardeo de precisión de Alemania mucho antes de lo que lo hicimos.

Las instalaciones petroleras habían sido un objetivo principal en 1940 y 1941, pero como fracasamos en destruirlas entonces, se desarrolló la doctrina de que no valía la pena bombardear los llamados “objetivos panacea”, como los llamaba con desdén Sir Arthur Harris. Sin embargo, como iban a demostrar los acontecimientos de finales de 1944 y 1945, los ataques a instalaciones petroleras, realizados con suficiente precisión, habrían reducido rápidamente a la impotencia a las fuerzas armadas alemanas.

El rendimiento de ‘Oboe’ sorprendió a los alemanes. Hitler convocó a Goering y a Martini, quien era Director General de Comunicaciones en la Luftwaffe, y los reprendió porque los británicos podían bombardear con precisión por la noche, mientras que la Luftwaffe no podía.

Goering, tal vez recordando su triunfal mensaje navideño de 1940 al K.Gr. 100, protestó diciendo que sí podían, y entonces Martini dio detalles del sistema ‘Y’. Hitler dijo que solo lo creería si Martini organizaba una demostración que mostrara que podían alcanzar con precisión la estación central de trenes de Múnich desde la región de Leipzig.

Martini me contó que tuvo que desviar recursos y reentrenar tripulaciones para la demostración; esta logró efectivamente alcanzar un objetivo del tamaño de la estación desde la distancia apropiada, pero su precisión —el 50 % de las bombas dentro de un radio de 900 yardas (unos 825 metros) a una distancia de 225 millas (362 km)— no era tan buena como la de ‘Oboe’, e incluso no era tan buena como la que habíamos presenciado nosotros mismos en 1940.

 

H2S

 

Como sistema adicional a ‘G’ y ‘Oboe’, el TRE también desarrolló H2S, un sistema que funcionaba en una longitud de onda de 10 (y más tarde 3) centímetros, el cual escaneaba el terreno bajo el avión mediante un transmisor de radar y, en efecto, construía un mapa en una pantalla de rayos catódicos mostrando el terreno hasta varias decenas de millas de distancia, con ciudades, cuerpos de agua y líneas costeras representadas con bastante claridad.

Esto se convirtió en una potente ayuda a la navegación equipada en cada bombardero, y además podía usarse para bombardeos a ciegas de áreas. Pero su uso fue un error.

El general Schmitt, quien comandaba los cazas nocturnos alemanes en ese momento, dijo que fue el mayor error individual de toda nuestra política de bombardeo. Primero, porque daba una advertencia muy temprana, ya que nuestros bombarderos lo activaban cuando aún estaban sobre Inglaterra; luego, porque el servicio de intercepción alemán podía seguir la trayectoria de los bombarderos sobre Alemania incluso cuando todos los demás métodos habían fallado debido a nuestras interferencias; y finalmente, porque los cazas nocturnos alemanes pudieron ser equipados para localizar a los bombarderos individuales.

Esto no es una crítica a H2S como un logro de la tecnología innovadora, sino a la manera en que se utilizó. Fue mucho más valioso para el Mando Costero, en la detección de submarinos, aunque incluso allí —como señaló el comandante Waters— habría sido más efectivo si se hubiese instalado primero en los aviones que escoltaban convoyes, donde los submarinos estaban más concentrados, en lugar de en los que patrullaban las zonas de tránsito en el Golfo de Vizcaya.

 

G-H

 

Un sistema adicional, que en cierto modo era un híbrido entre ‘G’ y ‘Oboe’, fue desarrollado bajo el nombre de ‘G-H’. En este sistema, una aeronave transmitía pulsos que eran recibidos y reemitidos de vuelta al avión por dos estaciones terrestres.

A riesgo de revelar su posición mediante estos pulsos, el avión podía así determinar sus distancias a las dos estaciones en tierra y, por tanto, calcular su propia ubicación. Aunque no era tan preciso como ‘Oboe’, este sistema resultó ser muy eficaz y fue usado con mucho éxito por el Mando de Bombardeo en el otoño de 1944.

 

Navegación de cazas

 

Al examinar las actividades de navegación de la Royal Air Force durante la Segunda Guerra Mundial, podemos observar que en 1940 y 1941 el Mando de Cazas no era mucho mejor que el Mando de Bombardeo, pero las deficiencias eran mucho menos evidentes porque los cazas generalmente operaban sobre territorio que conocían, y además había un elaborado sistema VHF D/F para ayudarles. Las incertidumbres de la navegación de cazas se hicieron evidentes para mí en 1941 cuando, pensando en nuestro regreso al continente, propuse que debíamos atacar las estaciones de radar alemanas en la costa del Canal con cazas; me dijeron en el Mando de Cazas que esto no sería factible porque los cazas no podían navegar con la precisión suficiente. Aunque esto era sin duda cierto, también sabía por mi contacto con pilotos de Reconocimiento Fotográfico que ellos navegaban en solitario durante horas sobre Alemania misma, sin mencionar cruzar el Canal, con una precisión que se demostraba por su casi 100% de éxito en fotografiar sus objetivos. Cuando pregunté a uno de nuestros mejores pilotos fotográficos cómo lo hacía, dijo que simplemente confiaba en sus instrumentos.

Para atacar las estaciones de radar, cada escuadrón de cazas debería ser liderado por una aeronave de reconocimiento fotográfico. Quizás motivados por esta sugerencia, nuestros cazas mejoraron tanto su navegación que para el Día D fueron capaces de silenciar cerca de 40 de las 47 estaciones de radar que podrían haber operado contra nosotros, un logro que contribuyó mucho al éxito del desembarco.

 

Rebecca-Eureka

 

Otro sistema de navegación utilizado por la Real Fuerza Aérea para contactar con miembros de la resistencia fue el sistema Rebecca-Eureka. En este, un pequeño transpondedor en tierra respondía a un transmisor de pulsos a unos 200 MHz ubicado en la aeronave, de modo que esta podía orientarse hacia él. Fue un dispositivo muy útil tanto para operaciones clandestinas como para el refuerzo en lanzamientos de paracaidistas. Después de la guerra, este sistema evolucionó hasta convertirse en el DME (Distance Measuring Equipment), un sistema de medición de distancia por pulsos estandarizado internacionalmente para aeronaves que operan en la banda de 960–1215 MHz.

 

Decca

 

Pocos de los desarrollos de navegación que habían tenido lugar en el aire, en ambos bandos, eran adecuados para su uso en el mar, debido al alcance relativamente corto con el que podían captarse las ondas cortas utilizadas en la mayoría de los sistemas. Sin embargo, el sistema «G» fue muy útil en el desembarco de Normandía, donde el alcance requerido no era muy grande. De todos los demás sistemas, el Electra-Sonne era, con diferencia, el más prometedor para uso marítimo, debido al mayor alcance que permitía su uso de ondas largas.

El problema de proporcionar un sistema que ofreciera simultáneamente gran alcance y precisión era difícil, porque la precisión/disminuye con el alcance debido a que las ondas no se curvan lo suficiente alrededor de la curvatura de la Tierra. La cuestión entonces era cómo extraer la máxima precisión posible de ondas lo suficientemente largas como para proporcionar el alcance necesario. Una solución elegante fue hallada por la compañía Decca, que consistía en algo similar a un sistema Electra, pero en el que los transmisores emitían en frecuencias que eran diferentes, aunque múltiplos de una frecuencia fundamental.

Estas frecuencias eran recibidas por el barco y luego multiplicadas nuevamente de manera que pudieran combinarse en una frecuencia doblemente multiplicada, simulando así un patrón de interferencia de los transmisores originales con longitudes de onda mucho más cortas que las realmente utilizadas. De esta manera, se lograba la precisión de un sistema de ondas cortas, con la cobertura de uno que usaba ondas largas.

El sistema resultó ser altamente exitoso y, por supuesto, hoy en día se utiliza ampliamente tanto en el mar como en el aire.

 

Loran

 

Incluso las ondas largas, sin embargo, presentan problemas de propagación, ya que tienden a ser reflejadas por la capa ionosférica, pudiendo así llegar al receptor por una ruta diferente, más larga y variable, lo que añade señales retardadas a las que se utilizan para deducir la posición del receptor, y esto perjudica la precisión.

Un paso evidente es utilizar ráfagas de pulsos en lugar de transmisiones continuas, de modo que los pulsos a nivel del suelo, que viajan por rutas más cortas, lleguen y puedan ser procesados en el receptor antes de que las señales retardadas lo alcancen. Este principio ha dado lugar a una serie de sistemas, entre los cuales Loran es uno de los más conocidos.

El más reciente de esta familia es Omega, que opera en 10 a 14 kHz y ofrece un alcance de cinco mil millas, por lo que ocho transmisores ubicados estratégicamente podrían cubrir toda la Tierra con errores de una milla o menos.

Además de su largo alcance, Omega tiene la ventaja adicional de que las ondas se atenúan menos al pasar por el agua del mar, por lo que pueden ser recibidas por un submarino sumergido.

 

Egon

 

Aunque nuestra superioridad en electrónica comenzaba ya a notarse en la ofensiva contra Alemania, los alemanes estaban planeando contraatacar en su Campaña de Represalia con dos armas: la V-1, la bomba volante, y la V-2, el cohete A4. Se suponía que debían estar listas para finales de 1943; pero, cuando hubo retrasos en su desarrollo, los alemanes improvisaron una campaña menor de bombardeo en febrero de 1944 utilizando su equipo estándar de radar, Freya, en una longitud de onda de 2,5 metros, y su sistema IFF, el Funk Gerät 25A. La precisión del Freya era tan buena que podía utilizarse prácticamente sin cambios para bombardeo a ciegas, y su haz dividido se dirigía al objetivo. La aeronave podía entonces usar este haz como guía, con un receptor adecuado, y la estación de radar podía determinar la distancia y enviar instrucciones para la liberación de las bombas.

Una debilidad del sistema era que el transpondedor de la aeronave podía ser interrogado y localizado por nosotros con un sistema Freya simulado; planeamos hacer esto, pero los alemanes abandonaron las operaciones antes de que pudiéramos usarlo de manera efectiva. Desarrollaron un sistema muy similar (llamado «Egon») para localizar y controlar a sus cazas en la batalla cada vez más intensa sobre Alemania.

 

29.-INFORME DE REGINALD V. JONES ‘NAVIGATION AND WAR’ (IX). LAS V-1 Y V-2 .-

 

Volviendo a las V-1 y V-2, cada una de estas armas tenía cierto interés desde el punto de vista de la navegación. La bomba voladora dependía para su control direccional de una brújula magnética, una característica que supusimos tan pronto como descubrimos que los alemanes estaban construyendo refugios especialmente no magnéticos para el servicio final de las bombas antes del lanzamiento.

Una de las contramedidas que se consideró fue construir un gran lazo conductor de corriente alrededor de una amplia zona del sur de Inglaterra, con el fin de producir una distorsión local del campo magnético terrestre, pero el plan resultó inviable debido a los costes y a los requerimientos de energía.

El alcance estaba predeterminado mediante un “registro aéreo” (air-log), que se configuraba antes del lanzamiento. Esto consistía, en efecto, en una hélice impulsada por la corriente de aire (slipstream), que operaba un contador de revoluciones, ajustado lo mejor posible teniendo en cuenta el viento esperado. No era muy preciso, y las bombas tendían a quedarse cortas, una tendencia que fomentamos entre los alemanes mediante un engaño apropiado.

De hecho, una fracción de muestra de las bombas voladoras estaba equipada con pequeños transmisores, que podían ser seguidos por estaciones de radiogoniometría en Francia, y estos confirmaban correctamente que las bombas estaban cayendo antes del objetivo. Pero tales eran las dudas provocadas por errores pasados en la radiogoniometría, que se desestimó esta información en favor de lo que los alemanes creían que eran espías muy fiables.

El cohete A4 era un arma mucho más interesante desde todos los puntos de vista, excepto el económico. Cuando se usaba con control por radio, su velocidad durante el ascenso se medía observando el efecto Doppler en las ondas de radio transmitidas desde una estación terrestre situada poco detrás del punto de lanzamiento, captadas por el cohete y retransmitidas de vuelta.

También se desarrolló en pruebas un sistema de haz de radio direccional para mantener el cohete en curso, pero la mayoría de los cohetes que fueron lanzados realmente dependían de controles internos, como giroscopios direccionales y otro giroscopio montado de forma que pudiera precesar, y así medir la aceleración del cohete.

El sistema representaba, de hecho, el primer uso de la navegación inercial.
Como ocurre con la mayoría de las otras ayudas que he mencionado, la navegación inercial era una idea antigua, que se remonta al menos a 1914. Recuerdo, como ejemplo de la visión científica más profunda de Lord Cherwell en comparación con la mayoría de sus colegas del Comité Tizard, que un esquema de este tipo fue propuesto por su hermano, el brigadier Lindemann, en nombre de un inventor no identificado, hacia 1937. Pero fue rechazado porque algunos miembros del comité sostenían como doctrina que no se podía conocer la velocidad absoluta de una aeronave excepto mediante referencia directa al suelo, ya que los dispositivos convencionales medían la velocidad relativa al aire en que volaba la aeronave y no podían tener en cuenta el viento.

Lord Cherwell me señaló que esta visión era errónea, ya que, en principio, siempre se podía medir la aceleración, y mediante una doble integración de todas las aceleraciones experimentadas desde el despegue se debía poder determinar la posición relativa al punto de partida. Por supuesto, tenía razón, y en el cohete A4 vimos la primera aplicación del principio.

Aproximadamente el 80 % de los cohetes A4 lanzados operativamente dependían de elementos inerciales: giroscopios programados para controlar la dirección y la elevación, y un giroscopio de precesión para actuar como un acelerómetro integrador que midiera la velocidad. Estrictamente hablando, esto era guiado inercial más que navegación propiamente dicha, y se descubrió que no era tan preciso como la guía mediante haces de radio combinada con la medición de la velocidad por medio de un transpondedor de radio Doppler. Pero la gran ventaja operativa era que el control inercial era invulnerable a las contramedidas externas, y en los treinta años transcurridos desde entonces, los sistemas inerciales se han desarrollado a un grado asombroso, tanto para el control de misiles como para la navegación aérea.

Dado que los sistemas inerciales dependen de la memoria, tienden a desviarse con el tiempo, y son más efectivos cuando se utilizan en aplicaciones de corto plazo; en este caso, las altas velocidades y los breves tiempos de vuelo de misiles y aeronaves son más una ventaja que un obstáculo. Aun así, errores en los acelerómetros de no más de una diezmilésima parte de la aceleración debida a la gravedad pueden causar errores apreciables; por ello, el desarrollo de navegadores inerciales confiables ha implicado avances notables en el diseño de instrumentos.

El cohete A4 ha conducido, por supuesto, a desarrollos aún más notables tanto en los cohetes como en su navegación, no solo en satélites en órbita terrestre y en la navegación extraordinariamente precisa de los vuelos a la Luna, sino también en misiones hacia el exterior del sistema solar, como a Saturno, y hacia el interior, como a Mercurio. Y los satélites en órbita terrestre han proporcionado nuevos medios de navegación sobre la superficie terrestre, así como herramientas para el estudio de su forma y recursos.

En cuanto al grado en que estos avances podían haberse previsto en 1944, puede ser interesante citar un memorando que escribí para la Octava Fuerza Aérea de los Estados Unidos en el otoño de ese año, sobre las posibilidades de los cohetes de largo alcance:

‘Considerando, por tanto, lo que hemos visto como una extrapolación razonable de la práctica actual, un cohete de dos etapas con un peso inicial de unas 150 toneladas podría transportar una ojiva de una tonelada a un alcance de casi 3.000 millas, con un error probable de 10 millas en alcance y 3 millas en dirección. Esto podría ser un arma factible para transportar una bomba de uranio, si llegara a ser practicable. Sería casi imposible de contrarrestar mediante ataques a su infraestructura terrestre, ya que el aumento de alcance permitiría una elección prácticamente ilimitada del lugar de lanzamiento, mientras que la trayectoria podría variar tanto que no se podría deducir el punto de disparo con suficiente precisión para aplicar contramedidas. La producción probablemente tendría lugar bajo tierra. En el momento actual, tal cohete no podría ser interceptado, pero para cuando llegue a ser una posibilidad seria, bien podría ser un objetivo para cohetes defensivos más pequeños equipados con predictores y dispositivos de guía; pero estos dependerían de una advertencia adecuada, y las defensas podrían también verse saturadas por una salva de cohetes de largo alcance.’

y

‘Este documento ha sido intencionadamente especulativo, pero en ningún momento hasta ahora hemos hecho extrapolaciones inviables de la práctica actual, siempre que se dedicara suficiente esfuerzo al proyecto. No cabe duda de que, con el A4, el cohete ha llegado para quedarse por mucho tiempo, aunque solo sea por sus aplicaciones no militares; no existe otro medio para liberarnos de la atmósfera terrestre, con todo lo que esta libertad puede significar para los estudios astrofísicos. El acceso a la atmósfera superior será en sí mismo un factor importante en la meteorología experimental; y, tarde o temprano, alguien intentará seriamente alcanzar la Luna… y lo logrará. Es inevitable que se hagan aplicaciones militares, independientemente de los límites que impongan los tratados, y haríamos bien en mantenernos atentos a las posibilidades. Si nos permitiéramos más libertad en la conjetura, podríamos considerar el uso de combustibles atómicos para impulsar un escape de moléculas de hidrógeno, o quizás partículas más ligeras, proporcionando así un rendimiento de un orden completamente distinto.’

Casi todo esto, y mucho más, ya ha sucedido; y el impulso para todos estos logros provino de la Segunda Guerra Mundial y la posterior Guerra Fría, del mismo modo en que el cronómetro de Harrison surgió dos siglos antes por las necesidades de la Armada Real.

 

30.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (I) INTRODUCCIÓN.-

 

Este artículo es el cuarto capítulo de una serie sobre los Sistemas de Navegación Aérea durante el periodo comprendido entre los primeros vuelos oceánicos y el inicio de la aviación comercial, hasta la introducción del INS en aeronaves civiles. El autor y el editor agradecerían cualquier comentario sobre el contenido del artículo.

1. INTRODUCCIÓN.-

Las ayudas radioeléctricas hiperbolicas para la navegación siempre parecen haber llevado asociada la descripción de «cobertura de área», quizás porque es una muy buena manera de diferenciarlas de otras ayudas radioeléctricas que proporcionan al navegante su posición relativa a un solo punto, en lugar de dentro de una amplia zona. Tal vez sea conveniente que pueda utilizarse esta simple clasificación, ya que, cuando se examina la física de las ayudas radioeléctricas, hay pocas diferencias entre ellas. Todas utilizan el tiempo transcurrido como un análogo de la distancia —incluso los radiogoniómetros—, y la mayoría emplea de algún modo la creación de patrones de interferencia. Muchos sistemas conocidos popularmente como ayudas de «fuente puntual» son en realidad sistemas hiperbolicos «colapsados», como el VOR, Consol, etc.

A efectos de este artículo, se ha utilizado una definición de sistema hiperbolico como aquel que emplea fuentes de energía radioeléctrica comparativamente distantes que actúan en conjunto para proporcionar cobertura de navegación sobre una gran área, en términos de funciones hiperbolicas. Por «cobertura de navegación» se entiende una precisión de fijación razonablemente constante sobre una buena extensión geográfica, independientemente de la distancia (en contraste con la disminución lineal de precisión con la distancia, típica de las fuentes puntuales).

Se asume que el lector está familiarizado con los sistemas modernos y no necesita explicaciones sobre su funcionamiento. Por esta razón, no se presentan diagramas conceptuales ni de cobertura de los mismos.

Este artículo está dividido en dos secciones: antes y después de 1937. Hasta 1937 no se habían instalado sistemas hiperbolicos para uso general; la práctica habitual consistía en patentar la idea primero y dejar para más adelante la comprobación de si realmente podía funcionar, ya que muchos no lo lograban, a veces por razones poco relacionadas con el concepto básico. Por tanto, las patentes de este periodo son la mejor guía para mostrar cómo se desarrollaron las ideas necesarias para sistemas prácticos, y se citan con cierto detalle.

A partir de 1937 comenzaron a aparecer sistemas funcionales, lo que dio lugar a una proliferación de patentes, a menudo relacionadas solo con aspectos técnicos muy específicos, y demasiado numerosas como para ser mencionadas aquí. Sin embargo, su uso operativo ha proporcionado una gran cantidad de detalles prácticos y resultados que han sido aprovechados.

 

31.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (II) PRINCIPIOS GENERALES.-

 

Un solo transmisor de radio puede ser diseñado para suministrar suficiente información como para proporcionar a un navegante tanto el rumbo (fácilmente) como la distancia (problemático pero posible). Si está ubicado en un aeródromo que el aviador desea encontrar, entonces no se necesita mucho más, y la idea puede extenderse de manera que una serie de transmisores puedan guiar a un aviador a lo largo de cualquier trayectoria deseada. Aunque es bastante satisfactorio para este propósito, es más bien inflexible si las rutas fijas necesitan cambiarse en intervalos cortos, y resulta costoso si hay muchas rutas fijas. Un sistema de radionavegación con cobertura de área cubre simultáneamente toda una gran zona y evita estos problemas, pero crear uno utilizando sistemas “solo de rumbo” puede ser costoso, ya que la precisión en la localización basada en rumbos disminuye rápidamente a medida que aumenta la distancia — si el rumbo se mide con una precisión de 5°, esto puede contribuir con un error de más de 8 km a solo 100 km de distancia.

La solución a esto es medir la distancia, ya que cualquier error se mantiene constante en todas las distancias, pero esto solo puede lograrse utilizando el tiempo como un análogo, y se requiere una sincronización muy precisa para una precisión razonable — una millonésima de segundo equivale a 300 metros. Actualmente esto no representa un problema particular, pero en los primeros días de la radio era imposible y, durante mucho tiempo después, la única manera concebible de hacerlo era mediante mediciones diferenciales de fase. No fue hasta finales de los años 30, cuando se logró generar pulsos cortos de alta potencia, que se hizo posible hacerlo de forma directa y sin ambigüedad.

En los primeros días de la radio parecía que la correlación entre la intensidad de la señal y la distancia podría ser útil. Fundamentalmente, es un método deficiente porque, incluso si la intensidad de la señal recibida disminuyera solo de acuerdo con la predicción teórica, lo haría de manera logarítmica, y la diferencia de intensidad en unos pocos kilómetros, salvo a distancias muy cortas, es mínima. Es bastante difícil para el oído humano notar la diferencia entre dos señales con menos de 3 dB de diferencia, pero esto representa un cambio de distancia — para una señal de 300 kHz sobre agua salada, por ejemplo — de 100 a 140 km. En otras palabras, la medición de distancia mediante comparación de amplitud tiene mucha menos precisión que la de rumbo. A pesar de esto, Marconi le dedicó algo de tiempo en 1900, y también hubo trabajos alemanes en ese mismo año que no ha sido posible rastrear.

Más tarde, en los años 20, cuando la estabilidad de fase razonable se volvió posible, resurgió el interés en la medición de distancia. No es posible medir la fase de forma aislada — solo puede medirse en comparación con un estándar que se asume inmutable. Un oscilador de referencia en el receptor sería adecuado si tuviera una estabilidad extremadamente alta, pero incluso hoy estamos apenas en la etapa en la que los osciladores lo suficientemente estables (o «relojes» en la terminología moderna), como los estándares de cesio y rubidio, se han vuelto lo suficientemente pequeños y baratos como para ser transportados como algo cotidiano. Ciertamente, en los años 30 y 40, los osciladores de cristal disponibles estaban lejos de ser lo suficientemente estables. El único método era usar comparación de fase dentro del propio sistema — es decir, medir la fase de un transmisor respecto a la de otro, estando ambos sincronizados en fase de alguna manera. Esto resolvía dos problemas a la vez, ya que los dos transmisores podían estar ubicados a cierta distancia uno del otro y así producir una familia de hipérbolas que cubrían una zona considerable. La técnica fue implementada de muchas formas diferentes, y aún hoy es el método más preciso para realizar comparaciones temporales. Sin embargo, llevaba (y lleva) consigo un problema de ambigüedad: la medición es muy precisa dentro de un solo ciclo, pero no identifica inherentemente cuál ciclo está siendo utilizado.

A partir de 1935 aproximadamente, la tecnología había avanzado lo suficiente como para permitir la medición directa de distancia mediante la transmisión de un pulso de alta potencia y la medición del tiempo que tomaba en llegar a un objeto distante y regresar. Esto podía lograrse por reflexión (usando microondas) o haciendo que el objetivo distante transmitiera su propio pulso de respuesta tan pronto como recibiera el original. No era tan preciso como los métodos de fase, pero tenía la enorme ventaja de ser no ambiguo. El problema de la temporización precisa se resolvió disponiendo que el pulso saliente activara un sistema de cronometraje que se detenía con el pulso de retorno, y así solo debía mantener su estabilidad por unas pocas decenas o centenas de microsegundos. El principio fue adaptado a los sistemas de radionavegación de cobertura de área mediante la organización de una cadena de tres o cuatro transmisores que transmitían en un patrón sincronizado entre sí.

Más adelante se desarrollaron sistemas que usaban tanto pulsos como fase, siendo la manifestación más reciente el GPS, que emplea análogos no ambiguos de pulso y fase para lograr una precisión realmente alta.

 

32.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (III) DESARROLLOS TEMPRANOS (1904-1923).-

 

En 1904, Fessenden (EE.UU.) patentó un sistema de radio que usaría mediciones de distancia obtenidas a partir de comparaciones de amplitud para proporcionar la localización de una embarcación. No hay evidencia de que haya logrado hacerlo funcionar, y otros experimentos realizados por Marconi y en Alemania pronto demostraron la utilidad limitada de las mediciones por amplitud. El interés por los sistemas de posicionamiento decayó, aunque se avanzó bastante en el desarrollo de sistemas de radiogoniometría; el goniómetro de Bellini-Tosi y el radiofaro de Scheller datan de 1907, y el radiofaro para aeronaves de Round de 1909. Algunos escritos de la época resultan algo confusos debido a la costumbre de referirse a la determinación de posición como «radiogoniometría» (presumiblemente porque, una vez obtenida la posición, se puede estimar la dirección al destino).

Aunque el sistema de radio de Scheller no era hiperbólico, describía la posibilidad de ajustar cíclicamente la potencia de sus cuatro antenas para proporcionar múltiples zonas de anulación (nulls), algo que, en ciertos aspectos, fue un precursor del sistema Consol/Sonne.

La guerra de 1914–1918 aceleró el desarrollo de las válvulas de radio, lo que resultó en receptores mucho más sensibles y transmisores de alta potencia más estables y de banda estrecha. El uso de la fase pasó a ser posible como un método controlable para producir patrones de interferencia de radio estables, lo que llevó a desarrollos hiperbólicos cada vez más rápidos.

La patente de Fessenden fue seguida, después de la guerra, por las de Conners (EE.UU., 1919), Mottez (Francia, 1923), Affel (EE.UU., 1923) y otros. Powell proporciona un excelente y muy legible resumen de estas patentes, altamente recomendable para el lector interesado. Aquí se ofrece una descripción con el objetivo principal de ilustrar cuándo surgieron por primera vez las diversas ideas necesarias para los sistemas hiperbólicos.

3.1. La Patente de Fessenden — EE.UU. 236861, 4 Dic. 1904
Aunque limitada por la tecnología de la época al uso de la amplitud de señal como un análogo de la distancia, la principal contribución de Fessenden fue probablemente darse cuenta de que el uso de un solo transmisor no sería satisfactorio y que se necesitarían dos o tres. En sus propias palabras:

Para practicar mi invención empleo dos o más estaciones inalámbricas situadas en puntos fijos, como faros o barcos faro. El buque cuya posición se desea determinar también lleva un aparato inalámbrico. Se emiten señales, preferentemente a intervalos regulares, desde las estaciones fijas y, en el método aquí descrito, el buque localiza su posición comparando la intensidad de las señales recibidas entre sí o en relación con una fuente de intensidad fija ubicada a bordo del buque.

Si se depende únicamente de una medición absoluta de la intensidad, cualquier defecto en el aparato que haga que las señales tengan menos intensidad de la que deberían, provocaría que se situara al buque mucho más cerca de tierra de lo que realmente está. Por tanto, este método, aunque puede usarse, no debe ser totalmente confiable y debe ser verificado mediante el uso, como se mencionó, de un estándar a bordo del buque y, preferiblemente también, mediante la comparación de la intensidad relativa de las señales de las estaciones fijas.

En esa época no existían transmisores ni receptores de radio sintonizables. Los transmisores usaban chispas que radiaban en un amplio rango de frecuencias, y los receptores eran detectores simples, sin amplificación ni mucha capacidad de sintonía. Era difícil distinguir entre transmisores por frecuencia, así que Fessenden lo resolvió haciendo que transmitieran por turnos —lo que hoy llamaríamos «multiplexado en el tiempo».

Un operador en cada transmisor escuchaba la señal del transmisor más cercano y, cuando esta se detenía, comenzaba a emitir su propia señal durante un periodo fijo, tras lo cual el primero transmitía de nuevo. ¡Uno se pregunta cuánto tiempo habrían podido mantener esa coordinación!

Los receptores de la época, inestables y simples, también hacían difícil realizar mediciones absolutas de intensidad de señal, así que se dispuso que cada transmisor aumentara su potencia por pasos durante su transmisión, calculados para hacer coincidir la intensidad recibida con el estándar a bordo a distancias sucesivamente mayores (por ejemplo, en incrementos de 10 millas). En cada paso, el transmisor enviaba un número diferente en código Morse para que el operador del barco supiera qué nivel de potencia estaba en uso. Todo lo que tenía que hacer era esperar hasta que la señal recibida coincidiera con su estándar local, anotar el número y buscar en una tabla para encontrar su distancia. Luego podía repetirlo con un segundo transmisor y un tercero si lo había.

El uso de un solo transmisor se consideraba peligroso porque, si la señal recibida era más débil de lo que debería ser, el operador creería que estaba más lejos de la costa de lo que realmente estaba. Fessenden recomendaba usar tres transmisores, ya que incluso si todas las señales eran débiles, se obtendría la posición correcta, pues los tres rangos solo se intersectarían en un punto. No se detalla más en la patente, pero tal vez Fessenden pensó que el operador podía sumar o restar cantidades iguales a los tres rangos hasta que se encontraran en un punto.

Entre las ideas muy originales de Fessenden destacan:

(i) la primera descripción de la necesidad de múltiples transmisores para obtener una localización geométricamente precisa;

(ii) un método para distinguirlos (multiplexado en el tiempo);

(iii) el primer intento de cobertura de área en lugar de sistemas de localización por dirección desde un solo punto;

(iv) el uso de un estándar de referencia local para calibración.

3.2. H. M. Mottez, Especificación Francesa SJJ629, 24 de abril de 1923

Al final de la Primera Guerra Mundial, se había avanzado mucho en radiogoniometría, incluyendo el tipo rotatorio. Estos sistemas usaban una antena direccional rotatoria mecánica, del tipo lazo o Bellini–Tosi; el usuario anotaba la hora en que ocurría el mínimo de señal (null) y a partir de ello deducía su rumbo. El problema era que los lazos radiaban de forma ineficiente y tenían poco alcance, lo cual fue precisamente lo que Mottez intentó solucionar.

Decidió mejorar el alcance usando grandes antenas verticales fijas de mucha mayor eficiencia de radiación. Como no podían girarse mecánicamente, logró un patrón de señal rotatorio variando diferencialmente la fase de las señales enviadas a las antenas. Alimentar dos antenas desfasadas no era nuevo, pero lo novedoso fue la idea de cambiar la fase de forma continua y cíclica por medios eléctricos.

Mottez se dio cuenta de que este principio podía extenderse para producir múltiples nulls que aumentaran la precisión, aunque también generarían ambigüedades.

Su primer diagrama —probablemente la primera vez que se ilustró el principio hiperbólico en relación con sistemas de radio— mostraba dos antenas, A y B, separadas dos longitudes de onda, alimentadas desde un único transmisor y, por tanto, transmitiendo a la misma frecuencia y fase. Las señales estarían en fase a lo largo de la extensión de la línea base; en el bisector derecho de la misma; y en otras dos líneas que serían hipérbolas, ya que unirían todos los puntos donde la diferencia de distancia desde las dos antenas fuera un múltiplo de una longitud de onda. A mitad de camino entre estas líneas, no se oiría nada, pues las señales estarían exactamente desfasadas y se cancelarían.

Su segundo diagrama mostraba el caso en que la fase de B se adelantaba respecto a A. Las hipérbolas se desplazaban hacia A, y al cambiar la fase un ciclo completo, el patrón volvía al punto de inicio.

El navegador solo necesitaba un receptor simple y oía una señal que variaba en intensidad de forma cíclica. Sabiendo que el ciclo se repetía, por ejemplo, cada minuto, solo debía cronometrar el retardo hasta que la señal desapareciera momentáneamente para saber en qué hipérbola estaba.

 

 

Mottez reconoció que habría problemas de ambigüedad y los describió en detalle. Señaló que si la distancia entre antenas o la frecuencia aumentaban, aparecerían más hipérbolas más cercanas entre sí, lo que aumentaría la precisión, pero también la incertidumbre sobre cuál era la correcta (problema de identificación de franjas). Lo resolvió cambiando periódicamente a una frecuencia más baja para generar patrones más amplios que resolvieran los más finos. También recomendó elegir combinaciones de frecuencias y longitudes de base según el uso: patrones amplios para navegación marítima a larga distancia, y patrones estrechos y precisos para entradas de puerto.

Finalmente, describió métodos para lograr el cambio de fase continuo, que en 1923 solo podían ser electromecánicos, sugiriendo alternadores separados para cada antena conectados mediante un engranaje diferencial para asegurar que uno girara ligeramente más lento que el otro.

No se sabe si el sistema fue probado en la práctica. Superaba el principal problema del sistema de Fessenden —mantener la amplitud precisa— pero introducía otro: el control de fase. Aun así, requería cierto control de amplitud, ya que los nulls perfectos solo ocurren si ambas señales tienen exactamente la misma amplitud además de estar desfasadas 180°. Es dudoso que en 1923 la ingeniería electrónica pudiera controlar la fase de forma exacta y continua.

El sistema solo podría haber sido usado como ayuda de navegación desde un solo punto, ya que ambas antenas transmitían a la misma frecuencia y un tercer transmisor introduciría más patrones que harían el sistema inutilizable. Además, un problema básico de los sistemas que usan solo la amplitud como indicador de diferencias de fase es que no indican el sentido ni la dirección.

Aun así, el uso de la fase para producir variaciones de amplitud fue significativo. Hay similitudes con los sistemas Sonne/Consol, Decca y Omega, y es destacable la aparición de la idea de que se podrían necesitar sistemas estructuralmente distintos para navegación y para levantamientos geodésicos.

Mottez puede ser reconocido por:

(i) la primera descripción de un sistema de radio basado en hipérbolas;

(ii) la primera mención del problema de ambigüedad;

(iii) la primera sugerencia sobre cómo resolverlo;

(iv) darse cuenta de que la navegación y la topografía tienen necesidades distintas.

3.3. H. A. Affel, EE.UU. IS6248S, 24 de noviembre de 1923

El “Indicador de Movimiento y Posición” de H. A. Affel fue diseñado para utilizar dos antenas separadas cierta distancia entre sí, alimentadas simultáneamente desde un único transmisor y, por tanto, radiando la misma frecuencia y en fase; muy similar a la idea de Mottez, pero con líneas base más largas.

La diferencia crucial con respecto a Mottez fue que Affel propuso realizar la medición de fase en su receptor y eliminar por completo las mediciones de amplitud, proporcionando así un sentido de dirección. Describió métodos para eliminar las variaciones de amplitud antes de realizar las mediciones de fase, y por lo tanto fue el primer sistema auténtico de comparación de fase.

Antes de poder realizar la comparación de fase, debía separar las dos transmisiones (de lo contrario, estaría tratando con una señal compuesta como la de Mottez), y propuso hacerlo usando antenas direccionales con nulls (mínimos) muy agudos. Estas se alinearían de manera que sus nulls bloquearan la estación no deseada, y sus salidas se combinarían en un circuito especial sensible únicamente a la diferencia de fase.

Con solo dos transmisores, no podía ser un sistema de localización completa, ya que solo se obtendría una línea de posición, así que decidió que para obtener una localización (fix) se necesitarían cuatro estaciones dispuestas en un cuadrado. Estas no podrían separarse usando antenas direccionales, ya que se necesitarían tres nulls por cada antena y ningún lazo podría proporcionarlos, por lo que invirtió el sistema e hizo que el vehículo transmitiera, convirtiendo las cuatro estaciones en receptores.

Las cuatro estaciones se conectarían en pares para obtener diferencias de fase, y los dos conjuntos de hipérbolas así obtenidos se usarían para calcular una posición (véase Fig. 3). No se dijo nada sobre la resolución de ambigüedades, aparte de un comentario pasajero de que se debía llevar un seguimiento preciso de cada ciclo completo de diferencia de fase.

Pudo haber sido perfectamente funcional, aunque solo una embarcación podría haberlo utilizado a la vez. Dado que solo se medían diferencias, cualquier desviación en el transmisor de la embarcación no importaba (dentro de ciertos límites), y la amplitud era irrelevante.

El principal problema era realizar una comparación de fase precisa entre señales recibidas en dos sitios bastante separados entre sí. Las señales debían ser llevadas a un punto común para realizar la medición, y en el trayecto sufrían desplazamientos de fase. Aunque Affel preveía el uso de cambiadores de fase fijos en estas líneas para compensar y calibrar cualquier diferencia, es dudoso que las estabilidades de fase alcanzables en esa época fueran lo suficientemente constantes como para evitar una recalibración casi continua.

 

 

Affel parecía ser consciente de ello, ya que en otra parte de su patente describía el uso de una frecuencia mucho más baja, menos susceptible a desplazamientos de fase a través de las líneas telefónicas de la época, para transmitir la fase de una frecuencia más alta a un punto remoto.

Uno de los aspectos más interesantes de su patente fue que sugirió mostrar la posición en forma de un mapa. Dos punteros que se desplazaban sobre un mapa en ángulos rectos —un trazador X-Y— serían accionados por las salidas de los dos pares de receptores, que estarían situados con sus líneas base también en ángulos rectos. De este modo, según afirmaba, la posición de la embarcación se mostraría directamente sobre el mapa.

No mencionó nada sobre la proyección cartográfica necesariamente peculiar ni sobre cómo debía dibujarse el mapa. Posiblemente pensaba que, si las líneas base eran lo suficientemente largas en relación con el área a cubrir, habría tan poca distorsión que no se necesitaría un mapa especial.

A Affel se le puede atribuir el mérito de:

(i) haber hecho la primera propuesta de usar directamente diferencias de tiempo;

(ii) el primer uso de la fase con ese propósito;

(iii) la primera mención de un trazador de trayectoria.

Su patente marca el punto en el que la comparación de fase pasó a ser aceptada como el mejor método para realizar mediciones de distancia, aunque la tecnología aún no había avanzado lo suficiente como para hacerlo realmente práctico, y la adaptación a un sistema de navegación funcional tuvo que esperar un poco más.

Affel también es reconocido por haber inventado un cable coaxial práctico, sin el cual difícilmente habría sido posible el desarrollo de sistemas de radar o microondas.

 

33.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (IV) 1923-1937.-

 

Este período abarca una época en la que se fueron resolviendo cada vez más problemas técnicos relacionados con los sistemas hiperbólicos, con un número creciente de patentes registradas y pruebas realizadas. Sin embargo, el impulso para construir un sistema realmente práctico no surgió hasta el estallido de la Segunda Guerra Mundial. La razón era tanto económica como técnica. Durante estos años de entreguerras volaban relativamente pocos aviones, y la demanda de navegación precisa en todo tipo de clima era escasa. Aunque los sistemas de aerolíneas civiles europeas y estadounidenses se estaban estableciendo lentamente, no eran un factor importante en el transporte, ya que eran lentos, poco fiables y aún más propensos a cancelaciones que en la actualidad. Casi todos los vuelos se realizaban únicamente sobre tierra y durante el día, utilizando la lectura de mapas y la radiogoniometría como únicas ayudas a la navegación. En EE. UU. se introdujo en 1934 el mal llamado “Radio-range” (en realidad era un sistema de orientación) para vuelos transcontinentales, y luego se fue implementando lentamente en Europa. Los pocos vuelos de larga distancia que existían dependían de la lectura de mapas sobre tierra (¡si es que existía un mapa!) y de los métodos tradicionales de navegación marítima: observaciones astronómicas y estima con brújula y velocidad aérea sobre el agua.

Se prestaba muy poca atención a la navegación en la aviación militar, ya que se consideraba que su función era apoyar al ejército a corta distancia o bien la defensa, también de corto alcance, para lo cual bastaba con la lectura de mapas y un uso limitado de la radiogoniometría. La navegación la realizaba el propio piloto, que no contaba con piloto automático y no podía dedicar esfuerzos a mucho más que leer el mapa.

4.1. E. J. Green, Patente de EE. UU. n.º 1,750,668, 8 de diciembre de 1925.
Este sistema medía la distancia entre dos estaciones haciendo que la primera transmitiera una señal modulada en una frecuencia particular, la cual era retransmitida por la segunda estación en otra frecuencia, pero manteniendo la fase de la modulación. La fase de la modulación de retorno se comparaba con la de la señal saliente, lo que proporcionaba la distancia (aunque con cierta ambigüedad). Su relevancia para los sistemas hiperbólicos radica en que parece ser la primera vez que se superaron los problemas inherentes de separar señales con bloqueo de fase enviadas en la misma frecuencia desde dos sitios distintos, transmitiendo la señal de fase como una modulación sobre diferentes frecuencias portadoras.

4.2. Albersheim y Konheim, Patente de EE. UU. nº 1,995,285, 25 de enero de 1929.

Este fue un paso adicional, en el que se abandonó la idea de Green de modular portadoras separadas con una modulación relacionada en fase, y se restableció el uso de las propias portadoras para transmitir la información de fase. Aún se transmitía en frecuencias diferentes, como en el sistema de Green, pero ahora las frecuencias debían estar relacionadas de tal manera que, mediante multiplicación, pudiera derivarse una frecuencia común para la comparación de fase.

Se observó que ahora era posible igualar las amplitudes de ambas frecuencias en el receptor antes de la comparación de fase. Esto había sido un problema importante, ya que comparar la fase de dos señales con amplitudes muy diferentes es bastante difícil (como Affel había descubierto cuatro años antes).

El método permitía que una estación esclava recibiera directamente la transmisión de la estación maestra y la utilizara para bloquear en fase continuamente su propia transmisión, lo que hacía posible el uso de líneas base más largas.

Aquí vemos el germen de una idea que eventualmente daría lugar a toda una familia de sistemas hiperbólicos. Esta patente mencionaba específicamente a los “dirigibles” como usuarios (aunque probablemente no se refería literalmente a aeronaves más ligeras que el aire).

4.3. M. Harms, Patente alemana nº 546000, 1930.

No se sabe si Harms conocía o no las patentes anteriores, pero sus propuestas eran notablemente similares, aunque llevaban el concepto un paso más allá hacia el desarrollo de una cadena completa de transmisores. Tenía los transmisores operando en frecuencias de radio distintas pero armónicamente relacionadas, de modo que el receptor multiplicaba cada frecuencia hasta alcanzar un valor común para la comparación de fase.

También tenía su cadena de transmisores funcionando en un sistema de líneas base cruzadas, similar al de Affel (1925).

El sistema de Harms fue descrito en un libro de texto alemán sobre sistemas de radio para aeronaves (Fassbender, Berlín, 1932), pero no parece que haya tenido continuidad, ya que los esfuerzos alemanes aparentemente se concentraron más en sistemas de haz fijo y haz rotativo.

Harms no describió ningún sistema para la resolución de ambigüedades, y ese pudo haber sido el problema.

4.4. E. Honoré (Francia), Patente de EE. UU. nº 2,148,267, 1935.
Siempre existieron problemas prácticos para lograr un bloqueo de fase preciso entre dos transmisores, incluso cuando operaban en frecuencias diferentes. La recepción del transmisor distante a veces era difícil y, aunque el transmisor local estuviera correctamente sincronizado, se producían desplazamientos de fase no deseados debido a los efectos meteorológicos sobre el sistema de antena.

Honoré ideó un nuevo método para lidiar con estos desplazamientos de fase: simplemente dejar que ocurrieran y luego corregirlos supervisando la diferencia de forma remota y transmitiéndola al usuario como una señal de radio separada. El receptor del usuario obtenía las correcciones a partir de esta señal adicional y las aplicaba al par maestro/esclavo, de una manera muy similar a los sistemas GPS diferenciales actuales.

Era un método poderoso y más adelante fue ampliamente utilizado en los sistemas franceses de posicionamiento por radio Toran, Lorac y Rana. Su desventaja era que la implementación de la resolución de ambigüedades era difícil, lo que impedía su uso en la navegación ordinaria. Sin embargo, dominó el pensamiento francés en el campo de la radionavegación durante muchos años después.

4.5. J. P. Shanklin, Patente de EE. UU. nº 2,144,203, 1937.
Shanklin intentó desarrollar un sistema libre de ambigüedades utilizando múltiples frecuencias de modulación armónicamente relacionadas. Los transmisores operarían con “cualquier frecuencia deseada”, realizándose la comparación de fase sobre la modulación. En ciertos aspectos, era un retorno a la patente de Green de 1927, pero considerablemente ampliada.

Las múltiples frecuencias aumentarían en pasos de un factor de diez, comenzando desde una frecuencia lo suficientemente baja como para tener una longitud de onda al menos igual a la línea base más larga entre dos transmisores. La modulación de frecuencia más alta (es decir, con franjas más estrechas) se usaría para proporcionar la máxima precisión del sistema, mientras que cada división sucesiva por diez resolvería las ambigüedades de la frecuencia inmediatamente superior.

Así, se trataría de un sistema muy preciso y sin ambigüedades, y anticipaba el uso de la identificación de franjas (lanes) y zonas en el sistema Decca. Es posible que Shanklin no llegara a realizar pruebas experimentales con este sistema, ya que más adelante W. J. O’Brien (conocido por su trabajo en Decca) demostró que una proporción de 10:1 entre las frecuencias utilizadas para la resolución de ambigüedades es demasiado alta, y que una relación de aproximadamente 3:1 es más práctica, al menos a frecuencias portadoras bajas.

Otro problema práctico habría sido que las múltiples frecuencias de modulación hacían que se tratara de una señal de banda ancha, y los transmisores habrían tenido que emitir con una potencia considerable, lo que convertía al sistema en costoso de implementar.

El sistema posterior Loran-C, que también era de banda ancha y debía transmitir varios cientos de kilovatios de potencia por la misma razón, no resultaba tan problemático porque era un sistema de impulsos (pulse system) y tenía un ciclo de trabajo relativamente bajo. El sistema de Shanklin, en cambio, habría sido de onda continua (continuous wave) con un ciclo de trabajo del 100%.

 

34.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (V) 1937-POSTERIORMENTE, (1).-

 

La radionavegación aérea en 1937, fuera de los Estados Unidos, consistía casi por completo en sistemas de radiogoniometría, tanto desde el propio avión como desde redes terrestres que recibían transmisiones del avión. Se utilizaban frecuencias alrededor de los 300 kHz, y la falta de fiabilidad durante la noche, causada por los efectos de la onda ionosférica (sky wave), hacía que la radio no se utilizara con gran confianza excepto a distancias cortas. Utilizar la antena direccional (DF loop) de un avión requería bastante habilidad y solo podía proporcionar un rumbo (dirección) a la vez. Para obtener una posición fiable se necesitaban al menos dos —preferiblemente tres— rumbos combinados con navegación estimada (dead-reckoning) para compensar el retraso entre la toma de cada uno —claramente, no era un sistema operado por el propio piloto.

Los rumbos tomados por una red terrestre a partir de las transmisiones de un avión eran más fiables, ya que las estaciones terrestres utilizaban sistemas de antenas Adcock, menos propensos a los efectos de la onda ionosférica que una antena de bucle de avión. Sin embargo, todavía había un retraso mientras las tres estaciones correlacionaban sus rumbos y calculaban una posición. Era un sistema inutilizable en tiempos de guerra, ya que revelaba la posición del avión, y además no podía ser utilizado por más de un avión al mismo tiempo.

En los Estados Unidos, las «radio-ranges» (rutas aéreas radioeléctricas) habían sido ampliamente adoptadas para la navegación en aerovías civiles con bastante éxito, aunque no permitían rutas aleatorias y eran inflexibles. También sufrían por la onda ionosférica nocturna como cualquier otro sistema de media frecuencia (MF), pero podían ubicarse lo suficientemente juntas sobre el territorio continental estadounidense como para que no representara un problema serio.

Ninguno de estos sistemas era aplicable a la navegación militar sobre territorio hostil y, cuando las perspectivas de una guerra en Europa se hicieron evidentes, comenzaron a destinarse recursos al desarrollo de nuevos sistemas de radio de todo tipo. La mayor parte de este trabajo fue necesariamente mantenida en secreto y no se hizo público, una de las consecuencias de lo cual es que existen pocos registros oficiales disponibles; la mayoría de la información proviene de memorias personales.

Aparte del sistema estadounidense de «radio-range», Alemania lideraba el desarrollo de sistemas precisos de guiado por radio para aterrizajes en condiciones meteorológicas adversas (el sistema de aproximación ciega por haz Lorenz, desarrollado en 1932, seguía siendo utilizado por la Royal Air Force en 1940 bajo el nombre SBA —Standard Beam Approach). También se desarrollaron sistemas como Sonne, Wullenweber, Knickebein y otros similares, pero solo Sonne era fundamentalmente hiperbólico y los demás no se tratan aquí (aunque pueden consultarse, por ejemplo, en las referencias 5 y 6).

El primer trabajo real sobre un sistema hiperbólico operativo ocurrió, de forma bastante sorprendente, en Gran Bretaña; sorprendente porque hasta ese momento casi no se había trabajado en ello allí, si se toma como indicador la total ausencia de patentes británicas. Fue impulsado por la toma de conciencia de que, aunque la RAF se estaba fortaleciendo con una flota de bombarderos como núcleo, y se estaban realizando trabajos avanzados en el diseño de bombarderos (la especificación original — B12/36 — de la que surgió el Lancaster fue redactada en 1936), se estaba haciendo muy poco para asegurar que realmente pudieran encontrar sus objetivos.

La RAF solo incorporó navegantes cuya única tarea era la navegación a sus tripulaciones a partir de 1942 y, en la edición de 1935 del AP 1234, el Manual de Navegación Aérea de la RAF, de unas 300 páginas, solo 12 estaban dedicadas a ayudas por radio, casi todas sobre la calibración de antenas direccionales (DF loops).

En 1937, Sir Edgar Ludlow-Hewitt fue nombrado Comandante en Jefe del Mando de Bombarderos y realizó una inspección de su nuevo mando. Informó que la navegación era su mayor deficiencia, tanto en lo que respecta a las ayudas a la navegación como a la capacidad para utilizarlas. Su informe decía:

«Una fuerza aérea para buen tiempo es relativamente inútil… nuestra Fuerza de Bombardeo es, juzgada con estándares de guerra, prácticamente inútil y no puede aprovechar las excelentes características de sus nuevos y costosos aviones».

La historia del desarrollo del radar por parte de Watson-Watt es bien conocida; lo que no es tan conocido es que las primeras ideas que finalmente llevaron al sistema hiperbólico Gee surgieron de ese desarrollo del radar. Fue técnicamente viable gracias al desarrollo de transmisores de pulsos de alta potencia para radar, y se impulsó por la comprensión de que el mejor bombardero del mundo era inútil si no podía encontrar su objetivo. Antes de que se introdujeran las nuevas ayudas a la navegación por radio en 1942, menos del 1% de las bombas de la RAF caían dentro de 1 milla de sus objetivos.

En los Estados Unidos, el trabajo avanzó más lentamente, ya que no se percibía una inminente amenaza de guerra, hasta que se formó el Comité de Microondas bajo Alfred L. Loomis, que propuso el desarrollo de un sistema hiperbólico por pulsos en octubre de 1940. En ese momento, no estaban al tanto del trabajo británico sobre el Gee, y su propuesta fue sorprendentemente similar, aunque finalmente evolucionó de forma diferente hacia el sistema Loran.

Alemania apostó por los sistemas de haz para el bombardeo y nunca produjo un sistema hiperbólico operativo, aunque el sistema Sonne (Consol) puede clasificarse marginalmente como hiperbólico y ha sido incluido aquí. De hecho, hubo al menos dos sistemas hiperbólicos en desarrollo en Alemania durante la Segunda Guerra Mundial (Bodentruhe e Ingolstadt), pero por diversas razones, ninguno llegó a concretarse.

En retrospectiva, resulta curioso que eligieran sistemas de haz. Los haces, por su naturaleza, se vuelven menos precisos a medida que aumenta la distancia (justo lo contrario de lo que se necesita en una ayuda para bombardeo), pero probablemente su mayor desventaja es que, una vez detectados por los defensores, revelan inmediatamente el destino de los bombarderos y permiten tomar medidas adecuadas, como ocurrió en la Segunda Guerra Mundial una vez que los británicos detectaron los sistemas Knickebein y X-Gerät. Un sistema hiperbólico, por supuesto, no da ninguna indicación de este tipo.

5.1.- Desarrollos en el Reino Unido.-

5.1.1. El sistema ‘Gee’

La demostración de Watson-Watt en 1931 sobre las posibilidades del radar para detectar aeronaves provocó que en el Reino Unido se comenzara a trabajar intensamente en el desarrollo de transmisores de pulsos de alta potencia y, con igual importancia, en métodos para presentar los ecos de las aeronaves a los operadores. Solo podía hacerse mediante presentación visual, lo que requería diseñar bases de tiempo estables y precisas para tubos de rayos catódicos. En 1935, los osciloscopios de rayos catódicos (u oscilógrafos, como se les llamaba entonces) aún eran instrumentos de laboratorio, y de ningún modo estaban ampliamente disponibles ni eran baratos. Los pocos televisores que existían en ese momento eran caros, prácticamente hechos a mano, y poco fiables.

Como ya se ha mencionado, el principal problema común a todos los sistemas hiperbólicos descritos anteriormente era la medición del tiempo. No existía ningún medio para medir directamente microsegundos, lo que obligaba a los diseñadores a usar la comparación de fase de ondas continuas, con su consiguiente problema de ambigüedad. Una vez que fue posible transmitir pulsos muy breves, se comprendió de inmediato la posibilidad de crear sistemas no ambiguos, pero no existía forma de medir intervalos cortos de tiempo que pudiera usarse en un sistema operativo por operadores relativamente poco capacitados. El desarrollo de tubos de rayos catódicos fiables y sus bases de tiempo asociadas proporcionó la solución.

En octubre de 1937, R. J. Dippy, quien entonces formaba parte del equipo de Watson-Watt, ideó un sistema que utilizaba transmisores de pulsos y una pantalla de tubo de rayos catódicos (CRT) para medir la diferencia en el tiempo de llegada de dos pulsos emitidos desde dos transmisores situados a unos 10 millas de distancia entre sí y con una línea base perpendicular (a 90°) a una pista de aterrizaje. Se enviarían pulsos sincronizados desde ambos transmisores, y la diferencia entre su recepción se visualizaría en la pantalla CRT. Cuando no hubiera retraso, los pulsos se verían como uno solo, lo que indicaría que el avión estaba sobre la bisectriz de la línea base, es decir, alineado con la pista. Si el avión estaba desviado, se observaría un retardo, y, al identificar cuál de los dos pulsos llegaba primero, el piloto podría saber a qué lado de la pista se encontraba y corregir el rumbo en consecuencia.

Watson-Watt señala que pensaba que el sistema era totalmente viable y, además, que era necesario, pero había necesidades aún más urgentes y, con pesar, tuvo que dejarlo en suspenso temporalmente.

Tal vez fue lo mejor. El dispositivo habría requerido interpretación directa por parte del piloto, y los tubos CRT de la época eran muy tenues y solo podían leerse a plena luz del día usando una capucha de oscurecimiento y permitiendo que los ojos se adaptaran a la oscuridad. Cuesta imaginar a un piloto descendiendo desde la brillante luz sobre las nubes confiando únicamente en lo que pudiera ver en una pantalla tenue. Además, tendría que apartar la vista de la pantalla para el momento del aterrizaje final y podría haber quedado totalmente deslumbrado durante esos segundos cruciales. Por la noche no habría sido tan problemático, por supuesto, pero en ese momento apenas se realizaban vuelos nocturnos. Varios años después, el sistema BABS (Blind Approach Beam System) hizo prácticamente lo mismo, pero era interpretado por el navegante.

En 1938, el Dr. (ahora Profesor) R. V. Jones, aparentemente sin conocimiento de la propuesta anterior de Dippy, también sugirió el uso de transmisores de pulsos para formar un sistema hiperbólico, pero sin éxito.

La idea de Dippy quedó inactiva hasta 1940, cuando crecientes pruebas de deficiencias en la navegación la volvieron a poner sobre la mesa. Había sido refinada, y ahora se presentaba como una ayuda para la navegación más que para el aterrizaje. Las nuevas propuestas de Dippy consistían en una estación maestra con hasta tres estaciones esclavas dispuestas alrededor de ella, con líneas base de 80 millas, lo que permitiría una cobertura casi completa en todas las direcciones. Él pensaba que funcionaría hasta unas 100 millas desde la estación maestra, pero las primeras pruebas de vuelo a finales de 1940 demostraron que era mucho mejor que eso (más adelante se lograron alcances de hasta 350 millas). Dippy recibió la patente británica nº 81602 en diciembre de 1942 por su invención.

Es interesante que los principales usos inicialmente previstos para el sistema fueran más bien locales: el ensamblaje preciso de grandes formaciones de bombarderos después del despegue y su recuperación exacta a la base o a aeródromos alternativos tras la misión. Una de las razones era que se subestimó en gran medida el alcance de las señales de 30 MHz, como también había ocurrido con el sistema Knickebein, que operaba en la misma banda de frecuencias. Más tarde, se pensó que podría proporcionar a los navegantes suficiente información de posición durante el trayecto hacia el continente para calcular vientos precisos para la navegación estimada posterior, pero se asumía que sería interferido sobre Alemania en un plazo de unos tres meses desde su puesta en funcionamiento y que, por tanto, no sería útil para bombardeos después de eso. En realidad, pasó más de un mes antes de que eso ocurriera, y fue una de las principales ayudas utilizadas en la incursión de los 1000 bombarderos sobre Colonia en mayo de 1942.

El principio de funcionamiento del Gee¹⁰ consistía en la transmisión de pulsos breves (de 6 microsegundos) en frecuencias alrededor de los 30 MHz (más tarde extendidas hasta 80 MHz) desde una estación maestra, que eran recibidos en hasta tres estaciones esclavas y utilizados para sincronizar sus propias transmisiones, que luego se emitían en la misma frecuencia que la estación maestra (ver Fig. 4). Por tanto, una transmisión esclava normalmente se recibiría después de la maestra, pero en la extensión de la línea base detrás de la estación esclava, la diferencia sería cero y los pulsos se solaparían. Tanto por esta razón como porque la estación esclava no podía transmitir instantáneamente al recibir la señal maestra, se incorporó un retraso fijo en el transmisor esclavo.

 

 

Se necesitaba algún método para identificar una estación esclava de otra, y esto se logró mediante una combinación de retrasos distintos y haciendo que las señales de las esclavas tuvieran apariencias visuales diferentes en el tubo de rayos catódicos (CRT) del operador. Así, la estación maestra (A) siempre aparecía al inicio de ambas trazas en una presentación de doble traza; la esclava B aparecía después de la maestra en la traza superior, la esclava C después de la maestra en la traza inferior, y la esclava D aparecía en ambas trazas pero como un pulso doble.

El pulso A correcto para iniciar la base de tiempo se seleccionaba haciendo que el transmisor A emitiera al doble de velocidad que los demás, pero haciendo que cada dos pulsos, uno fuera doble. El resultado final en la visualización de la base de tiempo era como se muestra en la Figura 5.

El pulso A1 (o «A-ghost», como se le conocía) también se utilizaba como identificador de cadena, haciéndolo parpadear en un patrón único para cada cadena. Esto era necesario porque el receptor Gee tenía que ser de banda ancha, y en ocasiones se podían ver señales de dos cadenas diferentes en frecuencias adyacentes al mismo tiempo.

 

 

La base de tiempo en sí no estaba sincronizada directamente con el pulso de la estación maestra, sino que era generada por un oscilador de funcionamiento libre, que podía ajustarse ligeramente mediante un control manual. Si no estaba correctamente sincronizado, los pulsos se desplazaban hacia la izquierda o la derecha, y el procedimiento consistía en detener ese desplazamiento con un control de ajuste, mientras se llevaban los pulsos A al borde izquierdo de la base de tiempo.

Luego, se colocaban pequeños pedestales (marcadores) debajo de las estaciones esclavas que se deseaban usar y se activaba una base de tiempo ampliada. Tras la alineación final de los pulsos, se conmutaba a una pantalla de medición de tiempo, y se contaban visualmente los retardos de tiempo de cada estación esclava. Esto podía hacerse con precisión porque se apagaban las señales y se obtenía una pantalla libre de ruido.

Por diversas razones, el conteo del tiempo no se hacía directamente en microsegundos (como en el sistema Loran), sino en «unidades Gee», equivalentes a 66,66 microsegundos. Se lograba una precisión de medición de 1 microsegundo, lo que representaba una precisión en la línea de posición de aproximadamente 150 metros en el mejor de los casos. Dos de estas líneas permitían una precisión de fijación de alrededor de 210 metros, aunque otros errores del sistema podían duplicar esta cifra. A distancias más largas —por ejemplo, a 350 millas— la elipse de error era de aproximadamente 6 millas por 1 milla.

Aunque hoy en día esto no parece notable, en su momento fue revolucionario y muy superior a cualquier otro método de posicionamiento disponible.

Las unidades receptoras e indicadores del Gee Mk. 2 se muestran en la Figura 6.

Se establecieron varias cadenas Gee en el Reino Unido y, después de 1944, también en el extranjero. En 1948 había cuatro cadenas en el Reino Unido (ver Figura 7), dos en Francia y una en Alemania. El Gee se convirtió en una de las ayudas a la navegación aérea por radio más extendidas de su época, convirtiéndose en estándar en la Octava Fuerza Aérea de EE.UU., así como en la RAF.

 

35.-ARTÍCULO DE W. F. BLANCHARD ‘AYUDAS RADIOELÉCTRICAS DE NAVEGACIÓN AÉREA HIPERBÓLICAS — LA HISTORIA Y EL DESARROLLO DESDE LA PERSPECTIVA DE UN NAVEGANTE’. (V) 1937-POSTERIORMENTE, (2).-

 

5.1.2. El sistema de navegación Decca.
Aunque fue inventado y promovido por dos ciudadanos estadounidenses, fue en el Reino Unido donde este sistema se desarrolló y, por esa razón, se incluye aquí. Algunos también afirman que nunca fue una ayuda a la navegación aérea real, pero lo cierto es que ha sido, y sigue siendo, utilizado por muchas aeronaves, aunque nunca fue adoptado oficialmente como un sistema recomendado por la OACI.

Los orígenes tempranos de Decca han sido bien documentados por Powell,¹² cuyo artículo debería consultarse para obtener más detalles. Aquí basta con señalar que el sistema fue concebido originalmente por W. J. O’Brien en los Estados Unidos como un método para medir la velocidad respecto al suelo de las aeronaves con fines de ensayo, y de hecho originalmente se denominó “Aircraft Position Indicator” (Indicador de Posición de la Aeronave). Sin conocimiento de las patentes de Harms o Honore, y aparentemente sin siquiera ser consciente del trabajo que se estaba llevando a cabo en los Estados Unidos por Shanklin, Donnelly y Holmes, O’Brien trabajó de forma independiente en el sistema entre 1936 y 1939. No logró despertar el interés de ninguna de las Fuerzas Armadas de los Estados Unidos ni de las autoridades civiles, y el proyecto quedó en suspenso hasta el estallido de la guerra en 1939. Entonces ofreció la idea al Ministerio del Aire a través de su amigo H. F. Schwarz, un estadounidense que trabajaba en Londres para la compañía discográfica Decca. Ninguno de los dos conocía el trabajo que se estaba desarrollando sobre sistemas de impulsos, y la idea fue rechazada por Watson-Watt por considerarla demasiado vulnerable a interferencias y a la guerra electrónica.¹³

O’Brien y Schwarz, con el apoyo de Decca, probaron entonces un sistema prototipo en California utilizando un transmisor maestro a 300 kHz y uno esclavo a 600 kHz. La comparación se realizaba a 1200 kHz y su precisión se demostró en un automóvil. Esto probó la viabilidad básica del sistema, siendo la principal diferencia con respecto a propuestas anteriores el uso de diferentes frecuencias de radio, relacionadas armónicamente, para la transmisión, superando así el problema de identificación, y la comparación de fase en el mínimo común múltiplo de las ondas portadoras, sin necesidad de ningún tipo de modulación. Era una solución ingeniosa y tenía la ventaja adicional de ocupar un ancho de banda muy estrecho, que no requería altas potencias de transmisión, pero no eliminaba la ambigüedad.

El Almirantazgo, previendo futuros desembarcos en Francia y la necesidad de una navegación precisa, comenzó a interesarse por Decca en 1941 y organizó una prueba frente a Anglesey a mediados de 1942, para la cual se utilizaron las mismas frecuencias y equipos que en California. El resultado fue muy satisfactorio y llevó a que Decca continuara el trabajo con la ayuda del Admiralty Signals Establishment. En 1943 se decidió que la elección de frecuencias había sido deficiente y se adoptó un nuevo plan basado en una frecuencia común mínima de alrededor de 14 kHz, lo que dio lugar a las conocidas frecuencias de transmisión Decca r, 6, 8 y 9 f, donde f = 14 kHz. Es interesante señalar que 7 f, que habría sido 98 kHz, no se utilizó porque, incluso entonces, se estaba pensando en un nuevo sistema no muy distinto de Loran-C (que, por supuesto, aún no había sido diseñado en esa época), que operaría a 100 kHz.

En enero de 1944 se llevó a cabo una prueba de Decca (o QM, como se lo conocía entonces) en sus nuevas frecuencias en el mar de Irlanda, y también se lo comparó con Gee (entonces conocido como QH). Se comprobó que Decca tenía mayor alcance y precisión a nivel del mar, lo que condujo a su adopción para la parte naval de la operación Overlord, la invasión de Normandía, durante la cual 17 buques lo utilizaron para el dragado de minas. Nunca fue interferido y, hasta donde se sabe, su existencia durante la guerra nunca fue sospechada por los alemanes.

Después de la guerra se implantó como ayuda a la navegación marítima, para lo cual era especialmente adecuado; de hecho, tan adecuado como Gee lo era para la aviación. Los problemas de ambigüedad nunca estuvieron lejos y en 1947 se introdujo un sistema de identificación de calles (lanes), que solo fue una solución parcial y no resolvió completamente la cuestión. No fue hasta mediados de la década de 1950, con la introducción de la técnica de “multipulso” (Multipulse), cuando la identificación fiable de calles hasta el mismo alcance que el patrón básico eliminó casi por completo las ambigüedades.

En la década de 1960, Decca realizó un esfuerzo muy considerable para lograr que la OACI lo adoptara como ayuda estándar de navegación aérea en lugar de VOR/DME, lo que incluso incluyó el establecimiento de cadenas especiales en los Estados Unidos a expensas de Decca, pero sin éxito.

Además de la considerable inversión ya realizada en VOR/DME, los problemas técnicos de ambigüedad y de interferencias por electricidad estática debida a precipitaciones, ambos más graves para aeronaves que para buques, jugaron en su contra, así como el hecho de que, con un alcance fiable de unas 200 millas, una sola cadena Decca que requería cuatro transmisores cubría poco más de área que una sola instalación VOR/DME. En aquel momento, estaba instalado en la flota Viscount 701 de British European Airways, así como en muchos aviones más pequeños y helicópteros, y probablemente fue su punto más alto como ayuda de navegación aérea. En 1974, el Sr. H. Schwarz, director gerente de Decca Navigator, admitió que Loran-C probablemente era una mejor ayuda para aeronaves (y, de paso, que la navegación por satélite sería mejor que ambas).¹⁴

 

 

Aunque Decca Navigator como sistema aerotransportado tuvo poco éxito, muchos otros dispositivos producidos por Decca fueron proféticos y se adelantaron mucho a su tiempo. El concepto de navegación de área (Harco), el ordenador aerotransportado de navegación de área (Omnitrac) y la pantalla cartográfica de cabina (Decca Flight Log) se originaron todos en Decca y desde entonces se han convertido en estándar.

Actualmente, Decca se utiliza principalmente en helicópteros y pequeños aviones de negocios que lo consideran útil para operar en aeródromos pequeños sin otras ayudas a la navegación.

5.1.3. POPI (Post Office Position Indicator). El Indicador de Posición del Servicio Postal de 1946 fue otro sistema de baja frecuencia (40 kHz) basado en comparación de fase que tenía algunas características de Consol y de Decca. Utilizaba antenas situadas sobre una línea base corta que radiaban la misma frecuencia, pero no de forma simultánea, alternando entre las dos antenas cinco veces por segundo. Debido a la corta línea base, las hipérbolas resultantes degeneraban muy rápidamente en radiales. Una tercera antena, equiespaciada de las otras dos, servía para resolver en cierta medida las ambigüedades, y existía un método novedoso para medir realmente las diferencias de fase, utilizando un cuarto transmisor situado en el centro de los otros tres. El sistema nunca llegó a ponerse en servicio, pero el trabajo realizado en él fue adquirido posteriormente por Decca (véase más abajo), después de que un sistema estadounidense, Navarho, utilizara algunas de sus ideas.

5.1.4. Delrac (Decca Long Range Area Cover). Tras su trabajo en tiempo de guerra sobre el sistema Decca Navigator, la compañía Decca propuso en febrero de 1946 que se instalara una versión de muy baja frecuencia (VLF) de Decca para cubrir el Atlántico Norte. La cadena estaría compuesta por dos estaciones en el oeste de Irlanda, orientadas de modo que generaran guía de trayectoria a lo largo del gran círculo entre Londres y Nueva York, con una tercera estación en Bermudas para proporcionar medición de distancia. Nunca se implementó, pero el trabajo teórico continuó y en 1951 se publicó un documento que describía un sistema completamente desarrollado que proporcionaba cobertura de gran área y no se limitaba a trayectorias específicas. Después de que Decca adquiriera los derechos de patente de POPI, la propuesta fue retomada y los detalles se difundieron ampliamente tanto en el Reino Unido como en los Estados Unidos en 1954, abarcando tanto este sistema como Dectra (véase más abajo).¹⁵ El sistema fue propuesto a la OACI para satisfacer un requisito de la RTCA de una ayuda de navegación precisa de largo alcance, y las presentaciones realizadas en los Estados Unidos incluyeron una en el Pentágono, donde se discutió en relación con un sistema estadounidense llamado Radux (véase más abajo), que entonces se estaba desarrollando bajo clasificación militar.

 

 

Para obtener cobertura mundial, Delrac habría utilizado unos 28 transmisores, considerando Decca que diseñar para alcances relativamente limitados y líneas base más cortas, pero usando más transmisores, proporcionaría un mejor sistema que intentar coberturas de muy largo alcance con solo unos pocos transmisores. Por lo demás, tenía muchas similitudes con Omega, que aún no había aparecido en ese momento. Delrac contaba con identificación de calles utilizando frecuencias de f, f + 1/3 f, 1 + 1/2 f y f + 1/2 f, proporcionando resolución de ambigüedades en pasos de 3:1. La experiencia de Decca con su sistema Navigator indicaba que 3:1 era el mayor paso que podía utilizarse con seguridad. En la descripción del sistema se publicó una tabla de posibles frecuencias de radio, siendo un conjunto de 10,2; 10,78; 11,333 y 13,600 kHz, las frecuencias que finalmente se utilizaron para Omega. La precisión declarada era mejor que 10 millas, al nivel del 95 %, hasta un alcance de 2000 millas. Aunque Delrac contó con apoyo del Gobierno del Reino Unido, no se llevó adelante, al ser sustituido por Dectra. Sin embargo, Decca afirmó que el equipo de diseño de Omega había utilizado las principales características de Delrac, lo que dio lugar a acciones legales en 1973 (véase más abajo).

5.1.5. Dectra. Dectra (Decca Track) se instaló para uso aeronáutico como consecuencia del requisito de la RTCA mencionado anteriormente, como complemento transatlántico de largo alcance del Decca Navigator.¹⁶ Su principal diferencia con respecto al sistema Delrac era que utilizaba la banda de frecuencias normal del Decca Navigator, de 70 a 130 kHz, y los transmisores existentes de las cadenas Decca Navigator de Escocia y Terranova (fig. 8), que habían sido equipados con antenas del doble de altura de lo habitual (600 pies) y transmisores con una potencia cuatro veces superior a la normal. La potencia radiada resultante era unas 20 veces mayor de lo habitual, suficiente para proporcionar señales utilizables durante el día hasta unas 350 millas, es decir, más de la mitad del Atlántico. A esa distancia, dado que los transmisores seguían estando dispuestos sobre las líneas base normales, relativamente cortas, del Decca Navigator (de 50 a 60 millas), el sistema funcionaba como un sistema de rumbos más que como uno hiperbólico, y estaba destinado únicamente a proporcionar guía de trayectoria, aunque se instaló un transmisor en Islandia y se propuso otro en las Azores para ofrecer información de distancia restante.

Dectra era una propuesta mucho más económica que Delrac y, en teoría, no requería que la aeronave llevara un receptor especial si ya disponía del Decca Navigator normal. En la práctica, sin embargo, sí fue necesario un receptor especial. Los transmisores utilizados fueron el maestro y los esclavos púrpura de la cadena Decca Navigator del este de Terranova y las cadenas Decca de Escocia, transmitiendo a alrededor de 70 kHz, cuyas líneas base, de manera fortuita, estaban alineadas de tal forma que sus bisectrices derechas discurrían en paralelo y formaban así una trayectoria continua a lo largo de la ruta de gran círculo a través del Atlántico. La intención era que las aeronaves navegaran utilizando el Decca estándar sobre tierra, emplearan las rutas Dectra sobre el océano y regresaran al Decca estándar al otro lado. En aquel momento existía cobertura continua de Decca a lo largo de la costa este de Canadá, así como sobre el Reino Unido, y el esquema podría haber tenido éxito si Decca hubiera sido adoptado para uso aeronáutico y la introducción de los navegadores inerciales se hubiera producido un poco más tarde.

Se instaló de forma experimental a bordo de aeronaves de varias aerolíneas, incluidas los efímeros DC-7S de BOAC (como se llamaba entonces British Airways) y Pan American.¹⁷ Dectra fue discontinuado a finales de la década de 1960, cuando los sistemas de navegación inercial se convirtieron en la ayuda estándar de largo alcance para las aerolíneas.

5.2. Evoluciones en los Estados Unidos. Como se indicó anteriormente, en EE. UU. no se realizó un gran esfuerzo en ayudas de navegación hiperbólicas hasta que quedó claro que no podrían evitar su implicación en la Segunda Guerra Mundial. Antes de 1940, las fuerzas militares estadounidenses eran pequeñas y estaban mal financiadas, y no existía una Fuerza Aérea independiente, sino únicamente los cuerpos aéreos del Ejército y la Marina. Al igual que en la mayoría de las fuerzas aéreas militares de la época, se había prestado poca atención a los problemas de navegación precisa sobre territorio hostil y no se había formulado formalmente ningún requisito para ayudas radioeléctricas de navegación precisas.

En 1940, bajo los auspicios del National Defense Research Committee, se creó un Comité de Microondas para examinar qué nuevos desarrollos serían necesarios si Estados Unidos se involucraba en la guerra europea. Uno de estos desarrollos (conocido como “Proyecto 3” según la historia oficial del periodo,¹⁸ pero como “Proyecto C” según el profesor Jack Pierce, miembro del equipo de desarrollo¹⁹) debía ser un sistema de navegación radioeléctrica hiperbólica por impulsos que operara en el extremo inferior del espectro VHF, alrededor de 30 MHz, muy parecido a Gee, del cual los estadounidenses no sabían nada en ese momento. Con el tiempo se convertiría en el sistema Loran-A, del cual nacería Loran-C.

5.2.1. Loran-A. El Comité Técnico del Cuerpo de Señales del Ejército de los EE. UU., en una reunión celebrada el 1 de octubre de 1940, redactó una especificación que solicitaba un sistema de navegación radioeléctrica de precisión con una exactitud de al menos 1000 pies a una distancia de 200 millas. Esta fue adoptada como el “Proyecto 3 (o C)” por el Comité de Microondas y en diciembre de 1940 se cursaron los primeros pedidos de equipos. A comienzos del verano de 1941 el proyecto pasó al Radiation Laboratory Navigation Group, que, tras cierto estudio, decidió que los alcances que podían lograrse a 30 MHz quizá fueran demasiado limitados para las necesidades estadounidenses y que se podrían obtener mejores resultados a frecuencias más bajas en la banda HF. Mientras aún se estaban construyendo los transmisores originales de 30 MHz, se obtuvieron nuevos transmisores para utilizar frecuencias entre 3 y 8 MHz, y en el verano de 1941 comenzaron las transmisiones experimentales.

Se hizo evidente casi de inmediato que las frecuencias más bajas, alrededor de 3 MHz, eran más estables, pero existían dificultades considerables para realizar mediciones precisas de retardo temporal. Este era el mismo problema que afrontaba el equipo de desarrollo de Gee en el Reino Unido, pero se veía agravado por los impulsos mucho más largos que utilizaba Loran-A a sus frecuencias más bajas. Conviene recordar que en ese momento prácticamente no se había trabajado en la transmisión de impulsos de alta potencia a baja frecuencia, y la técnica estaba en su infancia.

Mientras se llevaban a cabo estas pruebas, se recibió información desde la oficina de enlace del Reino Unido en los EE. UU. sobre el sistema Gee, incluidos algunos detalles sobre cómo se realizaban las mediciones temporales en Gee.¹⁹ El equipo estadounidense estaba intentando utilizar una base de tiempos circular para aumentar la precisión, pero había encontrado dificultades, por lo que la técnica británica de utilizar bases de tiempo retardadas y estroboscópicas despertó gran interés y fue adoptada de inmediato. Además, al darse cuenta de lo avanzado que estaba el trabajo en Gee, el equipo estadounidense no vio razón para duplicar el esfuerzo británico y abandonó cualquier trabajo adicional sobre el Proyecto 3 original.

Preveían que la principal aplicación del nuevo sistema sería el trabajo con convoyes navales, y que el largo alcance sobre el mar sería fundamental. Las pruebas comparativas a diferentes frecuencias, evaluando el comportamiento de la onda de superficie y la onda ionosférica, condujeron finalmente a la elección de 1,9 MHz como frecuencia óptima, y todo el trabajo de desarrollo posterior utilizó esta frecuencia. En un momento dado existió la intención de complementarla con una segunda frecuencia de alrededor de 5,5 MHz para uso diurno de largo alcance, pero nunca se implementó salvo con fines experimentales. (Para quienes pertenecen a la generación del autor y utilizaron el receptor Loran APN-4, esto explica el misterio de por qué había una cuarta posición en el selector de frecuencias marcada como “HF”).

 

A mediados de 1942, R. J. Dippy, inventor del sistema Gee, fue enviado a los Estados Unidos durante ocho meses para ayudar en el desarrollo de Loran. Muchas de las técnicas utilizadas en Gee fueron adoptadas, y fue él quien insistió en que los receptores Loran y Gee se fabricaran de forma físicamente intercambiable, de modo que cualquier aeronave de la RAF o de la USAAF equipada para uno pudiera utilizar el otro simplemente intercambiando las unidades. (Esto seguiría siendo valioso, mucho después del final de la guerra, para los navegantes del Transport Command que volaban la ruta a Australia desde el Reino Unido y podían conectar el equipo adecuado según dónde se encontraran). También diseñó el equipo de temporización y sincronización de las estaciones terrestres, y su ayuda aceleró considerablemente el desarrollo de Loran.

Una vez finalizado el diseño, la producción avanzó rápidamente. El primer par de Loran-A estuvo permanentemente en el aire en junio de 1942 (Montauk Point, Nueva York, y Fenwick Island, Delaware), y en octubre ya había estaciones adicionales a lo largo de la costa este de Canadá. El sistema entró en servicio a comienzos de 1943 y, a finales de ese año, se establecieron estaciones en Groenlandia, Islandia, las Feroe y las Hébridas para completar la cobertura del Atlántico Norte, siendo algunas operadas por la Royal Navy. A petición de la RAF, se instaló otra estación en las Shetland para cubrir Noruega, y Loran fue utilizado finalmente por más de 450 aeronaves del Coastal Command.

Paralelamente, también se establecieron estaciones en el Pacífico y, para 1944, había 72 transmisores en funcionamiento y más de 75 000 receptores en uso.

Una diferencia importante en el modo de funcionamiento de Loran-A en comparación con Gee era que sus transmisores operaban en pares en lugar de en cadenas. La diferenciación entre pares se hacía en función de la frecuencia de repetición de impulsos, utilizándose solo tres frecuencias básicas: 1950, 1900 y 1850 kHz. Se empleaban múltiples frecuencias de repetición de impulsos que diferían en 1 parte en 400, derivadas de fundamentales de 333 y 25 impulsos por segundo. El método de operación consistía en sincronizar el receptor con un par y tomar una diferencia de tiempo; a continuación, se resincronizaba con otro par elegido para proporcionar una buena geometría y se tomaba una segunda diferencia de tiempo. Teniendo en cuenta el movimiento durante el intervalo, estas diferencias se trazaban en una carta y se obtenía una posición.

El retardo podía ser a veces bastante largo, ya que el gran arte en el uso de Loran consistía en distinguir entre la onda de superficie y las ondas ionosféricas (fig. 9). Por la noche podían observarse largas series de hasta veinte o treinta impulsos de onda ionosférica, y el impulso vital de onda de superficie podía quedar oculto en el ruido. Se necesitaba una experiencia considerable para estar seguro, a mayores alcances, de cuál impulso era cuál, y más de un navegante acabó con errores de 20 o 30 millas al confundir ondas ionosféricas de primer o segundo salto, o al emparejar incorrectamente ondas de superficie y ondas ionosféricas. No era en absoluto tan fácil ni tan rápido de usar como Gee y el autor, tras haber pasado varios años utilizando ambos sistemas, no alberga dudas sobre cuál prefería.
Loran-A persistió mucho después de la guerra y se convirtió en una ayuda de navegación transatlántica estándar para aeronaves civiles hasta la llegada de la navegación inercial. Nunca fue realmente una ayuda operada por el piloto y, cuando el navegante especialista desapareció de la cabina, Loran también desapareció. El último transmisor del Atlántico Norte se apagó en 1980, aunque uno o dos todavía funcionan en el Pacífico.

5.2.2. Loran sincronizado por onda ionosférica (Skywave-synchronized Loran o 55 Loran). La propiedad de Loran de proporcionar alcances muy largos durante la noche mediante la propagación por onda ionosférica fue investigada en 1943 por el profesor Pierce, quien se sorprendió al descubrir que, si sincronizaba una estación Loran con otra a 1000 millas o más de distancia durante la noche usando ondas ionosféricas, las diferencias de tiempo resultantes tenían un error de apenas medio kilómetro aproximadamente.²⁰

La aplicación obvia era para la RAF en Europa, que volaba principalmente de noche y que aceptó de inmediato su instalación. Una estación en Escocia (cerca de Aberdeen) y otra en Bizerta (Túnez) formaban un par, y el otro par estaba entre Orán (Argelia) y Bengasi (Libia) (fig. 10). Estas estaciones cubrían prácticamente toda Europa durante la noche y fueron utilizadas operativamente por Bomber Command en octubre de 1944, con casi todo el 5 Group equipado para 1945.

La precisión se estimó entre 1 y 1,5 millas, y llegó incluso a utilizarse como un sistema de bombardeo a ciegas a principios de 1945. Para este propósito se diseñó un receptor especial que podía proporcionar simultáneamente líneas de posición en dos tasas de repetición. La aeronave se volaba siguiendo una línea mientras la otra se usaba como indicador de distancia restante.

Con lo que hoy se sabe sobre retardos de la onda ionosférica y la falta de información geodésica precisa, es sorprendente que se lograran incluso estos niveles de precisión, y la selección del modo correcto de onda ionosférica debió ser un auténtico infierno.
5.2.3. Loran-B. Esto se incluye aquí solo por completitud, ya que nunca llegó a alcanzar un estado operativo y fue diseñado únicamente para buques.

Básicamente, fue un intento a principios de los años 1960 de rediseñar correctamente Loran-A, cuyo desarrollo durante la guerra había sido bastante apresurado, y de añadir nuevas características. El Loran-A original, incluso en alcance por onda terrestre, nunca fue un sistema muy preciso, ya que la longitud del pulso era de unos 40 µs, pero se había observado que proporcionaba señales estables y utilizables hasta unos 400 millas sobre el mar. No se había intentado en el diseño original lograr coherencia de fase en los pulsos transmitidos, lo que hacía imposible la comparación de fase dentro del pulso (como en Loran-C). Los transmisores se rediseñaron para conseguir esto y se desarrolló un nuevo receptor. La comparación de fase aumentó la precisión a aproximadamente medio ciclo (½ µs), lo que supuso una mejora considerable. Otra característica nueva era que los transmisores se operarían en cadenas en lugar de pares, permitiendo la medición simultánea de dos diferencias de tiempo. No se sabe por qué se detuvo el desarrollo, salvo que se pensara que Loran-C lo sustituiría. Los sistemas de comparación de fase a 2 MHz tuvieron más tarde un enorme éxito en trabajos de levantamiento marítimo, y en los años 1980, una empresa, aparentemente sin haber oído hablar de Loran-B, propuso como novedad pulsar su sistema de comparación de fase de 2 MHz para eliminar problemas de onda ionosférica y ambigüedad.

5.2.4. Loran-C. La guerra del Pacífico mostró la necesidad de un sistema similar a Loran que pudiera operar a mayores distancias durante el día que Loran-A. Había pocas islas donde ubicar transmisores y estaban a grandes distancias entre sí. La única esperanza parecía ser probar las técnicas de Loran a bajas frecuencias, y en 1945 se instaló un conjunto experimental de tres transmisores Loran operando a 180 kHz en la costa este de EE. UU., utilizando antenas sostenidas por globos.

El resultado principal de estas pruebas fue demostrar que la coincidencia de envolvente de pulso, usada en Loran-A, era demasiado inexacta con los pulsos largos necesarios a estas bajas frecuencias, y que se requeriría comparación de fase. Los experimentos no se continuaron y el sistema, llamado LF Loran en ese momento, fue desmantelado al finalizar la guerra. El Radiation Laboratory, que había patrocinado el trabajo, también cerró, y la responsabilidad de trabajos posteriores pasó a la nueva Fuerza Aérea de EE. UU.. Los transmisores usados para LF Loran se reubicaron en Alaska para pruebas de propagación LF en áreas árticas, proporcionando datos muy útiles.

En 1946, la compañía Sperry propuso un sistema de navegación llamado Cyclan, que usaría comparación de fase y operaría a dos frecuencias de 180 y 200 kHz, usando la diferencia entre ellas para resolver ambigüedades. Fue probado por la USAF en 1948 con 160 y 180 kHz, y más tarde reducido a una sola frecuencia y renombrado Cytac para posible uso como navaid militar táctico. Tras más pruebas en 1949, la Fuerza Aérea decidió concentrarse en sistemas inerciales y Doppler para uso táctico y detuvo el desarrollo.

Paralelamente, se desarrolló un sistema llamado Navarho, derivado del sistema británico POPI, que proporcionaba alcance y rumbo, midiendo la variación de fase entre la señal transmitida y un oscilador de referencia local muy estable. Esta fue la primera vez que se intentó esto. La tecnología de osciladores portátiles de la época no estaba realmente a la altura, y el proyecto se abandonó junto con un desarrollo posterior llamado Navaglobe, destinado a ofrecer cobertura de área amplia.

La Marina de EE. UU. comenzó a interesarse unos años más tarde y recomisionó los tres transmisores originales de Cytac en Forestport, NY (luego usados para transmisiones experimentales Omega), Carolina Beach, NC, y Carabelle, FL, para una prueba a bordo del USCG cutter Androscoggin en abril de 1956. Las transmisiones fueron pulsos coherentes de fase de 100 kHz de 100 µs con potencias de pico de 60 kW, salvo Forestport, que tenía una torre de 1280 pies y radiaba unos 200 kW.

Estos pulsos eran menos de la mitad de la duración adoptada posteriormente en Loran-C (240 µs) y alcanzaban amplitud máxima en solo 25 µs, comparado con los 60 µs posteriores. Los resultados mostraron alcance diurno de onda terrestre de 220 millas, nocturno 1650 millas y ondas ionosféricas hasta 3000 millas. La precisión de diferencia de tiempo se estimó en 0,1 µs.

Animada por estos resultados, la Marina estableció transmisores en el noreste del Atlántico y el Mediterráneo en 1957, seguidos por muchos más en el Pacífico y otras regiones, nombrando el sistema Loran-C. Los primeros contratos para receptores fueron otorgados, entre otros, a Decca Navigator, que produjo el AN-SPN 31, probablemente el más exitoso de los primeros receptores Loran-C, con 12 controles y un peso superior a 100 lb.

Aunque inicialmente se diseñó como sistema marítimo, Loran-C se utilizó ampliamente en navegación aérea, y durante pruebas en 1963 se voló a más de Mach 1 en un Vulcan. Se instaló una cadena en Vietnam en los años 1960 para el uso de aeronaves de la USAF. Se montó en muchos aviones civiles de largo alcance mientras se probaban los sistemas inerciales, y todavía se usa en aeronaves militares de largo alcance.

La compañía Decca demandó a la Marina de EE. UU. en 1969 alegando que Loran-C infringía patentes suyas relacionadas con un sistema de navegación pulsado de 100 kHz. Inicialmente se falló a favor de Decca, pero se revocó en apelación, alegando la Marina necesidad militar.

5.2.5. Loran-D. Sistema táctico diseñado como ayuda de bombardeo por la USAF. Usaba transmisores portátiles, líneas base más cortas que Loran-C, y una transmisión de 16 pulsos en lugar de ocho. Se utilizó en varios ejercicios militares en Europa en los años 1960, y posteriormente se levantó una estación temporal en el Reino Unido.

5.2.6. Radux. Tras las pruebas de LF Loran de 1945 y al darse cuenta de que la coincidencia de envolvente de pulso a bajas frecuencias no era suficientemente precisa, se intentó superponer una modulación de baja frecuencia alrededor de 200 Hz para sincronización y resolución de ambigüedades cíclicas a 100 kHz. Tras varios años de experimentación, se concluyó que no sería exitoso, pero la modulación proporcionaba cronometraje suficientemente bueno para resolver ambigüedades de frecuencias más bajas, como 10 kHz. Se diseñó un sistema compuesto que irradiaba 40 kHz modulados a 200 Hz con ráfagas de 10 kHz superpuestas, llamado Radux-Omega, pero no tuvo éxito.

5.2.7. Omega. Radux-Omega mostró las posibilidades de propagación a muy baja frecuencia, pero había temores sobre errores de ambigüedad usando una sola frecuencia. En los años 1960 aparecieron dos factores: el sistema de navegación inercial (INS) y la gran fiabilidad electrónica tras la introducción del transistor. Esto permitió desarrollar un sistema de frecuencia única. Se abandonó el 40 kHz de Radux y se implementó un sistema con transmisores en California y Hawái a 12,6 kHz, ampliándose luego con transmisores en Panamá y Criggion, Gales del Norte, usando osciladores de cristal extremadamente estables desarrollados por Dr. L. Essen.

En 1963 se formó el Omega Implementation Committee, presidido por Prof. J. A. Pierce, que diseñó el sistema final. Omega alcanzó implementación completa de ocho estaciones en 1983 y se usa en rutas aéreas de largo alcance y por fuerzas militares.

5.3. Desarrollo en Alemania
5.3.1. Sonne (Consol). Aunque los sistemas hiperbólicos no se completaron en Alemania, Dr. Ernst Kramar desarrolló en 1938 una versión mejorada del American Radio Range, capaz de proporcionar múltiples equisignales para definir varias rutas (Elektra). Tras su uso militar, se le pidió incluir información direccional, renombrándose Sonne. Hubo planes para versiones llamadas Mond y Stern.

Se instaló en Noruega, Francia y España para aeronaves alemanas y U-boats. Era un ejemplo de sistema hiperbólico colapsado, donde la línea base entre antenas era tan corta que las hipérbolas degeneraban en radiales, convirtiéndose en un sistema de rumbo.

Sonne/Consol usa tres antenas en línea a 12 millas, separadas unos tres longitudes de onda a 300 kHz. Se alimenta la misma señal a las tres antenas, con desfase de ±90° en las externas, generando lóbulos múltiples con nulos profundos, que se barren continuamente y sincronizan con un patrón Morse de puntos y rayas. El navegador solo necesita un receptor ordinario sintonizable a 300 kHz, escuchando la secuencia de puntos y rayas para determinar su línea de posición.

Un solo transmisor no proporciona un fix, pero es un sistema muy útil, fácil de usar y con equipo sencillo. Alcance: hasta 1000 millas, precisión: 1/6 de grado (≈3 millas a 1000 millas). La mayoría de estaciones Consol se apagaron en 1980, aunque una sigue en servicio en Stavanger, Noruega (319 kHz, LEC).

5.4. Desarrollo en la URSS. Poco se conoce públicamente. Se sabe que en 1940 se recomendó un sistema hiperbólico, y en los años 1950 existía un sistema similar a Loran-C llamado Chaika, rastreable con receptores Loran-C. Funcionaba con una cadena de cuatro esclavas con la estación maestra cerca de Moscú y esclavas a aprox. 740 km, diseñado para uso terrestre en aeronaves. Más tarde se añadió una segunda cadena en el Extremo Oriente soviético, compatible con Loran-C.

Se detectó un sistema tipo Omega en 1970, con transmisores ubicados para cubrir el Ártico, funcionando desde entonces sin nombre oficial en la URSS.

Los receptores del Decca Navigator fueron diseñados y construidos en Alemania Oriental en los años 1960 sin autorización de Decca, aunque no se construyeron cadenas Decca allí.

6. Comentario. No se mencionó la preparación de cartas. Antes de las computadoras, los navegantes debían trazar lecturas de diferencias de tiempo sobre cartas con hipérbolas superpuestas. Las discrepancias geodésicas y perturbaciones locales hacían que, para mayor precisión, el navegante realizara calibraciones locales. Las afirmaciones de “precisión absoluta” a veces eran poco fundamentadas, aunque la repetibilidad se mantenía. No se abordaron sistemas hiperbólicos especializados para bombardeo o levantamiento, cuyo enfoque era la precisión más que la facilidad de uso.

Es sorprendente que solo en los últimos diez años los sistemas hiperbólicos de baja frecuencia se hayan aceptado ampliamente como ayudas de navegación aérea general, instalándose en EE. UU., y próximamente en URSS y Europa. Muchos desarrollos actuales fueron previstos por Decca en los años 1950 y 1960, aunque la tecnología aún no estaba lo suficientemente avanzada.

7. Agradecimientos. El autor agradece a Claud Powell (FRIN, C.Eng, MIEE), y a J. E. D. Williams, F. C. Richardson y D. Page (FRIN) por su valiosa ayuda y comentarios.

Palabras clave: Historia, navegación aérea, navegación por radio, sistemas hiperbólicos.

 

 

 

36.-ARTÍCULO de A. H. HESSELL, B.S.C. ‘Consol’. RECAPITULACIÓN TÉCNICA SOBRE EL SISTEMA CONSOL(1).-

 

 

1. Introducción. Consol es el nombre que se da actualmente a una ayuda a la navegación desarrollada por los alemanes durante la guerra. Una baliza Consol transmite, en una frecuencia media, un patrón de puntos y rayas, y escuchando este patrón en un receptor radioeléctrico ordinario de un barco o de una aeronave, un navegante puede determinar su marcación respecto a la baliza con una precisión mucho mayor que la que es posible obtener con un radiogoniómetro de cuadro (D/F loop).

La precisión de las marcaciones obtenidas depende de la posición del observador con respecto a la baliza; es máxima a lo largo de una línea llamada la normal de la baliza y disminuye hasta hacerse nula a lo largo de una línea perpendicular a dicha normal. La cobertura útil con el tipo de baliza existente es de unos 280° de los 360°. Con una baliza de este tipo, el alcance sobre el Atlántico Norte es de unas 1200 millas náuticas de día y 1700 millas náuticas de noche; el error probable sobre la normal es de día de aproximadamente ½° y de noche (a distancias mayores de 500 millas náuticas) de aproximadamente ¼°.

Para tomar una marcación, el navegante debe contar el número de puntos y rayas que oye durante un período de ½ o 1 minuto; luego puede, con la ayuda de una carta adecuadamente sobreimpresa o de un conjunto de tablas, trazar su marcación desde la baliza.

El propósito de este artículo es explicar de la manera más sencilla posible el funcionamiento de Consol, y se espera continuarlo más adelante con un artículo que describa los factores que afectan a la precisión del sistema y que sugiera métodos mediante los cuales puedan obtenerse resultados aún mejores.

2. Descripción de Consol.
Una baliza Consol irradia un patrón con sectores alternos en los que se escuchan bien puntos o bien rayas (fig. 1). A lo largo de las líneas que separan los sectores de puntos de los de rayas se oye una nota continua llamada equisignal. Este patrón se transmite durante períodos de ½ o 1 minuto, y en los breves intervalos entre estos períodos se escucha una nota continua o el indicativo de llamada de la baliza (Stavanger y las demás balizas instaladas por los alemanes tienen un período de 1 minuto; la nueva baliza de Bush Mills tiene un período de ½ minuto para reducir el tiempo necesario para tomar una marcación).

Durante el período en que se escucha el patrón, este se hace girar a una velocidad uniforme, de modo que al final del período cada línea de equisignal se ha desplazado a la posición ocupada inicialmente por la que iba delante de ella. En consecuencia, al final del período el patrón parece el mismo, salvo que en un sector donde inicialmente se oían puntos ahora se oyen rayas, y viceversa. Durante el intervalo entre períodos, las líneas de equisignal regresan a sus posiciones originales, de modo que todos los ciclos son exactamente iguales.

 

 

También se observará que existen dos zonas en las que los sectores son muy amplios y en las que se escucha la misma señal en sectores adyacentes. Las marcaciones obtenidas en estos sectores no serán muy precisas y son susceptibles de interpretarse erróneamente, ya que se oirá exactamente la misma secuencia de puntos y rayas (por ejemplo, en R₁ y R₂).

3. Principios del sistema Consol.

Una estación Consol consta de tres antenas, igualmente espaciadas y dispuestas en línea recta, que transmiten en la misma frecuencia. La antena central irradia una onda continua y estable, con una amplitud que en la práctica es cuatro veces mayor que la de las ondas radiadas por las dos antenas exteriores. Estas, durante el período en que se transmite el patrón, irradian ondas de la misma amplitud pero de fase diferente y variable; la fase de la corriente que alimenta a las antenas exteriores se varía de tal modo que se produce el patrón de puntos y rayas y que dicho patrón gira. Las tres antenas irradian ondas simples sin modulación (es decir, onda continua, C.W.). La fig. 2 muestra el diagrama de bloques de una estación Consol.

Consideremos primero el patrón producido al comienzo del ciclo, antes de que empiece la rotación. En ese momento, la fase de la corriente que alimenta a las antenas exteriores A y C está respectivamente adelantada 90° y retrasada 90° con respecto a la fase de la corriente que alimenta a la antena central B, y por lo tanto las fases de las ondas radiadas por las tres antenas guardan la misma relación. Esto puede ilustrarse mediante un diagrama vectorial como el de la fig. 3 (los ángulos medidos en sentido horario se consideran positivos). La fase de la onda radiada por la antena central no cambia y se toma como referencia. Consideremos ahora las fases de estas tres ondas cuando llegan a un punto P (fig. 4):

 

 

la intensidad de La señal que se oye en P será la suma vectorial de las tres señales recibidas; así, si, por ejemplo, las señales llegaran a P con la relación de fase en que salieron de la baliza, la señal resultante sería claramente igual a la señal de la antena central B, ya que las señales de las antenas exteriores están desfasadas 180° y, por lo tanto, se cancelan entre sí.

Sin embargo, las ondas que llegan a P tienen diferentes distancias que recorrer desde sus respectivas antenas. Es evidente que A está más lejos de P que B, y que C está más cerca. Esta diferencia de distancia es pequeña y, por lo tanto, no afectará de manera apreciable a las intensidades relativas de las señales en P, pero es grande en comparación con la longitud de onda, y por ello cambiará las fases relativas de las señales que llegan a P (se puede asumir que la velocidad de propagación de las ondas es la misma en cada caso).

Las señales provenientes de A tardarán más en llegar que las de B, en una cantidad proporcional a la distancia extra 𝑑a. Consecuentemente, estarán retrasadas en fase en proporción a esta distancia extra; si la distancia extra fuera de una longitud de onda, el retraso sería de 360°. Sea el retraso real 𝜙𝐴ϕA.

Las señales de C llegan antes que las de B y, por lo tanto, están adelantadas en fase en una cantidad proporcional a dc, digamos 𝜙cϕc.

Un diagrama vectorial de las señales recibidas en P se representará como en la fig. 5. R es la amplitud resultante, la suma vectorial de todas las señales recibidas.

En otro punto Q, el diagrama vectorial aparecerá como en la fig. 6, donde la resultante es menor que la señal de B.

 

 

Era antes de la conmutación, mientras que en Q es mayor. Cuando se produce la conmutación, la intensidad de la señal recibida en cualquier punto (excepto en una línea de equisignal, como se verá más adelante) cambia de manera repentina. Durante el período en que se transmite el patrón, las antenas se conmuten a intervalos alternos de ½ y ½ segundos (½ y 1 segundo cuando el período total es de 1 minuto). En P, la señal más fuerte se recibe durante ½ segundo y la más débil durante ½ segundo, mientras que en Q, la más fuerte se recibe durante ½ segundo y la más débil durante ½ segundo. Las señales resultantes que llegan a P y Q se muestran en las figs. 10 y 11.

Estos cambios se perciben en P y Q como variaciones en la intensidad de la onda resultante y deben hacerse audibles. Esto se logra con la ayuda del oscilador de frecuencia de batido (Beat Frequency Oscillator), que se incluye en todos los receptores de barcos y aeronaves (de la misma manera en que se hace audible el código Morse en C.W.).

 

Si el observador ahora se mueve desde P, 𝑑adA y 𝑑cdC variarán, al igual que los ángulos de fase 𝜙𝐴ϕA y 𝜙𝐶ϕC.

Estos ángulos pueden tener cualquier valor entre 0° y 360°, y, en consecuencia, para ciertas posiciones de P, el diagrama vectorial aparecerá como en la fig. 12, donde 𝑃𝐴=𝜙𝐶PA=ϕC. Las señales de las antenas exteriores entonces se cancelan y la resultante es la onda radiada desde B. Después de la conmutación, esto sigue siendo cierto, como se muestra en la fig. 13. En tal posición, se escucha una nota continua todo el tiempo, es decir, el observador se encuentra sobre una equiseñal.

 

 

 

NOTA .- Esta sección sigue en construcción.

 

  1. Elecktra Sonne en Arneiro.Lamentablemente as torres (antenas) caeron no 2009.

  2. Tengo,por suerte,algunos calificarian de locura y realmente lo és,el haber estado en lo alto de la torre central.Estar alli arriba y pensar como serian aquellos dias en los que se ralizaba el montaje de las antenas y los dias en los que los operarios relizaban las operaciones con los equipos alli instalados.Realmente como aficionado a la historia de la 1ª y 2ª guerra mundial,me entristece realmente el hecho de que las torres hayan caido por culpa, no del temporal,el no tiene la culpa de nada de eso pero si el abandono al que las autoridades han condenado a estes fabulosos recuerdos de aquellos duros y dificiles años.Me vienen a la mente mis viajes por tierras de Normandia,mis visitas a esas decenas de museos,bunkeres alemanes,baterias de costa,estaciones de radar como la de Douvres la Délivránde,todo excepcionalmente conservado e inevitablemente no puedo dejar de preguntarme el porque de tanta diferencia a la hora de conservar estos restos historicos.

      • sergeantalaric
      • 20 noviembre 2011

      Te voy a decir lo que pienso. Lo que ha faltado es la sensibilidad, el sentido común, y una mínima preocupación. Hacer de la estación Consol de Arneiro un museo no podía suponer mucho gasto. Bastaba simplemente con cerrar la estación a los desaprensivos, sanear las riostras y sus anclajes y tener la estación de control y el punto de monitorización mínimamente adecentados. Ha sido más bien dejadez y falta de sensibilidad la causa del desastre, no la carencia de dinero, máxime teniendo en cuenta a los interesados que atraería, que son indudablemente muchos y que podría ser algo positivo desde el punto de vista económico. Pero esto es España, ¿Que podíamos esperar al respecto?.

  3. This post will help the internet people for creating new webpage
    or even a weblog from start to end.

    • Carlos
    • 12 julio 2021

    Hola, he estado leyendo todo lo que has escrito con mucho interés. Simplemente quiero agradecerte el tiempo que has invertido en hacerlo.
    Me gustan como a ti las tecnologías antiguas y me da mucha pena que en España no haya nunca interés por preservar todas estas cosas.
    También opino que no hubiese costado mucho crear un museo. La inversión no habría sido cuantiosa y se hubiesen conservado las instalaciones, ademas de creado algunos puestos de trabajo, aunque solo fuese para cobrar la entrada, limpiar aquello y vender algo de marchandisisng. Pero…España es España

    • Gracias, Carlos, por el comentario. Por suerte aún hay lugares en España donde sí se guardan esas reliquias. Pero en relación a los que podía haber, son una insignificancia. Gracias por leerme.

  1. Aún no hay enlaces.

Deja un comentario