Archive for the ‘ Ciencia ’ Category

Visita al Museo Nacional de Ciencias Naturales: (5).- La exposición dedicada a Graells

 

Dedico este último artículo dentro de la serie que trata sobre el Museo Nacional de Ciencias Naturales de Madrid a la figura del ilustre médico, científico naturalista, y senador español Mariano de la Paz Graells y de la Aguera, en torno a cuya remembranza gira la exposición dentro del entredicho museo dedicada a su nada desdeñable labor investigadora y de descubrimiento, en el marco de la Península Ibérica.

Para acometer tal tarea trataré primero la biografía de este científico, que destacó por su enorme versatilidad a la hora de adaptarse a terrenos tan dispares como la botánica, la zoología, la medicina e incluso la política activa.

Graells nació en Tricio (La Rioja) en el año 1809, hijo de un médico catalán, se formó en Barcelona, donde cursó estudios de Medicina y Cirugía, Botánica, Agricultura, Física y Química. Su afán de conocimiento estuvo siempre vinculado al interés por las aplicaciones prácticas y el desarrollo de mejoras. Cuando en 1837 se incorporó en Madrid al Museo de Historia Natural, fue nombrado Catedrático de Zoología comparada en el mismo, y posteriormente director, llevando a la práctica un ambicioso proyecto de renovación que tuvo como fruto la mejora de las colecciones que por entonces se atesoraban en dicho Museo. A partir de 1855 trabajó en la aclimatación de diferentes especies en el territorio español y en la creación de piscifactorías, para obtener más alimentos para la población. Se implicó además en otras tareas, como el desarrollo de industrias y actividades pesqueras, y sus intentos de erradicación de la plaga de la filoxera de la vid, trabajos con una clara componente social. No sólo fueron los estudios prácticos los que ocuparon su trabajo, también estuvo interesado en los estudios teóricos, que ya comenzó en su primera etapa vital en Barcelona, con la observación de los insectos y sus indagaciones en relación a la floración de distintas especies vegetales en diversas áreas catalanas, y que continuaría más adelante en Madrid con sus estudios de malacología, paleontología y de los mamíferos. Supo conjugar sus trabajos de campo y de laboratorio con el servicio público, mediante la dedicación que hizo efectiva como miembro de distintas academias, comisiones y consejos ministeriales, y con su participación como senador en diversas legislaturas. La Ciencia le debe el descubrimiento, descripción, y estudio, de distintas especies vegetales endémicas de la Península Ibérica, así como del único lepidóptero del género Actias dentro del territorio español, la llamada Graellsia Isabellae (o Actias Isabellae), especie amenazada, protegida y de interés especial desde el año 2000, cuyo nombre científico está formado con su nombre y con el nombre de la reina Isabel II.

A continuación iré describiendo el contenido de algunas fotografías que tomé en mi visita a la exposición dedicada a Graells.

En la siguiente imagen aparece el herbario de Eduardo Carreño, que fue donado al Gabinete de Ciencias Naturales del Colegio-Seminario que estableció en 1885 el rey Alfonso XII en el Monasterio del Escorial. En este gabinete existe una colección botánica extraordinaria, y se albergan además allí colecciones zoológicas, mineralógicas y materiales de archivo, además de plantas procedentes de las donaciones de Graells, entre las que se encuentra la colección de su pupilo, Carreño.

 

 

En la fotografía que sigue se muestran algunos de los objetos que utilizaba Mariano Graells en sus clases de anatomía comparada.

 

 

Las dos imágenes a continuación en el bloque que sigue representan respectivamente la primera algunos expedientes de intercambio de semillas con centros docentes, mientras que la segunda expone los expedientes de traída de agua del Canal de Isabel II al Jardín Botánico de Madrid.

 

 

La foto siguiente muestra una reproducción del meteorito del tipo condrito L, caído en Molina de Segura (provincia de Murcia) el 24 de diciembre de 1858, y cuyo original pesa 112,5 kg.

 

 

A continuación aparecen dos catálogos en los que trabajó Mariano Graells, uno de ellos dedicado a los mamíferos observados en Madrid, y el segundo de ellos a los moluscos terrestres españoles.

 

 

Esta foto representa distintos ramilletes de la flora española, recogidos por el Doctor Graells en las Memorias de la Real Academia de Ciencias Exactas, Físicas y Naturales de 1859.

 

 

El protagonista de la foto que sigue es una especie endémica de parte de la Península Ibérica, el desmán de los Pirineos, un mamífero de veloz metabolismo, que vive en los cursos fluviales de la cordillera pirenáica y otras regiones septentrionales de la península Ibérica, así como también en el Sur de Francia. Se alimenta de larvas de insectos acuáticos como tricópteros y efemerópteros, y este ejemplar pertenece a la colección de aves y mamíferos del Museo de Ciencias Naturales.

  

 

A continuación se muestra una colección de lepidópteros ibéricos, entre los que se pueden observar, entre otros, la Inachis Io, la Papilio Machaon, la Parnassius Apollo, la Aglais Urticae, la Nymphalis Antiopa, la Anthocharis Cardamines, y la Gonepterys Cleopatra. El segundo de los mosaicos de este bloque está formado por diversas especies ibéricas de coleópteros.

 

 

Las dos cajas entomológicas de las dos siguientes fotografías son un estudio del hecho biológico de la divergencia de caracteres, expresión visible de las mutaciones genéticas. En concreto, el lepidóptero sometido a estudio es la especie descubierta por Graells, la Graellsia Isabellae. En la primera fotografía se pueden ver grados variables en ejemplares de esta especie en lo que respecta al tamaño del insecto, la coloración de las venas alares, y la longitud de las colas. En la segunda fotografía se hace idéntico análisis, teniendo en cuenta en este caso las bandas negras de las alas, los ocelos que presentan, y las anomalías.

 

 

En la imagen que sigue se muestran dos obras en las que participó Mariano Graells, la de la izquierda es un trabajo sobre la florescencia de las especies vegetales de la flora catalana. La de la derecha es el libro Indicatio Plantarum Novarum, que recoge las descripciones de especies botánicas descubiertas en España. En la segunda imagen del bloque se representa un ejemplar de herbario de la especie Narcissus Palliludus Graells.

 

 

En el siguiente bloque aparece en primer lugar una lámina acerca de la anatomía de las ballenas varadas en las costas españolas en tiempos del Doctor Graells. En segundo lugar se puede apreciar una colección de coleópteros del mismo.

 

 

La fotografía siguiente representa un estudio llevado a cabo por el naturalista en relación a la Phyllosera Vastatrix, comúnmente conocida como plaga de la filoxera, publicado en el año 1881.

 

 

Para ya finalizar este paseo gráfico por la exposición, se muestra en primer lugar un retrato del personaje aquí tratado, seguido de otro retrato de la reina Isabel II, a la que Graells dedicó el nombre del lepidóptero Graellsia Isabellae, también conocido como Actias Isabellae. Se dice que Don Mariano le regaló un ejemplar de esta mariposa a la reina, y que ésta lo lució en una fiesta de palacio, montado sobre un collar de esmeraldas, causando gran sensación entre los asistentes.

 

 

Si bien en este museo existen otras exposiciones aparte de las descritas en la serie, me he limitado a algunas de las abiertas al público en el momento de mi visita al museo; probablemente ahora, en el momento de la publicación de este último artículo haya otras a disposición de los visitantes, como por ejemplo la que por aquel entonces estaba en obras, dedicada a los fósiles y animales prehistóricos, o la dedicada a los meteoritos que han caído en la Península Ibérica; he intentado ser sintético en la medida de lo posible, pero la única manera de vivir con intensidad una visita al Museo de Ciencias Naturales es acudiendo allí personalmente. Para los amantes y estudiosos de la naturaleza resulta una actividad lúdica e instructiva a la que incluso se puede acudir en familia, pues a los niños y jóvenes se les abren mundos insospechados en la contemplación del Medio Natural y sus inquilinos. Por lo que a mí respecta, puedo afirmar que me lo pasé en grande.

 

Los radiofaros Consol (Elektra-Sonne) – (11.2) El sistema radiante. El dipolo elemental y otros dipolos más largos

 

 

El contenido de esta entrada es demasiado técnico, pero para entender lo que es un monopolo sobre masa, que era el tipo de antena usado en la estación radioeléctrica Consol, es necesario conocer lo que es una antena dipolo. Este apartado puede ser saltado a efectos de conocer el sistema Consol, pero me ha parecido que si quiero exponer el tema con algo de profundidad, me veo obligado a hacerlo así. Ante el primer síntoma de pesadez en la lectura de lo que sigue, el lector tiene su plena libertad para saltárselo o para navegar por otras páginas, reconozco que es demasiado específico y condensado, pero también entiendo que si alguien llega a esta entrada mediante un buscador, ello será debido a que tiene interés en lo que aquí se describe, por lo que al final he optado por incluírlo, dado que es una pieza más dentro de la comprensión del entredicho sistema de posicionamiento. Así pues, pido disculpas anticipadas a las personas que opinen que esto sobra o que está escrito de forma inapropiada, y me decanto al final por mantenerlo. Simplemente, al que le interese, que lo lea, quien por el contrario vea que esta entrada está de más, puede pasar a leer otras entradas o simplemente teclear otra URL y navegar por otra web. Para gustos hay colores, en torno a la pluralidad gira esta página, o procuro eso al menos, y además entiendo perfectamente a los que se lo salten, porque yo ya soy el primero que lee libros de divulgación o libros técnicos saltándome algún que otro párrafo, al menos en la primera lectura, por parecerme inicialmente incomprensible. Quedan las disculpas por escrito.

Un dipolo elemental es un elemento de corriente cuya longitud es mucho menor que la longitud de onda, y por el que fluye una corriente uniforme. Aunque podría parecer un caso anómalo, en realidad muchas antenas operando en baja frecuencia tienen un comportamiento similar al mismo, por poseer sus mismas cualidades. Si se supone un hilo de densidad de corriente J = I.delta(x).delta(y) z, siendo la función delta la delta de Dirac, que es una idealización que establece que la densidad de corriente es nula salvo en el origen de coordenadas, y aplicando la ecuación del potencial vector mostrada en la anterior sección, utilizando además las aproximaciones pertinentes, se obtiene, como es lógico, un potencial vector de una única componente según el vector unitario z; pero resulta más práctico representar el resultado en coordenadas esféricas y no cartesianas, y así se obtiene una componente para el potencial vector según el vector unitario theta proporcional al seno de theta y una componente según el vector unitario phi nula. No existe componente según el vector unitario rho, porque en campo lejano esta componente según el mencionado versor unitario del sistema de coordenadas esféricas es aproximadamente nula.

 

 

De esta forma el fasor de campo eléctrico radiado, que es –j veces el producto de la pulsación por el potencial vector, también varía con el seno de theta y presenta un factor de fase que equivale a la tardanza en producirse los efectos lejos de la antena (campos) posteriormente a las causas que los originaron (corriente). Por su parte, la intensidad de campo magnético, que se escribe como el inverso de la permeabilidad multiplicado por el rotacional del potencial vector varía como el seno de theta también, pero su única componente tiene como vector unitario al versor phi.

 

 

Para calcular el diagrama de radiación de potencia, que es una representación de cómo radia una antena según cada dirección genérica dada por un ángulo theta y un ángulo phi determinados, se obtiene la parte real del producto vectorial del fasor de campo eléctrico y el conjugado del fasor de intensidad del campo magnético, que es el conocido como vector de Poynting y que da cuenta de la potencia que atraviesa la unidad de superficie en el punto genérico bajo análisis, y que como es lógico variará como el cuadrado del seno de theta con otros factores que incluyen el inverso del cuadrado de la distancia y un factor directo constituido por el cuadrado de la longitud del dipolo elemental y el cuadrado del valor eficaz de la corriente. Como desde cualquier punto a una distancia R del dipolo vemos el dipolo de la misma manera, el campo eléctrico y el diagrama de radiación presentan simetría de revolución, y además una forma similar a un toro.

 

 

Si ahora calculamos toda la potencia radiada integrando el flujo del vector de Poynting a través de cualquier superficie que encierre el dipolo y dividimos esa potencia radiada por el cuadrado de la corriente a la entrada de la antena se obtiene la resistencia de radiación de la misma, que se puede definir como aquella resistencia que colocada en vez de la antena consumiría por efecto Joule toda la potencia que radia aquélla. Cuanto mayor sea la longitud del dipolo elemental frente a la longitud de onda, mayor será la resistencia de radiación para este caso, y por tanto, más potencia se radiará, y mayor valor poseerá el fasor de campo eléctrico, y por tanto mayor amplitud el campo eléctrico instantáneo.

Todo lo hasta aquí comentado se refiere a campo lejano, es decir, lejos de la posición que ocupa el dipolo elemental. En las inmediaciones del dipolo, los campos que se obtienen se corresponden con los que produciría un dipolo eléctrico con una cierta carga en cada extremo de signos opuestos, y no varían con la frecuencia, esto es, son estáticos. Debido al carácter oscilante de las fuentes, al pasar un medio período de la corriente de excitación, se invierte el sentido de la corriente y los signos de las cargas. Como consecuencia de esto, un dipolo elemental eléctrico se comporta capacitivamente y con una pequeña resistencia de radiación. A una frecuencia de 285 kiloHerzios, un hilo de aproximadamente 100 metros es casi un dipolo elemental, siempre y cuando coloquemos en sus extremos unas superficies conductoras donde pueda almacenarse carga eléctrica. La impedancia de entrada, que es el cociente entre el fasor de tensión y el fasor de corriente a una cierta frecuencia tiene en este caso una componente de tipo capacitivo. Esto es, un dipolo elemental puede verse como un condensador abierto.

De momento me he limitado a presentar una estructura pequeña en relación a la longitud de onda, donde podemos suponer que la distribución de corriente es uniforme. Si las dimensiones de la antena no verifican tal cualidad, habrá interacciones entre todos sus elementos con retardos asociados, de tal forma que ya no se podrá aproximar la corriente por un valor uniforme. Entramos así en el terreno de las antenas dipolo.

El caso más simple de antena dipolo es la antena cilíndrica, consistente en un hilo conductor recto de longitud 2H y radio a muy inferior a la longitud de onda, al que se le alimenta con un generador en el centro. De forma experimental, se ha obtenido que la distribución de corriente para estas clases de antenas es aproximadamente sinusoidal, con valor cero en los extremos, dando así continuidad a lo no conductividad del aire. Para justificar esta distribución de corriente se puede pensar en la antena cilíndrica como una línea de transmisión de líneas paralelas que termina en circuito abierto y que vamos abriendo hasta quedar las dos líneas en posición vertical. Puesto que la línea termina en circuito abierto, aparece una onda estacionaria de corriente, con un nulo en el extremo. Dentro de las antenas dipolo tal vez el caso más común es el del dipolo en lambda/2 o dipolo de media onda, para el valor de H = lambda/4. Para este caso el diagrama de radiación es similar al del dipolo elemental, de forma toroidal, con simetría de revolución, y un haz algo más estrecho.

 El siguiente esquema representa los parámetros característicos de algunos dipolos de diferentes semilongitudes H, incluyéndose entre estos parámetros a la longitud, el ancho de haz a 3 dB, que representa aquel ángulo que subtiende el diagrama de radiación de potencia con unos valores subtendidos superiores o iguales a la mitad de la densidad de potencia radiada máxima de radiación, así como la resistencia de radiación, y la directividad, la cual es un parámetro que nos da idea del cociente entre el máximo de la densidad de potencia radiada y la densidad de potencia radiada por una antena isotrópica que radiase la misma potencia que la antena bajo análisis. Esto es, la directividad nos viene a informar de lo que concentra la radiación según la dirección de máximo una antena, comparándola con otra que radiando la misma potencia lo hiciese por igual en todas direcciones. Si extendemos este concepto para todas las direcciones tenemos una función de  los ángulos theta y phi, conocida como ganancia, que da cuenta de la relación entre la densidad de potencia por metro cuadrado en una dirección frente a la densidad isotrópica de una antena que radiase la misma potencia.

 

 

Fuente de las imágenes de esta entrada :  Antenas, varios autores, Edicións UPC.

 

Tipos de motores de combustión interna y métodos para aumentar el rendimiento

 

 

Los motores de combustión interna de cuatro tiempos suelen clasificarse básicamente en dos grupos; así podemos decir que son de explosión cuando en los pistones se inyecta una mezcla de gasolina y aire en la fase de admisión a través de la válvula del mismo nombre, que es absorbida por el vacío que deja tras de sí el movimiento descendente del pistón, y que es comprimida en la fase de compresión, mientras sube el pistón. Una vez comprimida la mezcla en la cámara de compresión, se le aplica una chispa en el comienzo del tiempo de explosión, tras el cual el pistón desciende hacia abajo por mediación de la energía liberada en la oxidación de la gasolina, y vuelve a subir de nuevo expulsándose los gases resultantes de dicha reacción del carburante a través de la válvula de escape. Para reducir la barrera de potencial entre los reactivos de la reacción química –gasolina y aire- y el nivel energético del complejo activado –mezcla homogénea de los reactivos-, y así proporcionar la energía de activación, se utiliza la presión del aire inyectado, que a volumen de aire decreciente y presión creciente –crece al subir el pistón- consigue aumentar su temperatura, como se puede razonar por la ley que Robert Hooke, Boyle y Gay Lussac descubrieron en relación a las propiedades elásticas de los gases comprimidos. La detonación queda reservada para la chispa, y se libera una energía motriz eficaz que es igual a la diferencia entre el nivel de los reactivos y de los productos –gases que se expulsan en el tiempo de escape-, a la que se le deben sustraer las pérdidas por rozamientos y calor radiado en todo el motor. Debido al empleo de la chispa y a que la gasolina tiene un “poder anti-detonante” más bajo que el gasóleo, por ser más fácilmente inflamable, los cilindros de los motores de explosión tienen una cámara de compresión más grande que los motores de combustión de gasóleo, ya que de lo contrario la mezcla explotaría antes de aplicarse la chispa. Este ciclo completo se corresponde con dos emboladas –o movimientos baja-sube del pistón- y con dos vueltas del cigüeñal.

Por su parte, los motores de combustión de gasóleo funcionan esencialmente igual que los motores de explosión, con la gran salvedad de que en vez de aplicarse una chispa, se utiliza una cámara de compresión pequeña y un cilindro más grande, para que la mayor cantidad de aire en relación al motor de explosión, quede muy comprimida, de tal forma que simplemente con introducir el gasóleo muy pulverizado mediante un inyector en la cámara de compresión, y debido al alto calentamiento del aire por hallarse en gran cantidad en una pequeña cámara, es suficiente para que se inicie la reacción de oxidación del gasóleo.

Hoy en día para optimizar el rendimiento del motor, que va en relación directa con una cantidad de combustible no quemado y por tanto desperdiciado mínima, se usan fundamentalmente dos métodos, a saber, la inyección en lumbrera y la inyección directa. La inyección en lumbrera, que se aprecia en la figura superior, consiste en que el inyector rocía el combustible en la propia corriente de aire, que procede del filtro de aire y que pasa a través del estrangulador. De este modo la mezcla penetra en el cilindro, y una vez comprimida, la chispa de la bujía la inflama. Si queremos aumentar la potencia con este esquema debemos suministrar más cantidad de aire y gasolina, actuando sobre el estrangulador y el inyector.

 

 

Por su parte, en el mecanismo de inyección directa, el propio inyector introduce a alta presión la gasolina en la cámara de combustión, estando ya el aire comprimido, con lo que la gasolina se vaporiza y se quema en más plenitud que con el mecanismo de lumbrera, ahorrándose así combustible para una misma potencia entregada. La inyección directa requiere un mayor control que el mecanismo de lumbrera. Se representa este esquema en la segunda imagen.

La tendencia futura consiste en el encendido por compresión de mezcla homogénea, en el cual mientras el pistón asciende se inyectan el aire y el combustible, comprimiéndolos el primero, y así la combustión se arranca sin necesidad de chispa. De esta manera la mezcla arranca la explosión en muchos puntos diferentes, perdiéndose menos energía en forma de calor, con el consiguiente aumento de rendimiento. Para mayor potencia se podría usar también una bujía. Este mecanismo requiere concienzudos controles mediante sensores, lo que lo hace más difícil de implementar. En la siguiente imagen aparece la representación de este esquema de encendido.

 

 

Ahora bien, si lo que queremos es una alta potencia, debemos tener en cuenta que para poder quemar más combustible en un mismo intervalo de tiempo, habremos de aplicar más calor al mismo para poder encenderlo, y esto se consigue inyectando aire a alta presión en el cilindro. Una forma de hacerlo es mediante el turboalimentador o “turbo”, que aprovecha el ímpetu de los propios gases resultantes de la oxidación del combustible para acelerar una turbina solidaria –en el mismo eje- a un compresor, cuyas aspas sirven para acelerar a su vez el aire e inyectarlo a alta velocidad en el cilindro, consiguiéndose un gran volumen de aire comprimido en la cámara de combustión que lógicamente es capaz de entregar más energía térmica al combustible para el quemado de una mayor cantidad del mismo en menos tiempo –con el consiguiente aumento de potencia-. El inconveniente de este método de encendido es el tiempo de retardo que es indispensable para que los gases de escape logren acelerar la turbina, y por consiguiente son necesarios controles sofisticados en este mecanismo. La siguiente figura representa un turboalimentador.

 

 

Como remate de esta entrada, y como mejora del esquema del turboalimentador, hablaré del sobrealimentador, que es un mecanismo consistente en un rodete movido por una correa conectada al cigüeñal del motor, que absorbe el aire exterior y lo comprime, entregándolo comprimido al cilindro en el tiempo de admisión, de tal manera que no existe el retardo de tiempo que se producía en el esquema por turboalimentador, con la desventaja de conseguirse menos eficiencia que la que se conseguía con aquél.

 

 

Fuente de las imágenes de esta entrada : Revista de divulgación científica “Investigación y Ciencia”. Edición de mayo de 2010.

 

Los radiofaros Consol (Elektra-Sonne) – (11.1) El sistema radiante. Nociones básicas

 

Dedicaré un pequeño conjunto de subsecciones dentro del tema de los radiofaros Consol para introducir algunos conceptos básicos dentro del electromagnetismo, que después usaré cuando hable de las antenas del mencionado sistema de posicionamiento. Ésta no es sino la introducción dentro de este grupo de subsecciones.

Existen muchos tipos diferentes de antenas, pero básicamente se pueden reducir a dos tipos, en concreto, antenas lineales, y antenas de apertura. Y digo sólo estos dos tipos, porque en general existen muchas antenas, como por ejemplo los mástiles radiantes de la estación Consol, que pueden ser puestos en equivalencia con antenas lineales, dado que están constituidas por tramos de acero, y la dimensión física de su grosor es mucho menor que la longitud de onda, y no ocasiona una pérdida de generalidad el considerar como antenas lineales otros tipos de radiadores de mayor longitud, siempre que estén confeccionados con elementos lineales, o inclusive agrupamientos o arrays formados por conjuntos de antenas en interacción, del que es un ejemplo la tan conocida y clásica antena Uda-Yagi, usada en recepción de televisión. De este modo, no sólo son antenas lineales los clásicos dipolos, monopolos, y monopolos sobre masa –caso éste último al que pertenecen los mástiles radiantes Consol-, sino que también son antenas lineales las espiras usadas en los radiogoniómetros, las antenas rómbicas y espirales –adaptadas éstas últimas especialmente a las polarizaciones elípticas-, las espirales cónicas, los dipolos doblados, los solenoides cargados con ferrita, usados desde los comienzos de la transmisión en onda media en receptores de radiodifusión, e incluso se pueden catalogar como antenas lineales algunas de las empleadas en banda ancha, que utilizan por ejemplo una distribución logarítmica en la distancia entre elementos, antenas multibanda con distintas longitudes de los elementos y también con distancias específicas entre ellos, antenas logoperiódicas trapezoidales, usadas como alimentadores (feeders) de antenas parabólicas grandes, y un largo etcétera, en el que podemos incluir como caso llamativo las antenas con geometría fractal, como el monopolo de Sierpinski –también pensado para banda ancha-. De este modo una antena lineal es un radiador que se puede aproximar por un conjunto de líneas construidas de un material buen conductor de la corriente eléctrica, en un punto de las cuales se suministra la corriente impresa o de excitación, y que presentan una determinada geometría que condiciona ya de por sí todas sus características de transmisión-recepción.

Por otra parte, se denominan antenas de apertura a aquellos radiadores en los cuales el campo electromagnético radiado se puede calcular como una integral extendida a una cierta superficie y obtenida en base a la distribución de campo eléctrico de excitación en dicha superficie. Casos de éstas antenas son las conocidas parabólicas, tanto si las alimentamos desde el foco de la parábola; como también en la variedad Cassegrain, en la que se usa un subreflector montado en el foco de la parábola, estando el feeder en el centro de la misma y orientado al subreflector. Otros casos de antenas de apertura son las antenas de lente, o las llamadas bocinas, que no son más que precisamente aberturas con forma de embudo que dan solución de continuidad al campo eléctrico que viaja por la guía de onda y que sale por ellas al aire. Y también se usan antenas de tipo micro-strip para frecuencias de microondas.

Es decir, existe una gran variedad de antenas, cada caso particular se emplea para ciertas utilidades concretas. En otras subsecciones explicaré lo que es el diagrama de radiación, la ganancia y directividad de una antena, el ancho de banda de la misma, el ancho de haz, la resistencia de radiación, la impedancia de entrada, y la polarización. Ante un determinado caso de diseño, se trata de determinar la geometría y dimensiones de la antena para que sus parámetros característicos se aproximen a los que se necesitan para la correspondiente situación particular de transmisión-recepción.

En cálculo de antenas, a partir de las ecuaciones de Maxwell, se puede definir una magnitud de la que deriva el campo magnético radiado, que es el potencial vector. Aplicando ciertas buenas aproximaciones se obtiene, por un lado, que el fasor de campo magnético se puede poner como el rotacional del potencial vector, mientras que el fasor del campo eléctrico, en una radiación monocromática (si se excita una única frecuencia o tono de portadora) se obtiene como la pulsación multiplicada por el potencial vector y con un factor que incluye la unidad imaginaria cambiada de signo. Esto es, si somos capaces de obtener una expresión para el potencial vector A en una cierta posición alejada de la antena, seremos capaces de conocer los fasores de campo magnético y eléctrico de la onda en ese lugar.

¿Qué es un fasor?. Un fasor es un vector complejo de una o más dimensiones, tal que multiplicándolo por una exponencial compleja de pulsación w y obteniendo la parte real de dicho producto, se consigue la función temporal o señal de una cierta magnitud eléctrica, que podría ser por ejemplo una señal de corriente, un voltaje o señal de tensión, o también la expresión instantánea del campo eléctrico o del campo magnético. Es decir, podemos pensar en un fasor para cada señal que estudiemos, el campo eléctrico instantáneo llevará un fasor asociado, el campo magnético tendrá asociado otro fasor, la corriente por ejemplo de un circuito también se puede escribir en forma fasorial, etcétera… Pero los fasores tienen la limitación de que sólo se pueden emplear para pulsaciones monocromáticas, esto es, sólo podríamos usar los fasores cuando trabajamos con una única frecuencia, que sería la portadora. El caso general de una transmisión pasobanda, más aproximada a la realidad, y que es el caso más genérico posible, precisa del empleo de otro concepto matemático más sofisticado como es la envolvente compleja, que no es otra cosa que una función compleja temporal formada por un módulo dependiente del tiempo multiplicando a un factor de fase también dependiente del tiempo. Si multiplicamos esta envolvente compleja por una exponencial compleja de pulsación w (correspondiente a la frecuencia de portadora de w/(2*pi) ), y tomamos la parte real, estaremos en realidad obteniendo la variación temporal instantánea de una determinada magnitud bajo estudio, que al igual que en el caso del uso de fasores puede ser un campo, una corriente, o una tensión, pero que en este caso particular presenta la propiedad de no ser una frecuencia pura, sino el conjunto de muchas frecuencias puras actuando a la vez, y ocupando un cierto ancho de banda. Multiplicar un fasor o una envolvente compleja por una exponencial compleja de una cierta pulsación equivale a girarlo en el plano complejo con una velocidad de giro o rotación igual a la pulsación, medida en radianes por segundo.

En general, y como remate de este primer acercamiento a las antenas y al electromagnetismo, el potencial vector que necesitamos para conocer cómo funciona una antena se halla según una expresión como la que sigue:

 

 

 

En esta expresión el vector A es el potencial vector, el valor nu es la permeabilidad magnética, el vector J es la distribución sobre la superficie de la antena del fasor de la densidad de corriente, k es la constante de propagación, y R es la distancia entre el punto concreto de la antena cuyo aporte estamos considerando y el lugar donde se quiere calcular el potencial vector. El valor dv’ es el elemento diferencial de volumen por el que fluye la densidad de corriente y V’ es todo el volumen por el que circula la corriente en la antena. Así pues, esta ecuación lo que viene a expresar, es que el potencial vector es una combinación lineal formada con coeficientes complejos que multiplican a los vectores densidad de corriente de cada posición de la antena, que equivale a la suma de los elementos de potencial vector, y que se hallan por un escalado complejo del producto de la densidad de corriente impresa y el inverso de la distancia. La exponencial compleja que forma parte de los coeficientes de escalado es un término de fase que expresa la tardanza en producirse los efectos (campos electromagnéticos) en el punto de cálculo, posteriormente en el tiempo a las causas, que fueron las corrientes impresas de la antena, y que tardaron un cierto tiempo en propagarse.

En la siguiente subsección de este hilo trataré el caso particular de la radiación del dipolo elemental y de otros tipos de dipolos más largos.

 

Modelos matemáticos en la demografía de las especies

 

 

Coincidiendo prácticamente con los comienzos del siglo XX se vio nacer una nueva disciplina científica, la biología matemática, ciencia en la cual se ha tratado y se trata de aúnar el conocimiento propio de ambas ramas, con el objeto de establecer modelos que expliquen lo más finamente posible la realidad de la vida. Tanto los físicos como los matemáticos vieron en la biología una serie abrumadora de fenómenos que eran tratables con el lenguaje abstracto de la matemática.

Mucho antes del siglo pasado, a finales del siglo XVIII, el conocido economista Thomas Malthus, que fue posteriormente una fuente de inspiración para el biólogo Charles Darwin, estudió el crecimiento demográfico de las poblaciones y advirtió que si la naturaleza no proveía de algún sistema de control de la población, la vida en nuestro planeta sucumbiría. Precisamente fue ahí donde entró Darwin más tarde identificando a la selección natural como el mecanismo regulador que en cierto modo limita las poblaciones vivas. El razonamiento de Malthus era en cierto modo sencillo pero totalmente lógico, aunque también con limitación de miras. Dada una especie animal que se alimenta de otra especie vegetal, pongamos por caso el ratón y el trigo, se verifica que la cantidad de trigo que se puede producir en cada temporada en un cierto terreno crece aritméticamente con el paso de las generaciones, dado que la superficie de terreno es siempre la misma. Esto es, en la primera generación se producirá por ejemplo x metros cúbicos de trigo. Tras la segunda generación habrá x + x = 2x metros cúbicos de trigo, y en general tras n generaciones habrá nx metros cúbicos de trigo, todo ésto abstrayéndonos de la presencia humana, esto es, suponiendo que no hay consumo del trigo por ningún otro ser que fueran los ratones. Sin embargo la población de ratones en ese escenario hipotético no crece aritméticamente sino exponencialmente, puesto que se puede suponer, simplificando las cosas, que un individuo típico aporta en la unidad de tiempo una cierta cantidad de ratones r a la población (número que puede ser fraccionario, y que representa el valor medio de lo aportado en la unidad de tiempo per cápita), cuyo valor se identificaría con la tasa de natalidad. Ésta ecuación diferencial tiene como solución una función exponencial del tiempo, en la que participa el parámetro r. Así pues, aunque la cantidad de trigo que se poseería en una generación sería grande, la población de ratones crecería mucho más rápido, con lo cual en un principio, si aislamos del resto del planeta estas dos especies, llegaría un momento en que se agotaría el alimento y ambas especies dejarían de existir.

Ahora bien, este tipo de crecimiento demográfico exponencial, que también se conoce como malthusiano, es en realidad una aproximación grotesca de la realidad, independientemente de que el mundo no está formado sólo por dos especies vivas. En realidad existe un límite al crecimiento demográfico de una especie, que viene dado por las limitaciones de espacio o nutrientes o por la presencia de otros predadores, y ese límite es conocido como capacidad de carga o de soporte de la especie. En términos matemáticos diríamos que el crecimiento malthusiano viene dado por una ecuación diferencial de la forma y’ = k.y, esto es la tasa de cambio de la especie es proporcional a la cantidad de miembros que tiene esa especie en ese momento, y cuya solución es una función exponencial del tiempo. Pero el crecimiento real, cuyo estudio fue acometido por Pierre Francois Verhulst, se modela según otra ecuación diferencial de la forma y’ = k.y.(C-y), donde la constante C es la capacidad de carga o valor límite de la población. Esta ecuación expresa que la tasa de cambio es no sólo proporcional a la cantidad de individuos, sino que es menor también cuanto más próxima sea esa cantidad de individuos a la capacidad de carga, porque cada vez hay menos espacio o nutrientes para ellos o porque otra especie predadora los limita numéricamente. La solución de esta ecuación diferencial es la denominada ecuación o ley logística, que se rige por la expresión y = Cy0 / (y0 + (C-y0)exp(-kt)), donde el valor y0 es la cantidad de individuos en el instante inicial.

Pero, como es lógico, no tiene sentido aislar dos especies apartándolas del resto del mundo, puesto que éste presenta relaciones recíprocas entre todas las especies, sean de una naturaleza o de otra.

Ya en el siglo XX entraron en escena dos matemáticos para mejorar los estudios de Malthus y de Verlhust, y éstos fueron Vito Volterra y Alfred Lotka, aportando dos modelos que explican mucho mejor las interacciones de pares de especies predador-presa o bien predador-predador competidor. Históricamente para ejemplificar estos modelos se utilizan en el caso del modelo predador-presa a la relación entre lobos y conejos. Si las poblaciones de lobos y conejos estuviesen aisladas los lobos no podrían alimentarse de los conejos, con lo cual la población de lobos decrecería según una ecuación x’ = -l.x, que es de tipo malthusiano. Por otra parte los conejos seguirían una tasa de crecimiento también malthusiana pero de signo contrario, esto es : y’ = c.y. En estas dos ecuaciones los valores l y c son respectivamente las tasas de muerte y de natalidad de lobos y conejos.

Sin embargo, si ambas especies, lobos y conejos, coexisten en un determinado biotopo, estas ecuaciones no serán válidas, porque ambas especies interactuarán entre sí, y de este modo, podemos decir que, debido al encuentro entre predadores y presas, a la anterior tasa de crecimiento de lobos habremos de sumar un término debido al hecho de que ciertos lobos cacen ciertos conejos, y que será mayor cuanto más lobos y conejos haya, puesto que en esa situación más fácil será que se encuentren entre sí, y además el signo de este término será positivo, dado que significará que los lobos aumentan su cantidad por el hecho de encontrarse con conejos que capturan, por lo que pueden seguir viviendo y reproduciéndose. Así pues, la tasa de crecimiento de los lobos quedará x’ = -l.x + r.x.y, siendo r un parámetro de la ecuación, como también lo era l, y que en este caso representa la facilidad con que los lobos cazan los conejos y su repercusión en la mayor reproducción consecuente. De esta forma, la especie predadora de este caso, la lobuna especie, en vez de extinguirse tendrá al menos posibilidad de tener cierto crecimiento. Por otra parte, para el caso de la tasa de crecimiento de los conejos, y por el mismo motivo que el que causó el anterior término r.x.y, habrá de restarse al crecimiento malthusiano original de los conejos un término que será proporcional a la facilidad de encontrarse lobos y conejos y que tendrá signo negativo, de modo que la segunda ecuación diferencial será de la forma y’ = c.y – s.x.y. Estas dos ecuaciones diferenciales, dependientes de los parámetros l, r, c y s, son dos ecuaciones diferenciales que están acopladas, y si resolvemos este sistema obtenemos una cantidad oscilante de lobos y conejos, de manera que si representamos en el plano XY, para el eje de abscisas la cantidad de conejos y para el eje de ordenadas la cantidad de lobos aparecerán las “curvas isoparamétricas” a las que tienden la evolución de predadores y de presas, y que en este caso tienen la forma de curvas cerradas con “radios” diferentes y que tienen su punto “central” en la situación de equilibrio ideal que correspondería a la no variación ni de la cantidad de presas ni de predadores. Al variar los parámetros obtenemos distintos ciclos cerrados en dicho plano conejos-lobos, y la evolución temporal de ambas especies sigue una de esas curvas. Los parámetros para cada modelización particular habrán de ser obtenidos por métodos empírico-estadísticos, pero en general se puede decir, de modo intuitivo, que el número de predadores aumentará si disponen de gran cantidad de presas, pero al irse consumiendo éstas el número de predadores disminuirá, con lo cual aquéllas aumentarán su número, aumentando de nuevo el de predadores. La solución es, pues, cíclica, salvo que estemos en una condición de equilibrio en el ecosistema para todas las generaciones, la cual es improbable. Es decir, existen curvas isoparamétricas para cada sistema de ecuaciones diferencial, en las que yacerían las series de valores temporales, también llamadas órbitas, de todas las variables involucradas. Y esto no sólo se aplica a las ecuaciones de Lotka-Volterra de predador-presa sino a cualquier modelo no lineal en el que intervengan ecuaciones diferenciales no lineales. Un ejemplo de esto es el modelo climático de Lorentz, desarrollado en el siglo XX. Para elaborar este modelo, Lorentz estableció, en su forma o versión simplificada, las tres ecuaciones diferenciales que fijan la tasa de cambio de cada de las tres variables de posición de una molécula en un fluido (por ejemplo una molécula de de agua en la atmósfera). Y se ayudó de algunos parámetros. La solución del sistema diferencial de tres ecuaciones de Lorentz da lugar a una órbita que tiende a un atractor, que se denomina “el atractor extraño de Lorentz” y que tiene forma de ochos acostados enlazados cada uno con el siguiente.

Pero Lotka y Volterra desarrollaron además otro par de ecuaciones diferenciales que dan lugar al modelo de competencia entre especies de un mismo biotopo. Este modelo se aplica a dos especies que compiten por un recurso o presa común, y en las que aparece crecimiento logístico, y ese crecimiento ha de ser forzosamente logístico porque los recursos por los que compiten ambas especies son limitados. Las ecuaciones diferenciales son gemelas para cada uno de los competidores y tienen la forma : x’ = k.x.((C-x-r.y)/C), siendo k la constante de crecimiento malthusiano, C la capacidad de carga para la expecie x y r un factor que establece la interacción con la especie competidora. Habría una ecuación diferencial análoga para la otra especie, con parámetros análogos pero con otro nombre, y de la resolución de ambas ecuaciones obtendríamos unas órbitas en el plano XY sobre las que yacerían las series temporales de ambas especies.

Todo lo que aquí se ha descrito para dos especies puede ser ampliado para un número mayor de especies y así se construirían modelos aplicables a ecosistemas simplificados con un número limitado de especies que darían lugar, en el espacio de tantas dimensiones como distintos tipos de seres interactuando, a distintas órbitas donde se situaría la evolución en el espacio de fase de las series temporales de todas las especies.

En cuanto a la resolución de los sistemas de ecuaciones diferenciales que modelan a la naturaleza, existen básicamente dos formas de acometerla de acuerdo con las herramientas de que nos provee la matemática. Una de ellas es la disciplina de resolución de ecuaciones diferenciales y la otra es el análisis numérico. La primera de las dos emplea métodos concretos de cálculo para transformar cada ecuación y/o para resolverlas analíticamente. La segunda herramienta son los métodos numéricos basados en diferencias finitas o en diferencias divididas y que aproximan las derivadas por diferencias escaladas entre valores próximos de cada variable, y mediante el cálculo por computadora se obtienen directamente las series temporales. Ejemplos de este tipo de cálculo serían los métodos de Runge-Kutta y de Euler.

En la imagen superior se representan las curvas isoparamétricas de la solución del modelo predador-presa y en la imagen inferior se representa el atractor extraño de Lorentz.

 

 

Visita al Museo Nacional de Ciencias Naturales: (3).- El Real Gabinete

 

Continúo la serie de artículos dedicados al Museo Nacional de Ciencias Naturales exponiendo unas cuantas fotos que he tomado en el Real Gabinete, comenzando con una fotografía de varios ánades rabudos, que son aves pertenecientes a la familia de las anátidas.

 

 

 

El críalo es una ave que habita en la parte meridional de España, y que al igual que el cuco, tiene hábitos nidoparásitos, esto es, el huevo es puesto en el nido de otra ave, y es criado por los verdaderos inquilinos del nido. De ahí le viene el nombre.

 

 

 

Los abejarucos, a los que ya dediqué un apartado en esta web, tienen costumbres gregarias y habitan en colonias ubicadas en taludes arenosos, a la orilla de carreteras o en los ríos. Son unas aves de especial vistosidad y colorido.

 

 

 

Los mórfidos es una familia de lepidópteros que habitan zonas selváticas y que se distinguen con mucha facilidad por ser de distintas tonalidades de azul, que además tienen más o menos brillo dependiendo del ángulo con que los observemos.

 

 

A continuación, dos tomas de las vitrinas del Real Gabinete desde dos puntos diferentes.

 

 

 

También los coleópteros tienen un hueco en esta parte del museo, y la siguiente imagen lo atestigüa.

 

 

Y paso de nuevo a las aves: lo que sigue es un diorama que refleja un nido de gallineta común, con ambos consortes próximos a los huevos.

 

 

 

El torcecuello es un pájaro bien curioso. Tiene costumbres que lo podrían emparentar con los pájaros carpinteros, por el hecho de que suele anidar en cavidades, las cuales ya estaban construidas de antes. Tiene una lengua larga al igual que el pito real, y de la que se aprovecha como aquél para conseguir las hormigas de los hormigueros que sondea. El nombre de torcecuello viene dado por la costumbre que tiene de girar el cuello en un ángulo prácticamente imposible para cualquier otra especie ornítica, acompañando estos movimientos del cuello en forma de espasmos con un erizado del plumaje del píleo. Se ha demostrado que detrás de este hábito existe una adaptación biológica que le da la capacidad de espantar a sus depredadores naturales, de hecho la combinación del cuello torcido mediante movimientos bruscos, de embestidas con el pico, del píleo erizado y del colorido de su plumaje lo hacen parecerse a una culebra en acción de ataque.

 

 

Las dos fotos siguientes representan a una pareja de escribanos soteños (la primera) y un diorama con el nido de dos mirlos (la segunda). Obsérvese que la hembra, la que empolla los huevos, es de una tonalidad que tira más a marrón oscuro, mientras que el macho tiene librea negra.

 

 

 

 

Las tres fotos siguientes son cajas entomológicas con distintas especies de mariposas tropicales, a excepción de la tercera, que representa al lepidóptero Graellsia Isabellae, descubierto aquí en España por el científico Graells.

 

 

 

Para ya finalizar, la última fotografía se corresponde con un lobo marsupial, una especie que ya está extinguida en el mundo.

 

 

Los radiofaros Consol (Elektra-Sonne) – (10) Datos técnicos de las estaciones europeas

 

En esta entrada presentaré los datos técnicos concretos relativos a la transmisión que se efectuaba desde la estaciones Consol europeas en los años 1957 y 1966, a excepción de los de la estación de Arneiro que ya he publicado. Estos datos han sido extraidos de la publicación del Instituto Hidrográfico de la Marina “Radiofaros Consol –publicación especial número 2-“, en sus ediciones respectivas de 1957 y de 1966.

   

ESTACION CONSOL DE GUILLENA (SEVILLA) – (Datos técnicos de 1957)

 

Situación : Latitud 37º 31’ 17’’,44 N.   Longitud 6º 01’ 48’’,06 W.

Frecuencia :  315 KHz. (952,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo SL y raya larga durante 60 segs.

b) Emisión de orientación = Puntos de 1/6 de seg. y rayas de 5/6 de seg. durante 60 segs.

Período total : 120 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 014º al 152º y del 194º al 332º.

 

 

ESTACION CONSOL DE STAVANGER (NORUEGA) – (Datos técnicos de 1957)

  

Situación : Latitud 58º 37’ 30’’  N.   Longitud 5º 37’ 45’’  W.

Frecuencia :  319 KHz. (940,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Señal continua e indicativo LEC durante 30 segs.

b) Emisión de orientación = Puntos de 1/6 de seg. y rayas de 5/6 de seg. durante 60 segs.

Período total : 60 segundos.

Horario de emisiones : Servicio permanente.

Sectores utilizables : Del 350º al 140º y del 170º al 320º.

 

 

ESTACION CONSOL DE BUSH MILLS (IRLANDA DEL NORTE) – (Datos técnicos de 1957)

  

Situación : Latitud 55º 12’ 20’’  N.   Longitud 6º 28’ 02’’  W.

Frecuencia :  266 KHz. (1127,8 metros).

Tipo de onda : A 1.

Potencia :  2 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo MWN y raya larga durante 10 ó 30 segs.

b) Emisión de orientación = Puntos de 1/8 de seg. y rayas de 3/8 de seg. durante 30 segs.

Período total : 40 ó 60 segundos.

Horario de emisiones : Servicio permanente.

Sectores utilizables : Del 065º al 195º y del 245º al 015º.

 

 

ESTACION CONSOL DE PLONEIS (FRANCIA) – (Datos técnicos de 1957)

  

Situación : Latitud 48º 01’ 06’’  N.   Longitud 4º 12’ 55’’  W.

Frecuencia :  257 KHz. (1167,3 metros).

Tipo de onda : A 1.

Características de emisión :

a) Emisión omnidireccional = Indicativo FRQ durante 20 segs.

b) Emisión de orientación = Puntos de 1/12 de seg. y rayas de 5/12 de seg. durante 30 segs.

Silencio = 10 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo, excepto de 7:30 a.m. a 7:45 a.m., que funciona para su regulación.

Sectores utilizables : Del 033º al 179º y del 213º al 359º.

Nota : Cuando funcionaba en esta fecha en período de prueba emitía la palabra TEST en lugar de su indicativo FRQ y no podían utilizarse sus emisiones en dicho perído.

 

 

ESTACION CONSOL DE GUILLENA (SEVILLA) – (Datos técnicos de 1966)

  

Situación : Latitud 37º 31’ 17’’,44 N.   Longitud 6º 01’ 48’’,06 W.

Frecuencia :  315 KHz. (952,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo SL (… .-..) durante 3,5 segs.; silencio durante 2,5 segs.

b) Emisión de orientación = Puntos y rayas durante 30 segs.

c) Omnidireccional también = Silencio 2,5 segs.; raya larga 19 segs; silencio 2,5 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 014º al 152º y del 194º al 332º.

 

 

ESTACION CONSOL DE STAVANGER (NORUEGA) – (Datos técnicos de 1966)

  

Situación : Latitud 58º 37’ 30’’  N.   Longitud 5º 37’ 45’’  W.

Frecuencia :  319 KHz. (940,4 metros).

Tipo de onda : A 1.

Potencia : 1,5 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo LEC (.-.. . -.-.) durante 5,8 segs; raya larga, 19,2 segs.; silencio, 2,5 segs.

b) Emisión de orientación = Puntos y rayas durante 30 seg.; silencio durante 2,5 segs.

Período total : 60 segundos.

Horario de emisiones : Continuo.

Sectores utilizables : Del 350º al 140º y del 170º al 320º.

 

 

ESTACION CONSOL DE BUSH MILLS (IRLANDA DEL NORTE) – (Datos técnicos de 1966)

  

Situación : Latitud 55º 12’ 20’’  N.   Longitud 6º 28’ 02’’  W.

Frecuencia :  266 KHz. (1127,8 metros).

Tipo de onda : A 1.

Potencia :  2 Kwatt.

Características de emisión :

a) Emisión omnidireccional = Indicativo MWN (– .– .-) y raya larga durante 8 segs.

b) Emisión de orientación = Puntos de 1/8 de seg. y rayas de 3/8 de seg. durante 32 segs.

Período total : 40 segundos.

Horario de emisiones : Continuo, excepto de 16:00 a 16:15 diariamente y de 11:00 a 12:00 los miércoles.

Sectores utilizables : Del 065º al 195º y del 245º al 015º.

 

 

ESTACION CONSOL DE PLONEIS (FRANCIA) – (Datos técnicos de 1966)

  

Situación : Latitud 48º 01’ 06’’  N.   Longitud 4º 12’ 55’’  W.

Frecuencia :  257 KHz. (1167,3 metros).

Tipo de onda : A 1.

Características de emisión :

a) Emisión omnidireccional = Indicativo FRQ (..-. .-. –.-) dos veces.

b) Emisión de orientación = Puntos de 1/12 de seg. y rayas de 5/12 de seg. durante 30 segs.

Período total : 40 segundos.

Horario de emisiones : Continuo, excepto de 7:30 a.m. a 7:45 a.m., que funciona para su regulación.

Sectores utilizables : Del 033º al 179º y del 213º al 359º.

Nota : Cuando funcionaba en esta fecha en período de prueba emitía la palabra TEST en lugar de su indicativo FRQ y no podían utilizarse sus emisiones en dicho perído.

 

Como se puede observar, a tenor de los datos que aquí se hallan, cada una de las estaciones Consol de Europa varió al transcurrir el tiempo sus características intrínsecas de transmisión, lo cual es lógico, ya que este hecho se corresponde con los reajustes que se hacen en cualquier sistema técnico a lo largo de su vida útil, y las estaciones Consol no fueron una excepción a esto.

Para ya culminar con esta entrada, inserto a continuación un mapa extraido de un libro extranjero de mediados de siglo, en el que se recoge una representación de las coberturas de cada una de las estaciones Consol europeas, exceptúando la de la estación de Ploneis (Francia), y por supuesto sin tener en cuenta las estaciones que funcionarían años más tarde con esta misma tecnología. Se puede observar en este mapa que quedaban muy pocas zonas en el Atlántico Norte a las que no llegara la señal de al menos dos estaciones. Era imprescindible el recibir en alta mar la señal de dos estaciones, ya que con la señal de una no bastaba. Así como con los sistemas Decca y Loran, que ya he tratado en su día, era suficiente recibir distintas ondas parejas a distintas antenas dentro de la misma estación, sin embargo el sistema Consol sólo proveía de una línea de demora por medida/estación, y para llevar a cabo el emplazamiento de la ubicación se necesitaban al menos dos líneas de demora, que se intersecaban en el mapa en el lugar de la posición del navío, submarino o avión. Por otra parte, también se puede observar en el dibujo, así como en los datos expuestos, que existían sectores no utilizables para cada estación, a pesar de que su señal sí llegaba físicamente a esas zonas. En estos sectores, que se correspondían con ángulos pequeños en relación a la dirección de alineamiento de las tres antenas de la estación, no se debía usar la información extraida de la recepción de la señal, dado que una diferencia o imprecisión pequeña en la medida de la cantidad de puntos (o rayas) hasta el momento de equiseñal y después del mismo, que no era infrecuente por determinarse ambos números mediante  la audición de la  onda demodulada,  significa un mayor error en relación a la posición real en esta zona si comparamos ese error con el que se produciría con igual audición en las posiciones del receptor no próximas a la dirección de alineamiento de las antenas.

 

 

El gran diseño, el libro polémico de Stephen Hawking y Leonard Mlodinow

 

 

Hace cosa de dos o tres meses salió al mercado el último libro de Stephen Hawking, con Leonard Mlodinow como coautor. Se trata del libro de divulgación científica “El gran diseño”, y vino acompañado de una gran polémica a escala mundial, aún cuando todavía estaba en las imprentas. Se crearon foros en Internet, los blogs recogían comentarios todos los días, los humanos de todo el mundo esgrimían su más elaborada argumentación para defender su postura personal, a veces había insultos y prepotencia, tanto los religiosos como los ateos se salían de sus casillas. Es natural, es el tema que siempre ha generado más polémica sobre la faz de la Tierra, desde que el mundo es mundo, ha habido guerras santas, abusos de la Iglesia, y también ahora empieza a haber abusos de los no religiosos, que en principio no tienen derecho a privar a nadie de su forma propia de pensar –siempre y cuando no sea de tipo coercitivo, en cuyo caso sí deben tomar medidas-, las ansias de poder han manipulado el libre albedrío y el libre pensamiento de los hombres durante la mayor parte de la historia, pero si los ateos como yo imitamos ahora la forma bárbara con la que la Iglesia se ha manejado como estamento político, en principio no estamos demostrando librepensamiento sino todo lo contrario, que es una dictadura, ni estamos comportándonos dando ejemplo de la buena conducta de la que dicho estamento no hizo gala.

La imparcialidad jamás ha existido. Por mucho que nos abstraigamos de nuestros propios sentimientos a la hora de hablar, siempre, absolutamente siempre, se deja entrever cuál es nuestra verdadera postura ante cualquier tema de discusión. Y esto en realidad es algo fenomenal, puesto que lo contrario indicaría que hemos dejado de ser hombres para convertirnos en máquinas de cálculo. La Naturaleza nos concede al nacer unas cualidades, que en parte son modelables después con nuestra interacción con ella, como prueba el hecho de la epigénesis recién confirmada por la Ciencia. Así pues, aunque en un principio podría parecer que todo nos viene impuesto por Dios (o el Universo para los panteístas como yo), sin embargo ésta no es la realidad, ya que los seres humanos hacemos uso –siempre que nos dejan, claro está, los demás humanos- de nuestro libre albedrío. En principio el futuro es una ilusión que podemos formar en nuestra mente, nosotros sólo notamos el fluir del tiempo por la sucesión de pensamientos que aparecen en nuestro cerebro y por los actos de ellos derivados, con su cronología y orden inherentes, pero las cosas inanimadas están quietas y las cosas móviles se mueven y nosotros no advertimos como se oxidan y deterioran sus moléculas y las nuestras, sólo viendo los cambios que se producen en un reloj o en algún objeto que nos sirva como tal, podemos darnos cuenta de que el tiempo fluye. La gente habla de objetivos y de futuro, de cómo nos irán las cosas y si tendremos suerte. Yo creo que el futuro y el pasado no existen, sino que sólo existe presente, si rememoramos cosas que nos han pasado en épocas anteriores, las seguimos rememorando en tiempo continuo, si nos imaginamos qué haremos dentro de exactamente veinte años también lo estaremos pensando ahora. Por lo tanto, creo muy firmemente en el libre albedrío. Los animales con cierta consciencia e inteligencia tomamos decisiones en nuestro presente. En el momento de tomarlas no sabemos si serán decisiones acertadas o no, a veces las decidimos tirando un dado y otras veces en base a nuestra intuición, sus resultados los conoceremos cuando haya pasado algún tiempo y veamos si la decisión nos reportó beneficios materiales o emocionales o no. La vida es un gran árbol, cuya raíz empieza en nuestro nacimiento y que se va bifurcando a medida que tomamos decisiones. Así pues, los hombres no sólo dependemos de fuerzas extrañas a nosotros, lo que se llamó y sigue llamando Providencia o Dios o Universo, también elegimos nuestro camino en la vida. La idea de Dios surgió como una explicación mística de lo desconocido, pero no una explicación lógica ante los ojos de nuestro limitado cerebro y forma de sentir. Decir que hay una causa primera de todo, que existe desde siempre y que es Dios, es en principio tan absurdo o tan lógico como decir que el Universo existe desde el principio de los tiempos. El Dios en el que creo, que se identifica con el devenir del Universo, es un dios más allá del bien y el mal. Estos dos conceptos, el bien y el mal, solamente residen detrás de nuestras frentes, como todo lo que somos como personas, fuera de nosotros no veo ningún ser que opere basándose en distintas gradaciones de lo que es malo o menos malo o bueno, somos nosotros los que atribuímos a diferentes sucesos el calificativo de bueno o positivo o de malo o negativo. Los Mandamientos de la Ley de Dios son en esencia unos consejos razonables dictaminados por el sentido común que podemos aplicar por imposición cuando todavía no hemos desarrollado nuestro propio código ético personal. Así, hay algo bueno en la religión, con independencia de que los creyentes suelen tener menos miedo a la muerte. Las criaturas vivas que pueblan la Tierra, las que carecen de inteligencia, son seres que no saben distinguir si una cosa es buena o mala, sólo se comportan mediante el empleo de instintos heredados que pervivieron gracias a la selección natural y que muy probablemente fueron adquiridos gracias al concurso del azar. Se me ocurre ahora un ejemplo de esto, por mi afición por la ornitología. El mirlo común (Turdus Merula) es un pájaro de la familia de los Túrdidos, con un canto muy aflautado y agradable, y que suele resonar en nuestros campos cuando para de llover, como si al haberse mojado le entraran las ganas de cantar. El mirlo construye nidos de tamaño proporcionado a sus propias dimensiones físicas, empleando barro para cohesionar las ramitas, a modo de cemento. Qué maravilloso misterio reside en el comportamiento de los pájaros. Las aves se cortejan y construyen un nido, y nunca o casi nunca se apartan de las costumbres propias de su especie, esas costumbres sirven incluso para identificarlas. En las épocas de migración, se reúnen en grandes bandadas, y siguen a un líder. La dinámica de las grandes bandadas sería digna de un interesante estudio matemático. Pero siguiendo con lo que comentaba, … ¿quién le dice al mirlo que debe usar barro para cohesionar el nido?¿Lo ha aprendido?. En realidad yo creo que en parte lo ha aprendido, que en parte lo ha heredado, y que en parte ha tenido suerte. Pienso que los ancestros de los mirlos en algún momento de su evolución biológica, por casualidad, dado que se alimentan de gusanos que suelen habitar el barro o la tierra mojada, arrastraron porque la Providencia así lo quiso una pequeña cantidad de tierra húmeda al nido que estaban construyendo, en el momento justo siguiente a su hora de la comida, y una vez en el nido en construcción, gracias al continuo pisoteo, apareció el milagro de que el nido tenía cohesión. Lo que sucedió después es que los mirlos –o ancestros de ellos- que hacían así sus nidos, obtenían ventaja, por ejemplo porque un nido fuerte no deja caer a sus inquilinos al suelo si éstos son pesados o revoltosos, y por tanto tienen mayores posibilidades de sobrevivir, y entonces entró de nuevo en acción la Providencia, que se encargó de seleccionar en cierto modo aquéllos especímenes que adquirieron tal costumbre dándoles mayores probabilidades de seguir perpetuando su especie. Hasta que la costumbre pasó a formar parte de la misma y quedó registrada de algún modo físico como distintas cadenas de nucleótidos formando genes en su biblioteca genética. Opino que la aparición de la inteligencia humana tuvo también mucho que ver con el azar y con la emergencia de buenas propiedades globales en sistemas complejos. La idea de la evolución de las especies por selección natural es la idea más poderosa, bella y a la vez simple que ha concebido una mente humana. Debió de sentirse muy orgulloso de ella Charles Darwin, uno de los genios indiscutibles de la humanidad, y debió de disfrutar muchísimo su concepción, lo tuvo que pasar verdaderamente en grande. No es para menos. Pero Darwin padeció en vida sentimientos encontrados por culpa de sus ideas, ya que su esposa Enma era una ferviente religiosa, y la concepción de una Naturaleza que se explica a sí misma mediante el concurso de sus leyes propias, sin la participación de ningún ente divino o sobrenatural, que supuso una Revolución Intelectual sin apenas precedentes, y que contradecía lo escrito en la Biblia, no era una idea al gusto de su mujer, como todavía no sigue siéndolo ahora para los seguidores del creacionismo y en general para muchos religiosos del mundo entero. En Estados Unidos no está permitido enseñar religión en los colegios. En su lugar se ha adoptado una solución de compromiso consistente en atribuir un diseño divino de naturaleza teleológica, esto es, orientada al fin, a todas las criaturas que pueblan el Mundo, que son como son porque Dios las diseñó así con un planteamiento “a objetivos”. Y esto es una mentira, a la luz de la Ciencia actual. Si queremos que la Verdad impere en el mundo no podemos consentir las falsedades, siempre y cuando esté claro cuál es la Verdad, existen opiniones científicas de expertos que concuerdan y que en principio pierden más que ganan por el hecho de contar falsedades, es para ellos mejor contar la Verdad. Detrás de la falsedad siempre hay un interés, normalmente para el beneficio de unos pocos. Así pues, el diseño inteligente, que en teoría genera órganos animales perfectos y perfectamente adaptados al empleo que se hace de ellos, cuya perfección no es tal (ojos que ven mal, oídos que no oyen ciertas bandas de frecuencia, …) es una mentira que no deberíamos asumir como cierta ni popularizar, y debería ser desterrada de la enseñanza, conservándola sólo a modo anecdótico.

Hasta ahora sólo me he limitado a introducir el tema de la pulsión continua entre Providencia y libre albedrío, según mi propia manera de pensar. Pero a continuación entraré ya de lleno en lo que realmente pretendía, que es hacer mi comentario y reflexión personal sobre el contenido del libro “El gran diseño”, que leí en estas Navidades. “El gran diseño” comienza con una remembranza sobre la mayor revolución que ha habido en el pensamiento humano, y que se desencadenó en una sociedad de artesanos y mercaderes de las islas occidentales de la actual Turquía, que en aquel momento pertenecían a Grecia, el archipiélago Jonio. Allí nació la idea del Cosmos, la grandiosa idea de que hay un orden en el Universo y que puede ser aprehendido por los hombres. Supuso el nacimiento de la Ciencia como tal. Prohombres como Tales de Mileto, Anaxágoras, Empédocles o Anaximandro pusieron en práctica esta concepción creando las primeras y rudimentarias formas de entender el mundo o teorías, y que en algunos casos estaban bien poco apartadas de la Verdad, como se supo mucho después. Algún tiempo más tarde apareció la teoría de epiciclos sobre deferentes del modelo geocéntrico de Ptolomeo. Tuvieron que pasar muchos siglos hasta que le surgiera una competidora, la teoría heliocéntrica de Copérnico, que ya había sido ideada por Aristarco de Samos en la época Jonia, pero que cayó en el olvido, como una gran cantidad del conocimiento albergado en la antigua Biblioteca de Alejandría. En el libro de Hawking se comentan en relación a este particular las diferentes doctrinas epistemológicas o de filosofía de la Ciencia que han sido tomadas en cuenta a lo largo de la historia. Así, Hawking y Mlodinow distinguen entre realismo o materialismo –cuando asumimos que existen en el Universo verdades indiscutibles que están ahí afuera esperando a que las descubramos-, idealismo –cuando mantenemos que nuestra posición de observadores pertenecientes al propio Universo condiciona que nuestra propia visión del mundo es genuina nuestra y que todo lo que pensamos sobre el exterior es en realidad producto de nuestra mente-, y una doctrina que es un poco una mezcolanza de las dos anteriores, que es el realismo dependiente del modelo –cuando pensamos que en principio pueden existir distintas formas o modelos de reflexión sobre los objetos y que en principio no tienen por qué ser unos verdaderos y los otros no, sino que por nuestra propia conveniencia nos puede interesar para según qué cosas el ver el mundo de cierta manera y según que otras de otra totalmente distinta-. En este punto los autores ponen como ejemplo la concepción propia del mundo exterior de un pez que habita en una pecera de cristal curvado. Para el pez los movimientos que nosotros vemos como líneas rectas serán líneas curvas. ¿Está el pez errado o lo estamos nosotros?¿Quién nos dice a nosotros que nuestros sentidos e instrumentos han de ser el patrón o vara de medida estándar?. Esto no es así. En principio ambas concepciones no tienen por qué no estar en pie de igualdad. Esta forma de pensar nos lleva a concluir que si tanto el modelo geocéntrico como el modelo heliocéntrico explicaran las retrogradaciones de los planetas errantes con igual grado de exactitud –cosa que podría suceder si sobre los epiciclos principales colocáramos otros epiciclos de menor tamaño y así sucesivamente, limando la incongruencia entre el modelo de Ptolomeo y las observaciones al máximo- en principio deberíamos asumir ambos modelos como válidos porque ambos explican la realidad de manera prácticamente exacta. El realismo dependiente del modelo se ha impuesto en la física actual. Así, podemos explicar la misma realidad de formas muy diferentes. El hecho de que la luz se comporte como una onda y también como un conjunto de partículas es un ejemplo. En el reino de las grandes masas y velocidades, a escalas macroscópicas, los especialistas utilizan la teoría de la relatividad general de Einstein. A escalas menores se usa la mecánica newtoniana como modelo, y de hecho funciona de maravilla a la hora de construir puentes o edificios, y a grandes velocidades y masas ésta no es tan exacta como la relatividad. A escala subatómica se utiliza la mecánica cuántica, que a pesar de ser muy poco intuitiva realiza predicciones asombrosas con un grado de precisión mayor que el de las otras teorías. Sin embargo ni las teorías de Einstein ni de Newton tienen nada correcto que decir cuando hablamos de partículas. Desde los años 50 del siglo pasado se evidenció un nacimiento de nuevas teorías, intentos de unificar las fuerzas de la naturaleza –fuerza gravitatoria, fuerza electromagnética, fuerza nuclear fuerte (responsable de la cohesión del núcleo atómico) y fuerza nuclear débil (responsable de la radiactividad)- en una sola teoría. Así, Richard Phillips Feynman, Tomonaga y Schwinger, recibieron conjuntamente el premio Nóbel de Física, por desarrollar de forma independiente unos de otros la primera de las teorías cuánticas de campos, más concretamente, la teoría de la electrodinámica cuántica, la cual explica mediante partículas de materia y mediante partículas de energía, y mediante sus interacciones recíprocas, los campos electromagnéticas. Después, años más tarde aparecieron otras diversas teorías cuánticas de campos, como la teoría electrodébil, que unifica el electromagnetismo con la fuerza de interacción débil, o la cromodinámica cuántica, una teoría cuántica de campos para la fuerza de interacción fuerte. Finalmente, a medida que pasó el tiempo, se fue afianzando la búsqueda de una teoría del Todo –ya Einstein la persiguió infructuosamente-, al que se le ha dado el nombre de Teoría M (quizás “M” de “Maestra”), y que todavía no se ha hallado. Actualmente, muchos científicos de todo el mundo opinan que la ansiada Teoría M se identifica con la Teoría de Cuerdas, una familia de distintos modelos del Universo que se aplican en distintos rangos de observación y que parte de la suposición de considerar las partículas no como puntos, sino como pequeñas cuerdas, cuyos distintos modos de vibración originan sus interacciones, ondas, o fuerzas que provocan. En realidad, existe una corriente de pensamiento muy popular en antagonismo con la Teoría de cuerdas, y que basa sus objeciones en los hechos poco afortunados de que hasta el momento no se ha contrastado empíricamente ninguna de las afirmaciones de tal teoría, así como en que existen variables en dicha teoría que se deben suponer con un valor concreto forzado para que sea coherente, o que el espacio está formado por 3 dimensiones extensas que se curvan en una cuarta, y muchas más –hasta 7 más- compactadas localmente a escala subatómica. Un conjunto de muchas peregrinas suposiciones. Pero existe la esperanza de que cada teoría de cuerdas particular, dentro de su gran familia, explique un rango del mundo observable.

Y entramos ya de lleno en el asunto principal del libro,… ¿es capaz el Universo de aparecer de la nada?¿Por qué hay algo en vez de nada?. Para responder a esta pregunta, Hawking y Mlodinow comienzan hablando del principio antrópico en cosmología. El principio antrópico viene a establecer que dado que es un hecho que estamos observando el Universo, también debe suceder que las leyes del mismo deben haber sido y de hecho son favorables a nuestra existencia, y esto nos da una vía para entender la historia del Universo de arriba hacia abajo, es decir, desde la actualidad hasta el Big Bang, en contra de la forma de abajo hacia arriba clásica. Para explicar su postura, los dos autores se auxilian del concepto de múltiples historias de partículas que aportó Richard Feynman a la física moderna, y que viene a dictaminar que dado un conjunto de partículas que co-evolucionan, si asociamos un número o fase a cada una de sus posibles historias temporales, aquellas historias que sean parecidas arrojarán números de fase muy similares y se sumarán sin apenas cancelaciones mutuas –entendiendo el número de fase como un número complejo de módulo unitario y de ángulo variable- dando lugar a un número complejo de gran módulo. Por lo tanto, aquellas historias que sean muy parecidas son las que arrojarán mayor probabilidad en la medida de su ocurrencia, pues dicho número complejo mide en realidad tal concepto, y de este modo la historia del universo puede ser entendida como aquel conjunto de historias de todas sus partículas que arrojan la mayor amplitud de probabilidad. Y llegados a este punto, los autores conciben el Big Bang como el resultado de una fluctuación cuántica que por “selección universal” sobrevivió y dio lugar a nuestro Universo actual, maximizándose de este modo la probabilidad de su historia. Algo así como cuando vemos burbujas en una botella de champán. Algunas se desintegran prácticamente de manera instantánea, pero existen otras que por sus condiciones físicas o leyes locales perviven y aumentan deshaciéndose un poco después.

Desconozco cómo ha empezado el Universo, yo no soy más que un aficionado a la Ciencia y un admirador de lo que ésta nos ha proporcionado, no creo que exista hoy en día ningún científico en realidad que conozca cómo empezó todo. Hay todavía muchas lagunas, algunas de las cuales a lo mejor resultan ser insalvables para nuestros medios de medida y para el intelecto humano. Aún así, reconozco que lo que proponen Hawking y Mlodinow –pues nadie puede quitarme mi derecho a opinar, aunque diga cosas que después no resulten ciertas- es una idea evocadora y bella, que no nos reduce a materia corriente del mismo modo que tampoco esto sucede cuando se reconoce que nuestros átomos fueron cocidos en los hornos estelares que después explotaron como supernovas. Si Darwin pudo abstraerse de la acción de divinidades para concebir y demostrar la realidad biológica sobre la faz de la Tierra, parece una extensión natural y completamente lógica el creer en un mundo autoexistente y evolucionante. Se trata de una gran idea. Pero podemos conciliar nuestra inquietud existencial con la ciencia. Podemos y debemos respetar a los que no piensan como nosotros. El respeto es la base de la convivencia, y la educación lo primero que se aprende en la escuela. Dios puede existir y puede estar en todas partes. Es un Dios que engendra las cosas más bellas y hermosas, como el gorjeo de un pájaro y la hermosura encarnada de una rosa, que escribe un libro infinito en cada brote resplandeciente de hierba, en cada árbol, en cada río, en nosotros mismos, somos los ojos de Dios, nos engendró para que se pudiese festejar a sí mismo, a veces son angustiosos sus designios, pero casi siempre esperanzadores, su único defecto es que no posee ética, pero para eso ya estamos sus hijos, los humanos. Esta grandiosa belleza que hay por todas partes, este orden matemático que subyace, son las manifestaciones de su poder infinito y de su eterno cariño. Porque Dios es Uno y Todo. Porque Dios es el Universo mismo.