Archivo de la categoría ‘ Ciencia ’

La bomba de ariete y Joseph Montgolfier

 

 

El inventor francés Joseph Montgolfier patentó en el año 1796 un invento que a mi juicio es de un ingenio apabullante. La creación de este hombre pasó a ser conocida como la bomba de ariete, y es un mecanismo que únicamente empleando la energía que un pequeño salto de agua imprime en ésta, consigue elevar parte de ella a una altura muchísimo mayor que la de partida, sin el concurso de ningún tipo de motor o de otra fuente de energía. Se debe dejar bien claro que el mecanismo mencionado no es capaz, como es lógico según las leyes de la física, de subir todo el agua que se le entrega a una altura superior, sólo sube parte de ella. Esto no es de extrañar, puesto que en realidad lo que está haciendo la bomba es emplear la energía cinética del agua acelerada, agua que es después desperdiciada, para una vez almacenada como presión del depósito, entregársela al agua que es subida, consiguiéndose de este modo ganancia de altura para esa fracción de agua (que suele ser del 10 % del agua total que recibe la bomba) en relación a la altura de la fuente de agua desde donde ésta parte. Es imposible que se pueda subir todo el agua de entrada a una altura superior. Se estaría violando la ley de conservación de la energía, que viene a establecer que la energía mecánica inicial del agua es igual a la energía mecánica final en un cierto tiempo de evolución. Esta ley es fácil de entender en términos gravitatorios si pensamos que tanto si un grave aumenta su altura, a partir de una velocidad de partida desde la superficie terrestre, como si un grave aumenta su velocidad, a partir de la suelta de ese grave a velocidad cero desde la altura que alcanza según lo anterior hasta alcanzar dicha superficie, en ambos casos no estamos sino materializando la misma integral de elementos diferenciales de trabajo, o si se quiere de un modo equivalente, la misma integral de cantidades instantáneas de ímpetu por elemento diferencial de velocidad, sólo que según sentidos opuestos. Por ello ambas integrales son la misma y por lo tanto el fluido que cae desde una altura y es canalizado hacia abajo y luego hacia arriba, alcanzaría la misma altura en ambas ramas del tubo, que es lo que se conoce como principio de vasos comunicantes. En realidad, la ley de conservación de la energía a utilizar en los fluidos viene dada por el teorema de Bernoulli, el cual sirve de balance energético para un «tubo de corriente» del fluido bajo estudio, suponiendo un régimen laminar para ese «tubo de corriente».

Como se puede observar en la imagen superior, el agua es canalizada desde el salto de agua, manantial, o río, que está a una altura superior a la bomba, hacia ésta mediante una tubería inclinada que suministra el agua a la bomba. La bomba tiene una ramificación hacia arriba que comunica con un depósito C por la mediación de la válvula B. La rama que sigue desde esa válvula B en adelante, por la parte de abajo, tiene a su fin otra válvula A, que comunica la tubería principal hacia afuera, preferentemente hacia un lugar donde el agua que por ella sale pueda ser reaprovechada para otros menesteres, o simplemente siga su discurrir por el mismo río o arroyo.

El funcionamiento de la bomba ariete se puede explicar en dos fases. La primera de ellas es la representada en la imagen superior y la segunda de ellas en la inferior.

En la fase inicial (imagen superior) el agua es acelerada en el conducto que proviene del salto de agua, simplemente por la imprescindible diferencia de alturas y la eventual presión ejercida donde se absorbe el agua si esta toma está bastante por debajo del nivel del arroyo o charca. Gracias a esa velocidad imprescindible y al ímpetu parejo a ella el agua empuja la válvula A y la hace avanzar hacia arriba, en cuyo avance parte de esa agua que está empujando bordea la válvula y sale al exterior, perdiéndose. Cuando la válvula A toca de repente con su tope superior (imagen inferior), la salida de agua hacia afuera es bloqueada. Como es lógico, por el principio de acción y reacción, exactamente la misma fuerza instantánea y de naturaleza impulsional (que se modelaría matemáticamente mediante una función delta de Dirac) con la que el agua cierra esa compuerta, y que no es sino el producto de la masa por la alta tasa de cambio instantánea de la velocidad de la misma por cesar su movimiento de repente, es transmitida en sentido contrario por la válvula al agua que está a su izquierda. En consecuencia, por el principio de Pascal, que establece que en un fluido la presión se propaga por igual en todas las direcciones, esa fuerza se transmite a través del agua hacia la izquierda y a su vez hacia arriba, hacia la válvula B, la cual se desplaza hacia arriba gracias a ese empuje, y en su avance deja pasar una cierta cantidad de agua al depósito C, bordeando la válvula, hasta que la presión por encima de la válvula B la hace bajar cortando el paso del agua del depósito hacia abajo. En este momento la presión por encima de dicha válvula está equilibrada con la de abajo. De esta manera se va agregando agua al depósito gradualmente, en sucesivos golpes, que suelen alcanzar un ritmo de uno o dos por segundo, hasta que el aire que se halla dentro de él está a una alta presión, por verse reducido a un espacio cada vez menor. La suma de esa presión que ejerce el aire más la presión hidrostática de la altura de agua creciente en el depósito, en el punto de salida de ésta hacia el lugar donde ha ser subida es la responsable de que el agua que va suministrando la mitad inferior de la bomba sea elevada hasta una gran altura, que puede ser incluso, con los convenientes ajustes y las medidas de diseño oportunas, de hasta 70 metros o más. Como es lógico, es imprescindible montar el depósito sin vaciarlo de aire, es decir, no se debe montar en vacío, porque sino sólo tendríamos la fuerza pareja a la presión hidrostática del agua del depósito para ir subiendo la que suministra la mitad inferior, y esta fuerza es muchísimo (¡¡ muchísimo !!) inferior en relación a cuando existe aire cada vez más comprimido en el depósito. En realidad el primordial responsable de la fuerza de subida es el aire comprimido del depósito, el cual viene a ser algo así como un acumulador de energía, que se obtiene mediante la suma de los sucesivos elementos de energía cinética que el agua desperdiciada va aportando golpe a golpe.

Este mecanismo fue muy popular desde su presentación, pero con la llegada de los motores monofásicos de corriente alterna y de las bombas rotativas que éstos mueven pasó a la categoría de manualidad. Estas bombas en su diseño inicial hacían el vacío en la tubería de subida desde el lugar de extracción, con lo que el agua era absorbida hacia arriba empujada por la presión atmosférica y la presión de la altura del agua aplicadas en el punto de entrada a la tubería, y que por lo tanto le otorgaba una máxima profundidad posible a dicha tubería desde la bomba hasta la superficie del agua de 10,5 metros (equivalentes a la presión de una atmósfera). Esto era así en los sistemas que no disponían de mecanismo de Venturi, que son a día de hoy obsoletos. Las bombas rotativas de vacío que llevan un Venturi en el lugar de la succión del agua, funcionan de otra manera. Cuando usamos un sistema de este segundo tipo, denominado bomba de chorro, el agua es movida en una columna paralela a la de extracción hacia abajo a través de esa tubería y después hacia arriba, para lo que se aprovecha la gran velocidad del agua que baja, consiguiéndose un aumento de la velocidad del fluido que sube y una disminución importante de la presión, que facilita la succión del agua desde el fin de la tubería principal a una profundidad mucho mayor, del orden de hasta 35 metros. La bomba de ariete, con todos estos avances, se dejó de utilizar, al menos en el mundo avanzado. Pero aún así hoy en día sigue empleándose en muchísimos lugares del mundo, lugares con diferentes grados de subdesarrollo, en los que no se dispone de estos medios de la modernidad o donde no se dispone de red eléctrica, y por qué no, también en lugares donde personas curiosas e inteligentes de oficios y ocupaciones de lo más variado, disfrutan de este invento que el señor Joseph Montgolfier tuvo la gentileza a finales del siglo XVIII de regalarnos con su ingenio sin parangón.

 

 

¿Qué fue primero, el huevo o la gallina?

 

 

  

La pregunta acerca de qué fue primero, si el huevo o la gallina, es una de las cuestiones ancladas en el imaginario popular desde tiempos tal vez ancestrales. A la contestación a esta cuestión en apariencia simple, pero con un amplio trasfondo, me dedicaré en esta entrada. Me formulo entonces la pregunta. Para empezar… ¿tiene sentido semánticamente?. Pues en principio yo creo que sí lo tiene, puesto que en la misma naturaleza de las gallinas está que eclosionen de un huevo, y asimismo que ese mismo huevo haya sido puesto por una gallina fecundada. Visto de este modo, sin añadir ningún elemento más en nuestro razonamiento, se podría decir que hay una regresión infinita hacia atrás de huevos que son puestos por gallinas las cuales nacen de huevos que son puestos por gallinas, y así sucesivamente, si bien en cada momento puntual coexisten un gran conjunto de huevos y gallinas a la vez sobre la faz de la Tierra.

Pero mirando un poco más en perspectiva uno se da cuenta de que la especie gallinácea doméstica no existe desde siempre, tuvo que haber algún momento en que apareció a partir de otra(s) especie(s) previa(s), de acuerdo con la teoría de la evolución. Evidentemente el paso de unas especies a otras es un proceso que dura miles, tal vez cientos de miles de generaciones, aunque desconozco exactamente cuál puede ser el promedio de tiempo para que a partir de unas especies originales surjan otras nuevas, pero en todo caso es un proceso sumamente lento. De hecho la manera que ha tenido la raza humana (precedida por Darwin y Wallace) de saber que de manera probada existe evolución entre unas especies y otras posteriores, se basó fundamentalmente en el registro fósil (hoy en día existen medios más eficaces como la secuenciación del genoma), puesto que una persona suele vivir en torno a los 80 años, y la forma original empleada para ver los cambios graduales y sumamente lentos que hay en las sucesivas generaciones de animales es remitiéndonos a las pruebas, que en este caso no son otras que los restos zoológicos que han quedado retenidos en las rocas o en los fondos oceánicos.

La clave para contestar a la pregunta formulada, con veracidad, reside en el proceso biológico conocido como mutación genética. Es sobradamente sabido que a partir de unos padres y de unos abuelos, parte de los genes de los hijos son iguales, lo que da lugar a que se parezcan mucho a ellos en muchísimos aspectos, pero siempre, absolutamente siempre, existen variaciones al pasar de una generación a la siguiente. Así, por ejemplo, podemos tener la nariz un poco más prominente que ellos, cuando ellos ya la tienen en cierto modo robusta, o también podemos desarrollar una enfermedad que ninguno de ellos ha padecido. La causa del capricho de las pequeñas variaciones, que nos hacen a cada uno únicos en nuestra especie, es como decía el fenómeno de la mutación genética. Una mutación genética es un error en el proceso de copia entre células primigenias o células madre cuando se está formando el embrión. En el proceso de copia de la doble hélice de ADN interviene una enzima o catalizador conocido como helicasa, cuya actividad consiste en ayudar a disminuir la barrera de potencial que media entre los reactivos y los productos de la reacción química implícita al copiado, o si quiere ver de un modo físico, la helicasa facilita la rotura de la doble hélice en dos ristras independientes a partir de cada una de las cuales se genera otra nueva ristra contrapuesta a la que le da origen, y que conforman (las dos nuevas ristras) en conjunto la nueva doble hélice resultante de la copia, mediante el concurso de otras enzimas. Debido al mal funcionamiento en un momento dado de este proceso de copia, aparecerá una nueva ristra de ADN igual que la original pero con algunos cambios en su código genético, que son las mutaciones. ¿Existe determinismo en la aparición de mutaciones?. Esto abriríra un debate mucho mayor que el que pretendo generar en esta entrada, de modo que de momento diré que hasta donde se sabe las mutaciones son totalmente aleatorias (El Dios de la suerte haciendo de las suyas). Pues bien, si juntamos el fenómeno que acabo de comentar, que da lugar a lo que Darwin denominó en “El origen de las especies” como “exaptaciones”, o variaciones aleatorias de nacimiento, con el hecho de la recombinación genética –se mezclan los dos códigos genéticos de los progenitores para producir el del vástago de forma que un gen de un determinado padre está o no está pero no está a medias-, y con la selección natural impuesta por la Madre Naturaleza, y si dejamos que estos procesos actuén durante más y más generaciones, tendremos explicada la evolución de las especies.

De este modo ya tenemos los ingredientes base para contestar satisfactoriamente a la gallinácea cuestión propuesta. Evidentemente debió haber un momento puntual, esto es, una generación puntual, en la que eclosionaron grupos de huevos con la última exaptación implícita para que sus alados moradores tuviesen exactamente todos los rasgos que identifican a la gallina doméstica. Se puede decir que en esa generación arrancó tal especie en su proceso evolutivo, si bien, el otro conjunto mayor de caracteres propios de una gallina ya existían de antes y como resultado de una evolución gradual y lentísima. Pero se puede decir que ese es el momento cero de la especie gallus gallus domesticus. Si centramos nuestra atención en esa generación, nos daremos cuenta de que su genotipo será prácticamente idéntico al que poseían los embriones en sus respectivos huevos, pues todas las células vivas proceden del repetitivo proceso de copia que arrancó con las células madre. Por lo tanto fue antes el huevo que la gallina, o mejor expresado, fueron antes los huevos que las gallinas, puesto que no fue un único ejemplar el que tuvo el honor de ser la primera gallina, tuvieron que ser muchos los que nacieron tras esa última o últimas exaptación(es) pareja(s) a esa generación. La causa de que aparecieran esos primeros ejemplares fue ese último (o ese conjunto de último(s) cambio(s) que se encargaron de programar las células madre de los moradores de esos huevos antes aludidos cuando ocurrieron las pertinentes mutaciones genéticas. Aún así, cabría añadir ya para terminar esta entrada, que la reproducción por huevos es antiquísima y se remonta a antes de la aparición de anfibios y reptiles, pero esa ya es otra historia.

  

¿Existen instintos heredados? Contesta Gaspar

  

  

¿Cuántas y cuáles de las costumbres de los animales son aprendidas y cuántas y cuáles son innatas? Es ésta una pregunta que siempre se han formulado como objetivo de sus estudios los etólogos, que son biólogos que investigan el comportamiento de la fauna. Esta disciplina –la etología- es tremendamente curiosa e interesante, pues sumerge a sus practicantes en la quintaesencia del fenómeno de especie. Aunque existen muchas definiciones de tal concepto, se suele reconocer a una especie como el conjunto de animales de ambos sexos con características morfológicas y de comportamiento similares y que además participan recíprocamente en la reproducción, esto es, se aparean. Ésta podría ser la definición de especie más comúnmente aceptada, pero las más avanzadas investigaciones biológicas del momento dan cuenta de otras posibles formas de identificar a los seres vivos según clasificaciones estancas, de acuerdo a criterios bien distintos del que arriba enuncié.

Ahora bien, los ejemplares de cada especie, tienen unas pautas y hábitos de comportamiento homogéneos que los diferencian o aproximan a otras especies diferentes. Volviendo a la pregunta con la que empecé esta entrada…¿son todas las costumbres aprendidas por los animales a lo largo de su vida o existe algún medio de que esos instintos se hereden entre generaciones sucesivas?. Evidentemente esta cuestión se la han planteado antes muchísimas personas, pero por su elocuencia sin par voy a referir aquí la trama de un episodio de la serie de divulgación naturalista “El hombre y la Tierra”, de la cual, debo confesarlo, soy un adicto, y en la que el malogrado Félix Rodríguez de la Fuente contesta a esta pregunta de la manera más radical posible, esto es, con hechos verídicos, repetibles, verificables y contrastables, esto es, científicamente.

El capítulo al que me refiero está dedicado a las costumbres de una ave carroñera de origen africano, que pasa la época estival por nuestras latitudes, el alimoche (Neophron percnopterus). En las tierras africanas el alimoche, ave emparentada con los buitres, demuestra tener un cierto instinto a la hora de alimentarse. Para romper las duras corazas de los huevos de avestruz con el objeto de alimentarse de su contenido, suelta piedras de tamaños proporcionados al huevo sobre el mismo, para así fracturarlo y poder sorber su interior. En otras palabras, al igual que sucede con los humanos y con ciertos simios y otros animales de los que después hablaré, utiliza herramientas para su vida cotidiana. ¿Cómo es posible ésto si su cerebro no es mayor que el de otras aves, cómo puede residir en él tal inteligencia? -aunque confieso que nunca he pensado como un alimoche, por lo menos nunca tiro piedras sobre los huevos de gallina antes de freírlos en la sartén-. La pregunta que me hago yo es además otra… ¿por qué otras aves que se alimentan de huevos no tienen esta costumbre de soltar piedras encima?. Si lo hace el alimoche que tiene un cerebro pequeño bien podría hacerlo también una urraca, de cerebro similar, y que también se alimenta de huevos entre otras cosas. Sin embargo la urraca esto no lo hace, tal vez porque se alimenta de huevos de menor tamaño, y a pesar de ser un córvido, y por tanto poseer inteligencia como mínimo similar. La intuición parece estarnos diciendo a gritos que de algún modo es una costumbre heredada y propia de esa especie (me refiero al alimoche).

 Parece increíble que cuando se mezclan las células reproductoras de macho y hembra y se produce la división celular que da lugar al embrión, y cuando esos errores de copia en multiplicaciones sucesivas de las células primigenias producen variaciones aleatorias de nacimiento –totalmente dependientes del azar- que nos hacen tener rasgos idénticos a nuestros padres y abuelos con pequeñas –a veces grandes- variaciones, todo ello está escrito en el libro del ADN, en un libro de tamaño microscópico en el que está sintetizado cómo seremos físicamente, cómo sentiremos, cómo pensaremos, cómo enfermaremos, todo lo que nosotros seremos como ser vivo, y escrito en tantas copias como células tenemos en nuestro cuerpo. Es el mayor milagro que una mente humana puede admirar y comprender, el milagro de la vida, el milagro del mundo.

¿Cómo saben las crías de los mamíferos que deben alimentarse chupando de los pezones de su madre?¿Lo aprenden?. En principio no tienen ningún profesor que les diga que lo deben hacer, y si fuese un acto cometido por azar, entonces me parece muy raro que todos, absolutamente todos los mamíferos, mamen de su madre, es una coincidencia poco menos que extraña. Pero siguiendo mi argumentación donde la había dejado, continuaré explicando lo que sucede –para los que no lo hayan visto- en este episodio inigualable. En este capítulo de “El hombre y la Tierra”, Félix roba él mismo personalmente una cría de un nido de alimoche, la cual es llevada a un pequeño invernadero donde se le suministra calor y se le aisla del entorno. Después de llevado el alimoche al invernadero, al que Félix le pone el simpático nombre de Gaspar, el propio Félix y sus compañeros de rodaje se hacen pasar por sus progenitores y lo alimentan mediante pinzas con la carne que suelen recibir de sus padres naturales las crías de alimoche. Una vez que Gaspar llega a la edad equivalente a la de marcha del nido, los naturalistas lo llevan a la montaña para que aprenda a volar y para que conozca su medio. Cuando Gaspar tiene ya edad de buscarse la vida –fijaros que los humanos también lo hacemos, también llegado el momento nos separamos de nuestros padres y/o nos buscamos la vida por nosotros mismos- llega el momento crítico de saber si el hábito de los alimoches es innato o no lo es. Para averiguarlo, Félix y sus compañeros fabrican falsos huevos de avestruz con un tamaño y dureza del cascarón similares a los del ave africana, utilizando escayola, y los rellenan con el interior de huevos de gallina. En este punto debemos darnos cuenta que el joven alimoche no ha aprendido de absolutamente nadie del mundo mundial que si tira una piedra suficientemente grande encima romperá el huevo, sencillamente no se lo ha visto hacer a nadie. Y como en el más maravilloso cuento Gaspar se aproxima al huevo, primero prueba con piedras pequeñas, y finalmente coge piedras más grandes y las lanza sobre el huevo, rompiéndolo y sorbiendo su jugo. ¡¡¡¡Asombroso !!!!. Un ave que no tuvo el suficiente contacto con sus padres reales, de quienes podría aprender ciertas cosas por imitación, que nunca ha estado en África, que nunca ha visto un huevo de avestruz ni nada similar, que ni siquiera sabe que es un alimento, con una inteligencia que en principio es similar a la de otras aves, sabe instintivamente, por decirlo así, que el huevo le va a servir de comida y que para ello tiene que emplear una herramienta –la piedra-. Debo reconocer que este episodio me parece uno de los mejores de la serie ibérica de “El hombre y la Tierra”.

La consecuencia que se extrae de las peripecias de Gaspar es que algunos de nuestros instintos son heredados, puede parecer extraño, pero es verídico, muchas de las pautas que desarrollan los seres vivos las ejecutan porque de algún modo ello está registrado en su biblioteca genética, como el hecho de que respiremos sin pensar en ello o que nuestro corazón lata sin controlarlo con la mente, ambas cosas a otro nivel. Y esto es así porque las mutaciones que dieron lugar a esos comportamientos fueron en su momento ventajosas evolutivamente y la selección natural actuó conservándolas. Otro ejemplo que se me ocurre sin salir de los animales alados es el de los alcaudones, también llamados comúnmente pájaros verdugo. Los alcaudones (familia Lanidae) son aves muy agresivas, que se alimentan de toda suerte de pequeños mamíferos, otros pájaros, reptiles e insectos. No son precisamente vecinos agradables, ya que para matar a sus presas las empalan en pinchos de espino o de cercados de alambre, ello ya condiciona el lugar donde ubicarán sus nidos, cerca de los pinchos. Dichos nidos tienen la forma y tamaño similares a los nidos de mirlo común (Turdus merula), y los construyen en árboles ubicados en terrenos abiertos. Los alcaudones, al igual que los estorninos y otras aves canoras, son buenos imitadores, reproducen el canto de otras especies, quizás para atraerlas. El hecho de que empalen a sus presas viene dado porque su pico y sus garras no son suficientemente robustos y ganchudos como para desgarrar las presas grandes, ni poseen la suficiente fuerza como para hacerlo, por ello se ven obligados a ensartar a sus víctimas, de forma que estando éstas perfectamente enganchadas, pueden tirar con toda la fuerza de su cuerpo para desgarrarlas. Además de esto los restos que les sobran quedan ensartados en el espino a modo de despensa que utilizarán en el invierno. Evidentemente un alcaudón recién nacido que esté en el nido no aprende esto de ningún otro alcaudón. Se trata de unas pautas de comportamiento cuyo empleo instintivo está de algún modo –por increíble que esto parezca y a tenor de las pruebas- grabado en el código genético de sus poseedores, aunque quizás haya una componente de aprendizaje si los alcaudones padres conviven con sus crías lo suficiente. Otros ejemplos de aves con comportamientos exclusivos de su especie son el de los mirlos acuáticos y el de las grajillas. Los mirlos acuáticos viven en cursos de agua dulce y se alimentan de frigánidos, larvas de insectos acuáticos, ditiscos, y libélulas, y otros insectos de nuestros ríos. Para capturar in fraganti a sus presas los mirlos acuáticos no dudan de coger las piedras del fondo del río con el pico y apartarlas a un lado. Lo mismo que ocurre en el caso de las grajillas, las cuales son medianos córvidos que para buscar su sustento apartan las piedras cogiéndolas en su pico. Y lo hacen todas las grajillas y todos los mirlos acuáticos. Parece indicar que puede haber una componente genética en este comportamiento. Saliéndonos ya de la clase de las aves se podrían citar muchos ejemplos de pautas de conducta -tal vez sería más correcto llamarlas instintos- congénitas (os), a mí se me ocurre por ejemplo ahora los curiosos algoritmos que emplean las abejas para comunicarse avisando de la dirección y distancia de las fuentes de pólen, o la costumbre de la hembra de la mantis religiosa después del acto sexual de comerse a su compañero, pero en realidad lo cierto es que absolutamente todas las especies de la fauna mundial tienen instintos propios, a veces congénitos como se ha demostrado que sucede en muchas ocasiones y otras veces como mezcla de la herencia, del aprendizaje -cuando las crías permanecen lo suficiente junto a sus progenitores- y por qué no, también del azar en una componente mínima.

En la fotografía superior se representa un alimoche, que bien podría ser un descendiente de Gaspar, quién sabe, y en la inferior el macho de un alcaudón real.

  

  

Los radiofaros Consol (Elektra-Sonne) – (8) Generalidades técnicas de Consol y otros sistemas hiperbólicos

 

   

 

El sistema de posicionamiento Consol se engloba dentro de los sistemas de posicionamiento hiperbólicos. Los sistemas más conocidos de este tipo fueron fundamentalmente tres, a saber, el sistema Decca, el sistema Loran y el que aquí me ocupa, el Consol. El hecho de que reciban este nombre de hiperbólicos deriva de la filosofía implícita en la recepción de las señales. La característica común de los sistemas hipérbolicos es que la diferencia de fases o de tiempos entre señales emitidas desde antenas diferentes de la misma estación, en el momento de su recepción, sirve para determinar la línea de demora que media entre el receptor y la estación emisora, o al menos una de las posibles –como sería en el caso de Consol-. Como es lógico y sobradamente conocido, el lugar matemático espacial en el que la diferencia de distancias a dos puntos diferentes se mantiene constante es un hiperboloide de revolución. Pues bien, si entre una antena y el receptor la onda sin modular (CW) tarda x segundos, y si entre otra antena de la misma estación y el mismo receptor tarda x + y segundos, la diferencia entre ambos tiempos, esto es, y segundos, o respectivamente, entre ambas fases, lleva parejo un determinado hiperboloide de revolución, lugar geométrico en el que el receptor arrojaría la misma medida. Por lo tanto, se sigue inmediatamente de esto que una medida basada en un único par de antenas no sería operativa, por dar lugar a ambigüedad. Es estrictamente necesario conocer una aproximación a la línea de demora mediante radiogoniometría, y disponer de otro hiperboloide de revolución que se corte con el primero en algunos puntos entre los cuales se halla el de la verdadera posición del receptor. Entre esas medidas se resuelve el problema de la ambigüedad. Esto se podía hacer empleando distintas escuchas con relación a distintas estaciones, o bien, como sucede con Decca y Loran, con diferentes medidas obtenidas en relación a distintos pares de antenas dentro de cada estación. 

 

 

El sistema Decca estaba basado en estaciones emisoras –o cadenas Decca- formadas normalmente por tres o cuatro antenas, ubicadas en diferentes lugares relativamente próximos entre sí y formando una figura geométrica que podía variar. La filosofía del sistema Decca de cuatro antenas se basaba en que una de las antenas iba asociada al transmisor maestro, que emitía una onda continua –esto es, CW- a determinada frecuencia. Las otras tres antenas recibían esa señal, y esa señal recibida era procesada por un conversor de frecuencia que la multiplicaba por una determinada relación, pasando esa señal a ser transmitida, despúes de amplificarla, en cada antena esclava. Por lo tanto, como se deduce de esto, no se transmitía la misma portadora en las cuatro antenas, ya que ello las haría indistinguibles en el receptor. Como la diferencia de fase entre la portadora maestra y una de las señales esclava es en recepción dependiente de la diferencia de distancias que han recorrido ambas ondas, así como de la frecuencia empleada en la antena maestra y del factor que relaciona la onda emitida en cada par maestra-esclava, al final esa diferencia de fase, o de tiempos de propagación, podía ponerse en relación directa con un determinado hiperboloide relativo a cada par maestra-esclava, y arrojaba un valor numérico de diferencia de fase que podía ser llevado a un sistema de presentación. El sistema de presentación de Decca consistía en tres marcadores con forma de reloj, uno para la diferencia Rojo, otro para la diferencia Verde y otro para la diferencia Morado. Cada reloj estaba asociado a un par de antenas maestra-esclava, de tal modo que en la antena receptora se recibían tres ondas a tres distintas frecuencias, y la diferencia de fase entre cada par de ondas se representaba en cada uno de los tres relojes. Cada uno de los tres relojes recibía pues un par de señales que eran transformadas en frecuencia por dos factores diferentes en dos ramas circuitales distintas, para ponerlas a ambas en la misma frecuencia, tras lo cual se medía la diferencia entre sus fases, con un discriminador de fase, y ese resultado pasaba después al reloj correspondiente. Por lo tanto, como cada reloj iba asociado a un hiperboloide diferente, la intersección de los tres lugares geométricos arrojaba -en un mapa convenientemente marcado con las hipérbolas- la posición del navío o avión donde se hallaba el receptor, en relación a la estación emisora.

 

 

El sistema Loran también se basaba en la filosofía hiperbólica, sólo que en este caso cada estación estaba formada únicamente por tres antenas separadas entre sí -aunque en algunos lugares se construyeron cuatro-, en las cuales un tren de pulsos con un cierto intervalo de repetición modulaba una onda continua. Entre la transmisión de cada par de antenas se añadía además un cierto retardo. El sistema de lectura consistía en un receptor que alimentaba un tubo de rayos catódicos (TRC), que al recibir las ondas desfasadas entre sí correspondientes a la recepción de cada par de antenas, dibujaba en pantalla –si la recepción era la adecuada y no había otros ecos- dos pulsos separados por un cierto tiempo. Este tiempo de diferencia daba idea del hiperboloide parejo a cada par de antenas y la intersección entre los dos hiperboloides daba la posición del navío. También se podían usar estaciones Loran diferentes para ver la intersección de las líneas de demora correspondientes.

 

  

 

El sistema de posicionamiento Consol, el que se empleaba en la estación radioeléctrica de Arneiro, se basaba en modular tres ondas continuas de la misma frecuencia –una por antena dentro de la estación, la cual tenía tres antenas- mediante una variación temporal de sus desfases recíprocos, añadiendo un desfasaje entre las dos antenas de los extremos variable y periódico en el tiempo y formado por una parte en forma de tren de pulsos cuadrados de 180 grados de amplitud más otra parte variando en forma de diente de sierra. De este modo, gracias al desfasaje variable de las tres señales emitidas en las tres antenas, se lograba un patrón para el diagrama de radiación con varios lóbulos que iban girando alrededor desde el momento de inicio de cada barrido. Para una ubicación genérica en relación a una determinada estación emisora, había momentos en los que las dos ondas y la del mástil central llegaban las tres perfectamente enfasadas, dando lugar a que en ese instante la amplitud entre puntos y rayas fuera máxima; momentos en los que estaban enfasadas las ondas extremas pero en contrafase con la onda central, dando lugar a una amplitud entre rayas y puntos máxima; y momentos en los que las dos ondas extremas estaban en fase y a su vez desfasadas 90º en relación a la central, momento de equiseñal; con todos los  momentos intermedios entre ellos con variación continua. Esto por lo que respecta a la amplitud de la señal demodulada, pero en relación a su forma, resulta lógico el saber que en el instante de equiseñal (amplitud intermedia), las dos señales de las ondas extremas, alternando puntos y rayas, con parte real nula de ambos fasores, daría lugar a una onda demodulada constante, porque en ese momento sus fasores tenían un valor de más/menos la unidad imaginaria, arrojando un resultado intermedio al combinarlas con el fasor de la estación central; mientras que antes o después de la equiseñal serían los puntos (o respectivamente rayas) los que prevalecerían porque los fasores de las ondas de los mástiles extremos formarían ángulos suplementarios para las dos en el momento del punto (o respectivamente raya) y posición simétrica de los fasores en el momento de la raya (o respectivamente punto) -simetría respecto al eje imaginario con los fasores por debajo del eje real-, con ángulo distinto a 90º, con respecto al fasor de la onda central. Eso tendría la consecuencia de que uno de los signos se oiría más fuerte que el otro, dando lugar a puntos fuertes intercalados con rayas débiles antes de la equiseñal; y otro tanto ocurriría después del instante de equiseñal si cambiamos la palabra «puntos» por la de «rayas», con lo cual para cada ubicación concreta el operador de radio oía primero un determinado número de puntos (o de rayas) seguido después de otro determinado número de rayas (respectivamente de puntos). Esta descripción se correspondería con cada ciclo completo de señal de orientación, aunque en una posición determinada de escucha la señal recibida podría comenzar su evolución en cualquiera posición del mismo. Se ha escrito la palabra «viceversa» en varios lugares, porque dependiendo de donde se halle el receptor, oirá primero las rayas más fuertes que los puntos o al revés. Operativamente, gracias a esos dos números de puntos con rayas inapreciables y rayas con puntos inapreciables, anteriores y posteriores respectivamente a la equiseñal, pareja a las sucesivas diferencias de fase de ambas antenas extremas, al ir barriendo los haces el espacio, se podía llevar a cabo la obtención de la línea de demora en relación a la estación que se estaba escuchando, para lo cual el operario podía recurrir a planos debidamente señalizados con la posición de la estación y las líneas rectas que salen de ella en todo su alrededor, que no son sino aproximaciones de las hipérbolas verdaderas. Es por esto que el sistema Consol no podía emplearse en las proximidades de cada estación, dado que en dichas proximidades las hipérbolas no son aproximables por rectas y tienen una notable componente curva, lo que origina una mucho mayor imprecisión. Esto ya condicionaba de por sí el emplazamiento que debía elegirse para las estaciones, que como es lógico no se situaban justo en la costa sino tierra adentro. Antes de cada barrido la antena central de la estación emitía una onda continua modulada con un código Morse identificador de la estación, además de la propia portadora sin modular, señal que se propagaba ciertos segundos antes del inicio del barrido. Esta señal isotrópica de baliza no direccional servía para que el operario del navío o del avión buscase la dirección de mínimo de recepción con el radiogoniómetro –instrumento empleado para determinar una aproximación a una línea de demora con respecto a un cierto transmisor que sintonizamos-. De este modo se obtenía una aproximación a la línea de demora, que era empleada después de recibir la sucesión de puntos y rayas de la segunda parte de la transmisión –o parte Consol de la señal- para eliminar las ambigüedades inherentes a este sistema. Esto sucede porque el hecho de emitirse varios lóbulos que se van moviendo por cada lado tiene como consecuencia que en diferentes lugares muy distantes entre sí se puede escuchar exactamente la misma secuencia de puntos y de rayas, y gracias a la aproximación obtenida con el radiogoniómetro en la recepción de la señal NDB –Non Directional Beacon- se podía discernir verdaderamente en cual de los radiales se hallaba el navío. Por lo tanto, si con una estación obtenemos un radial o línea de demora, es necesario al menos el escuchar otra estación después para determinar el punto de corte de ambas. Esto no era problema, dado que en Europa existieron estaciones Consol en Arneiro, en Sevilla, en Ploneis, en Stavanger, durante la II Guerra Mundial, y aditivamente en Bush Mills y muchas otras ubicaciones del mundo ya después de la confrontación. 

  

  

 

En las imágenes mostradas en esta entrada se pueden apreciar gráficamente diferentes aspectos relativos a los sistemas hiperbólicos, en concreto sólo he colocado imágenes de los sistemas Decca y Loran, puesto que Consol lo trataré con más detalle en lo sucesivo. En la primera imagen se advierte la representación del corte de los hiperboloides con la superficie terrestre, que da lugar como es sabido a hipérbolas -en realidad no son estrictamente hipérbolas, ésto sucedería si intersecáramos los hiperboloides con un plano, pero en realidad dichos hiperboloides se intersecan con una figura muy parecida a un elipsoide de revolución (el planeta)-.  Se representan diferentes hipérbolas parejas a diferentes diferencias de fase medidas en dos de los decómetros o relojes de presentación de Decca (había tres relojes de presentación o decómetros, pero bastaba con la medida de dos de ellos para averiguar la posición). Se observa como las dos curvas cuyas diferencias de fase características (una curva para cada diferencia), que han sido medidas, se cortan en un punto, que sería el lugar en el que se hallaría el navío. La segunda imagen representa el discriminador de fase a válvulas de vacío, las cuales operaban como diodos, que se empleaba para suministrar la señal a los decómetros. La tercera imagen es una fotografía que muestra la apariencia real de los decómetros. La penúltima imagen representa la obtención de la posición mediante el sistema Loran, y finalmente la última imagen es una fotografía del sistema de recepción y presentación de Loran, en la que se puede ver una pequeña pantalla que era marcada con el haz de electrones de un tubo de rayos catódicos. Las fotografías han sido tomadas del libro de mediados de siglo titulado «Radar and electronic navigation», del autor G.J.Sonnenberg. 

   

La guerra entre fanatismo y ciencia, desde la mártir Hipatia, hasta el creacionismo actual

 

  

La biblioteca de Alejandría fue el marco donde se desarrolló la acumulación del saber del Mundo Antiguo. Fue allí donde concurrieron las principales figuras de las Ciencias y de las Artes de la antigüedad, que por aquel entonces se dividían básicamente en filósofos y filólogos según fuera el objeto de su estudio. Podría decirse que fue el primer y mayor centro de investigación de aquel tiempo, biblioteca hermana mayor de la biblioteca del Serapeo. 

La biblioteca de Alejandría fue construida por mandato de la dinastía de los Ptolomeos, reyes del Egipto de entonces, cuando esta tierra había aceptado con gran alegría la llegada del macedonio Alejandro Magno al poder, quien después de hacer suya Grecia había conquistado también el imperio persa que tanto tiempo había oprimido a Egipto. Alejandría -nombrada así en honor del gran conquistador- era la mayor ciudad conocida en aquel tiempo, y en ella había una gran dedicación al comercio, hecho derivado de que allí confluían barcos y mercaderes de todo el mundo explorado. Los barcos eran confiscados, y cuando se encontraban manuscritos en ellos eran llevados a la Gran Biblioteca, donde los amanuenses se encargaban de traducirlos y copiarlos en papiros en forma de rollos. Los libros originales eran devueltos a sus dueños. De este modo se aglutinó en aquel lugar una gran cantidad de conocimiento.

En la Biblioteca de Alejandría participaron importantes personas involucradas con el avance científico y cultural, las mentes más privilegiadas y clarividentes de entonces. Como ejemplos podría poner a Arquímedes de Siracusa, el mayor científico y matemático de la antigüedad, y cuyas obras y méritos son sobradamente conocidos; Eratóstenes, el primero en afirmar la esfericidad de la Tierra, y que dio una medida positiva del tamaño de nuestro planeta, basada en la trigonometría -la cual era enseñada por Hiparco- y en la diferencia del tamaño de la sombra en dos lugares de diferente latitud en el mismo día, y que también escribió una Geografía; Aristarco de Samos, el verdadero descubridor del modelo heliocéntrico, que en aquel entonces fue pasado a un segundo plano por el modelo geocéntrico de epiciclos sobre deferentes de Ptolomeo e Hiparco; Herón de Alejandría, descubridor de una fórmula matemática que relaciona el área de un triángulo cualquiera con el semiperímetro del mismo y las longitudes de sus tres lados, sin utilizar para nada medidas angulares, y estudioso de los primeros autómatas; Euclides, autor de la geometría elemental que se sigue todavía aprendiendo en los tiempos de hoy en muchos lugares; Apolonio, matemático investigador de las curvas cónicas; Galeno, el más reputado médico de aquel entonces, y un largo etcétera.

La Biblioteca de Alejandría sufrió diversos saqueos y destrucciones durante su existencia, al menos algunos de ellos se cree que tuvieron su origen en el hecho de que la plebe, influida por la instauración creciente del recién nacido cristianismo, asociaba la ciencia a un tipo de conocimiento pagano, muy alejado de Dios, al mismo tiempo que peligroso para la popularización de la verdad revelada, la veían como una competidora de la religión. Con la destrucción de la Biblioteca de Alejandría se inició un periodo de oscuridad total en lo cultural que duró en torno a los 1000 años, hasta que algunas figuras como Kepler y Copérnico redescubrieron bajo otras formulaciones el saber antiguo.

Una de las figuras notables entre los participantes en esta conocida biblioteca fue Hipatia, matemática, astrónoma, y filósofa -seguidora del neoplatonismo de Plotino-, y que pasó a la historia como una de sus últimas luces. Como sucede con la mayoría de sabios y eruditos de Alejandría, se desconoce a ciencia cierta cuál fue su verdadero alcance y calado en el avance científico, pero uno de sus hechos vitales, en concreto su muerte, la consagró como uno de los primeros mártires de la ciencia. Se cree que una turba fanática cristiana, jaleada por el obispo Cirilo, quien pretendía eliminar todo aquello que cuestionara el cristianismo, desolló viva a la bella Hipatia empleando para ello conchas marinas, y luego quemó su cuerpo. El hecho de la belleza de esta científica también pasó a la historia, tuvo muchos pretendientes, pero nunca se casó, se cree que murió virgen, y podría identificarse en ella a la mujer liberada e independiente, algo anormal en una época en que la mujer era una posesión.

Como síntesis de esta breve entrada me atrevería a afirmar -parafraseando el diálogo de una escena de la película «Perros de paja»- que la raza humana ha vertido más sangre en el nombre de Dios que la que se ha vertido en ninguna otra causa, y además el imperio de la creencia y la superstición ha dominado con su yugo y su cilicio el librepensamiento -abstracción de toda imposición, que origina el verdadero avance de la cultura y del saber- y la noble búsqueda de las verdades del universo en que vivimos durante la mayor parte de la historia, y éstos son hechos verdaderamente lamentables que aún poseen toda la actualidad y vigencia. Véase sino la máscara que utilizan algunas facciones religiosas en muchos países del mundo, bajo el nombre de creacionismo o diseño inteligente, diseño que por otra parte existe, pero causado por la sabiduría de la Madre Naturaleza «que todo lo da y todo lo puede», y que no presenta ningún viso de exacta perfección, algo que los creacionistas afirman sin embargo atribuyendo este diseño a Dios. Y no sólo eso, sino que además enseñan que lo escrito en la Biblia es estrictamente cierto. Lo peor de todo es que en algunos lugares como Estados Unidos el creacionismo es la mentira que se está inculcando en las escuelas a las futuras generaciones, no se está dando a los alumnos la oportunidad de ver los hechos y las pruebas y tomar decisiones por sí mismos, sino que se les transmite como un dogma que han de creer. Una verdadera lástima y un hecho auténticamente deleznable que a estas alturas todavía nos sigan imponiendo cosas. Personalmente me inclino por la filosofía panteísta, que si bien no llega a explicar satisfactoriamente las viejas cuestiones que desde siempre se ha planteado la humanidad -ninguna religión lo hace realmente-, no pugna al menos con el verdadero saber científico, sino todo lo contrario. Para mí no tiene sentido el creer que haya una causa primera, pues ese Dios habrá sido causado por otro previo, y así en una regresión infinita que emplea más supuestos de los estrictamente necesarios, en contra de la economía del universo, y violando el principio de parsimonia o de la navaja de Occham. Me inclino más a pensar en un universo autoexistente y evolucionante, se trata de una idea muy bella y evocadora; y además opino que no han de buscarse explicaciones místicas de por qué el universo es como es. En relación con esto, yo creo que tal vez el problema de la raza humana haya sido el pensar que tiene que haber una explicación esotérica a la razón de ser de cada cosa, y probablemente todas las cosas que se descubren son porque sí, sin más, porque el Universo así lo ha querido en su continuo devenir, sin ninguna razón oculta o mística más allá de las conocidas según las leyes de la ciencia. Soy ateo por la gracia de Natura, el Dios natural.

  

El tourbillon y Louis Abraham Breguet

 

 

En el año 1801 el relojero e inventor francés Louis Abraham Breguet patentó una complicación ideada fundamentalmente para los relojes de bolsillo, bajo el nombre de “tourbillon”. El tourbillon es un mecanismo que permite que el movimiento del centro de gravedad del volante de los relojes mecánicos que lo llevan no se vea afectado por la gravedad terrestre cuando el reloj tiene su caja en posición vertical, y que las oscilaciones del volante mantengan constante su amplitud promedio en el tiempo. Como los relojes mecánicos de pulsera suelen estar en posición horizontal mientras están en la muñeca de su dueño, a éstos no les afecta especialmente el uso del tourbillon, por lo que el empleo de esta complicación en ellos es considerado como un adorno, por otra parte muy cotizado.

Para contextualizar la descripción del tourbillon voy primero a describir cómo es fundamentalmente la mecánica de un reloj mecánico convencional sin esta pieza. En un reloj mecánico convencional existe una masa metálica que gira en un sentido y el otro cuando movemos la mano, llamado rotor o contrapeso, que tiene la misión de comprimir la espiral llamada cuerda, que es la que provee de energía al reloj, para lo que se vale de unos piñones de embrague. Gracias a ellos la cuerda es cargada tanto si el rotor se mueve en un sentido o en el otro, si el rotor carga energía en los dos sentidos, que es lo más corriente hoy en día. Es decir, estos piñones «rectifican» el giro del rotor en el sentido que no es de carga, convirtiéndolo en un giro en el único sentido de carga de la cuerda.

Cuando la cuerda está totalmente estirada, no está suministrando energía al volante, por lo cual el reloj está parado. Esta pieza, el volante, el propio corazón del reloj, consiste en un anillo metálico provisto de una delgada espiral que lo hace oscilar en un sentido y en el otro con un período de oscilación constante siempre que el reloj esté orientado en relación a la vertical del mismo modo. Debido al rozamiento con el aire, al calentamiento por rozamiento del eje del volante y al debido a la compresión y descompresión de la espiral, en cada ciclo de oscilación del volante existen pérdidas de energía que harían que el volante parase de oscilar si no se le suministrase energía. Para compensar estas pérdidas de energía, ésta se le suministra mediante un tren de engranajes que engrana en el dentado correspondiente al barrilete, el cual contiene la cuerda, y que transfiere la energía al volante mediante una pieza denominada escape, que es la primera rueda que recibe movimiento del volante, y se lo transmite gracias al impulso periódico de una horquilla llamada áncora que comunica el escape con éste. El tren de engranajes encargado de llevar la energía desde el eje de cuerda hasta el escape es un tren multiplicador de velocidad angular, puesto que lo que se necesita en el áncora es potencia en forma de movimiento, no de momento de fuerzas. Es poco el momento que se debe aplicar en cada ciclo para compensar las pérdidas, causando impulsión angular, y además el escape se mueve a gran velocidad. Si tuviésemos la potencia en forma de momento de fuerzas, sucedería asimismo que la cuerda se descargaría en seguida, ya que en el sentido inverso sería un tren multiplicador y forzaríamos el rápido movimiento del eje de cuerda, y además de ésto, se le comunicaría demasiada fuerza al volante, con lo que se estropearía la espiral y el reloj no marcharía.

En una descripción breve, se puede resumir el funcionamiento diciendo que, en un reloj mecánico hay una transferencia de energía desde la cuerda hacia el volante, en forma de pequeños impulsos de momento de fuerzas que absorbe el volante, consiguiendo así un sistema vibratorio armónico amortiguado forzado (el volante y su espiral forzados con el áncora); al mismo tiempo que la velocidad angular del volante es comunicada al escape y las ruedas que siguen a éste, reduciéndose en cada engrane según los cocientes entre los números de dientes parejos, de los que se obtendrían las correspondientes relaciones de transmisión, obteniendo así las velocidades de rotación necesarias para las agujas.

 

 

El movimiento del volante da lugar a que en cada ciclo avance un diente de la rueda de escape, lo que oímos como tic-tac del reloj. Si deseásemos que el reloj funcionase más rápido para que adelantase más, deberíamos acortar la longitud de la espiral del volante, quedando ésta más comprimida y con una constante elástica de torsión mayor; y si deseásemos un movimiento más lento deberíamos hacer lo contrario, esto es, alargar dicha espiral para que quedase menos comprimida y con menor constante elástica de torsión. A tal efecto existe un ajuste en el reloj. Para minimizar los rozamientos en los pivotes críticos, fundamentalmente el pivote del volante, se incrustan piedras en los apoyos de esos pivotes, suelen ser rubíes, para hacer lo menor posible el rozamiento, y para que no se desgasten los pivotes con tanto movimiento.

Por otra parte, a partir del movimiento del escape, gracias al tren de ruedas multiplicador que le transfiere la energía desde la cuerda, se obtiene una división sucesiva de su velocidad angular en el sentido contrario, hacia la rueda segunda o rueda de segundos, de ésta hacia la rueda primera, y de la primera a la rueda de centro, que es la que engrana en el dentado del barrilete o tambor (el que contiene en su interior la cuerda enrollada) respectivamente, que son las ruedas que giran a la velocidad de las correspondientes manecillas, de acuerdo con los ritmos necesarios para cada una de ellas.

 

 

Si la caja del reloj está en posición vertical, como es lógico, la gravedad hará que el volante baje más rápidamente que sube, y ésto descompensa aunque en una cantidad pequeña su movimiento, causando además una menor amplitud de sus oscilaciones. Para evitar esto, Breguet ideó el tourbillon. La complicación de “tourbillon” se basa en montar el trío formado por el volante, el áncora y el escape en una plataforma llamada jaula. Gracias al engrane del escape en una rueda fija en cuyo interior se monta la jaula, se consigue que este trío gire alrededor del eje de esa rueda fija, normalmente una vuelta cada minuto. Es por ésto que el movimiento de dicho eje de jaula se emplea como eje de minutos. Por ello, como el volante en cada minuto va variando homogéneamente su inclinación en relación al eje vertical terrestre parejo a la acción de la gravedad, por término medio se obtiene que ésta no afecta ni en el sentido de atrasar el reloj ni en el sentido de adelantarlo, y los minutos son siempre iguales. Como ya dije más arriba esto tiene sentido si la caja del reloj está continuamente en posición vertical, como es el caso de los relojes de bolsillo, pero en los relojes mecánicos de pulsera, la mejora que introduce el tourbillon en su funcionamiento es inapreciable.

En la actualidad se ha patentado una complicación en relojería mecánica conocida como girotourbillon, que no es otra cosa que un tourbillon «tridimensional», que provee de dos ejes de giro en el espacio para el montaje del trío volante-áncora-escape, con lo que se compensan no sólo las variaciones de amplitud de la oscilación del volante debidas a una posición vertical de la caja, sino todas las variaciones de dicha amplitud causadas por cualquiera posición que presente ésta según una inclinación genérica en el espacio. En cualquiera de los casos, a pesar de que no deja de ser un adorno tan complejo y bello como innecesario, hay que reconocer que es una maravilla de la técnica de la relojería que mejora el funcionamiento del reloj, y que ésta tiene ya varios siglos de desarrollo.

En la fotografía superior se muestra un esquema de un reloj mecánico convencional, en la foto intermedia se aprecia el detalle del acoplamiento entre volante, áncora y escape. En las fotos inferiores se aprecia un tourbillon desmontado y montado, respectivamente.

 

 

Charles Babbage, Ada Lovelace y las máquinas diferencial y analítica

 

 

Nacido en el año 1791, Charles Babbage fue un matemático y científico inglés, que es considerado como uno de los pioneros de la ciencia de la computación; más concretamente sus desarrollos y proyectos deberían considerarse como computadores mecánicos. Nótese que especifico mecánicos porque hasta el siglo XX no aparecieron las primeras implementaciones de esquemas tecnológicos basados en relés electromecánicos o en válvulas de vacío, y que se catalogan comúnmente como los verdaderos inicios de la informática. Aunque todos los posibles puntos de vista en lo que respecta a quién tuvo la primicia, quién desarrolló las nociones fundamentales, etcétera, no dejan de ser corrientes de opinión, sin embargo, se suele reconocer a los matemáticos Alan Turing y John Von Neumann como los artífices conceptuales, y a científicos tales como Eckert, Mauckly, Konrad Zuse, el propio Turing, Atanassof, y un largo etcétera, como los tecnólogos que desarrollaron los ingenios, si bien si somos tal vez menos puristas no deberíamos olvidar que tanto Blaise Pascal como Gottfried von Leibniz construyeron máquinas aritméticas, y más aún, que se conservan los restos de una máquina de cómputo datada en la antigüedad griega, el mecanismo de Anticitera, de cuya construcción se sospecha que pudo originarse en alguna corriente tecnológica iniciada por Arquímedes de Siracusa, y que empleaba trenes de engranajes, así como engranajes epicíclicos, para predecir los eclipses solares y lunares, así como las posiciones de los planetas a lo largo de la eclíptica, todo ello empleando el modelo Ptolemaico de epiciclos sobre deferentes, que daba lugar a excelentes predicciones a ojo desnudo, aunque conceptualmente estuviera errado.

Charles Babbage proyectó teóricamente máquinas de cómputo movidas por un motor de vapor, basadas en engranajes, pero que no llegaron a ser construidas íntegramente. Algunos historiadores creen que esto fue debido a la dejadez y desconfianza de los organismos oficiales, que no invirtieron la suficiente cantidad de dinero en los proyectos. Sin embargo, la corriente mayoritaria encuentra como la causa de la no finalización de ellos al mal entendimiento entre el proyectista (Babbage) y el constructor, así como el hecho de que los engranajes de aquel entonces se deformaban con el calor de la fricción y esto repercutía en el mal funcionamiento de las partes desarrolladas.

Los dos ingenios de mayor relevancia que diseñó Babbage fueron la máquina diferencial o máquina de diferencias, y la máquina analítica.

La máquina diferencial trataba de resolver un problema operativo de aquel entonces, que consistía en la dificultad y tediosidad de la tabulación de funciones matemáticas, como por ejemplo los logaritmos o las funciones trigonométricas, para su empleo con un fin científico o en la ingeniería. En aquellos tiempos dicha tabulación se efectuaba mediante cálculo manual, existían para ello operarios, que no podían ser tan eficaces y rápidos como una máquina que desarrollase una rutina de cálculo.

La fundamentación matemática de la máquina diferencial es el método numérico de interpolación de Lagrange, no en su expresión según polinomios de Lagrange sino según polinomios basados en diferencias finitas, es decir, empleando la notación de Newton. El problema de la interpolación de Lagrange consiste en buscar el polinomio de un cierto grado que pasa por unos puntos dato y que por tanto les da solución de continuidad. Las funciones matemáticas de variable compleja que admiten expansión en serie de potencias se denominan funciones analíticas u holomorfas, y tienen la propiedad de “variar suavemente” en cada punto de su dominio de definición. Aparte de esto, si las particularizamos para la recta real, entonces como es lógico admiten desarrollo en serie de Taylor, y nos basta con conocer un conjunto finito y/o numerable de números reales, las derivadas de órdenes sucesivos en un punto de la recta real, para conocer todo el pasado y el futuro de dicha particularización real. Es decir, las particularizaciones reales de funciones complejas holomorfas varían suavemente y son totalmente predecibles a partir de un conjunto numerable de valores. ¿Son analíticas las funciones que modelan el comportamiento de la naturaleza?. La respuesta a esto es no. Pondré algunos ejemplos: tanto la variación temporal del consumo energético, como la evolución temporal de la bolsa, como las señales eléctricas radiadas por una antena, son funciones no analíticas. Se pueden generar modelos predictivos, inclusive lineales, para predecirlas a corto plazo, pero nunca se obtiene un modelado exacto debido a su impredicibilidad inherente. Por muy complejos y buenos que desarrollemos los modelos, nunca jamás llegaremos a predecir con exactitud el futuro, ahí reside precisamente el encanto del universo. Ahora bien, aunque no podamos emular el comportamiento de la maquinaria universal mediante funciones que se adapten a sus variables, sí podemos sin embargo ajustar polinomios a dicho comportamiento y así tendremos un medio para avanzar en la investigación científica. Es esta la razón del interés que hubo siempre en las tabulaciones de polinomios, que aproximan funciones más complejas, en ciertos intervalos de interés. Charles Babbage era consciente de este estado de cosas, y ésta fue su motivación para su máquina de diferencias.

Básicamente, el algoritmo que implementaría la máquina de diferencias era el que sigue: se partía de unos valores conocidos para la ordenada del polinomio a tabular y correspondientes a ciertos valores de abscisa. Estos valores se podían calcular empleando el método de Lagrange para diferencias finitas (método de Newton), de forma manual con lápiz y papel. Entonces ya dispondríamos de un punto de partida para nuestra calculadora, pues una vez ingresados dichos valores en las correspondientes columnas de engranajes, así como las diferencias finitas que los relacionan, la máquina diferencial, al mover una manivela, ya se encargaría de ir computando los valores de ordenada para abscisas consecutivas a las de entrada. Para ello la máquina diferencial la única operación aritmética que emplea es la suma, dado que con esta simple operación nos podemos ir moviendo en la tabla de diferencias finitas asociada al problema para ir calculando los valores de las diferencias finitas de cada orden, así como los de las ordenadas. La propiedad matemática subyacente que permite este proceder es el hecho de que cualquier polinomio de grado N tiene diferencias finitas de orden N+1 igual a 0, y por lo tanto de orden N iguales a una constante, para todos los saltos entre ordenadas. Es esta constante la que la máquina de diferencias suma en un primer paso para obtener la nueva diferencia de orden N-1, y una vez obtenida ésta, es la de orden N-1 la que suma para obtener la de orden N-2, y así hasta llegar a la nueva diferencia de orden 0, que es el valor de la ordenada para la nueva abscisa. Por cada pasada de la manivela se calcularía un nuevo valor de ordenada, y eso llevaría implícitas todas estas operaciones que acabo de describir. De esta forma, dado un punto de partida conferido mediante un conjunto limitado y pequeño de valores y sus diferencias correspondientes, que conforman una parte pequeña de la tabla de diferencias finitas final, se llega a obtener la tabla de diferencias total para todos los puntos de abscisa dato que se quiera, con las limitaciones del tamaño de la máquina.

 

 

Por lo que respecta a la máquina analítica, ésta se corresponde con una idea más ambiciosa de Babbage, y que en síntesis se podría describir como una máquina de propósito general. Al igual que la máquina diferencial, no llegó a ser construida en su totalidad en vida de Babbage, y su motor sería una máquina de vapor. En la máquina analítica encontramos ideas pioneras de la arquitectura actual de los ordenadores, o al menos similares. Así, la máquina analítica poseía dos partes principales, a saber: el molino, que sería equivalente a la actual UCP de los computadores, y el almacén, en paralelismo a la memoria de los mismos. Para difundir sus ideas de la máquina analítica, así como para diseñar los programas, Babbage contó con la colaboración de la única hija legítima del poeta romántico inglés Lord Byron, la condesa Lady Ada Lovelace (cuyo nombre recibe en su honor el lenguaje de programación ADA, basado en el lenguaje Pascal). Ada Lovelace recibió una exquisita formación científica para aquellos tiempos, en concreto su profesor de matemáticas fue el mismo Augustus De Morgan (el artífice de las leyes lógicas de De Morgan), el primer profesor de la Universidad de Londres. Ada describió a la perfección el funcionamiento de la máquina analítica, ayudando así a difundir las ideas del inventor, pero incluyendo además sus propias ideas acerca del asunto, y por si esto fuera poco, además describió la manera en que serían implementados los algoritmos en dicha máquina, como por ejemplo el algoritmo para calcular los números de Bernoulli; por lo que es considerada como la primera programadora de la historia, si bien como ya expresé más arriba, la máquina analítica nunca llegó a ser implementada.

 

 

Babbage desarrolló otros inventos en vida, fue profesor de matemáticas de la Universidad de Cambridge, rompió la cifra polialfabética Vigènere (lo cual fue un secreto de Estado durante mucho tiempo), e incluso diseñó una máquina impresora, la cual estaría conectada con la máquina analítica. Por todo ello, se podría considerar como un verdadero pionero de la informática, así como una figura eminente en el terreno de las matemáticas.

En cuanto a las máquinas diferencial y analítica, si bien en vida de Ada y Babbage no fueron construidas, muy recientemente, en concreto en el año 1989, el Museo de Ciencias de Londres decidió averiguar si los esquemas de Babbage no estaban errados y si se podría construir efectivamente una máquina diferencial con dichos diseños, usando para ello las tolerancias constructivas de su época. Al final, sí se pudo desarrollar esta idea y de hecho en dicho Museo se pueden observar un modelo de máquina diferencial, así como un modelo de la máquina impresora de Babbage, ambas con perfecto funcionamiento.

 

Los radiofaros Consol (Elektra-Sonne) – (7) Fotografias de antes de la caida

  

 

 

Reproduzco aquí algunas fotografías de la antena central de la estacion Consol de Arneiro (Cospeito), algún tiempo antes de su caída. Actualmente no ha quedado nada de ellas.

 

 

Se pueden observar perfectamente las riostras que sujetaban a la torre desde varias direcciones, la cual levitaba cuando había viento, puesto que en el suelo estaba simplemente apoyada, y eran estos tirantes los que impedían su caída.

 

Mi colección de lepidópteros

 

 

Ya que como digo en mi poema «El mundo del mañana», los niños de hoy serán los hombres del mañana, dedico esta entrada a un niño de once años, llamado Alex Pujadas, de Barcelona, hijo de un compañero mío de trabajo, y que comienza a descubrir el mundo, y en particular a descubrir sus propias inquietudes, en este caso los insectos. Feliz viaje, amigo Alex.

Siempre me gustaron los lepidópteros (o mariposas), desde muy pequeño. En su momento, a los doce años confeccioné mi propia colección autóctona de estos insectos, a base de carreras por los prados y paciencia, y poco a poco fui advirtiendo la majestuosa belleza que es capaz de engendrar la naturaleza, cuyos misterios están en parte desvelados por la teoría de la selección natural de Darwin -de la cual soy un gran devoto-. ¿Es justo sacrificar especímenes o privarlos de su libertad para su estudio?. Pues tal vez probablemente no lo sea, pero es evidente que esto se hace a gran escala en los museos de la naturaleza, y es el modo más eficiente de conseguir llegar a conclusiones veraces y profundas en lo que respecta a la anatomía. Lo mismo se hace con las plantas. Ahora, tras un par de décadas, pienso que si algún día me da por cazar animales o plantas para su contemplación o estudio lo haré desde detrás de una cámara o unos prismáticos, pues considero que si queremos preservar este planeta para las generaciones venideras tenemos que empezar por aplicar un principio conservativo estricto a todos nuestros actos diarios.

 

 

Ahora bien, existen personas por todo el mundo que se dedican a criar en cautividad lepidópteros a gran escala, para posteriormente ser disecados. De hecho estas actividades están amparadas por los organismos reguladores de las leyes de Protección de la Naturaleza y no constituyen delito. El delito lo sería si los especímenes procediesen del estado de libertad y fuesen especies protegidas. En otras palabras, sacrificar estos ejemplares equivale por ejemplo al sacrificio que hacemos con aquéllos animales de los que nos alimentamos y que criamos en cautividad. En realidad, sigo creyendo que no es justo, pero si observamos la propia naturaleza podemos ver como se dirime una continua contienda sin cuartel entre las especies, depredadores frente a presas, y de esta contienda surge el equilibrio que matemáticamente se modela con las ecuaciones diferenciales de Lotka-Volterra, un par de ecuaciones diferenciales acopladas cuya solución explica la variación biológica en los ecosistemas, y que está formada por dos funciones temporales que modelan la variación de la cantidad de depredadores y de presas en un par de especies que estén relacionadas de este modo. En realidad este par de ecuaciones diferenciales se extienden y particularizan a cada par predador-presa del ecosistema, y establecen al mismo tiempo que la tasa de aumento de las presas es el crecimiento natural de esa especie menos la tasa de muertes por encuentro con el predador, mientras que la tasa de aumento del predador es su crecimiento por encuentro fructífero con la presa menos su tasa de muertes naturales. Evidentemente esto es una simplificación, pero lo suficientemente fina como para que, resolviendo el gran sistema de ecuaciones diferenciales de un ecosistema, obtengamos soluciones basadas en parámetros (siendo los parámetros los que intervienen en las ecuaciones diferenciales y que han de ser obtenidos empíricamente) que representan las cantidades variables en las sucesivas generaciones de cada especie en el espacio de especies, y que esquematizan la variabilidad temporal biológica en cada biotopo. Los ecosistemas que perviven lo hacen merced a la aproximación a situaciones de alejamiento y acercamiento sucesivos a la posición teórica de equilibrio que se obtendría igualando todas las tasas de cambio de todas las ecuaciones a cero, y gracias a la contienda, que es precisamente uno de los mecanismos naturales de poda de los peor adaptados que provee la naturaleza y que mueve precisamente la evolución biológica sobre la Tierra. Al final resulta que un hecho puntual, como por ejemplo que en una región de la sabana africana los leones cacen muy eficazmente, puede ayudar a que todo un ecosistema no se desmorone, porque en este mundo todo está relacionado con todo. Nosotros no somos más que una especie animal más, y por ello también somos depredadores, sólo que nuestros medios y métodos de caza son mucho más sofisticados que los de los animales, y en muchos casos no buscan nuestro sustento, que es el fin realmente noble de la caza, sino la diversión, aspecto lúdico que aunque entraña la muerte de los ejemplares cobrados, puede poseer consecuencias beneficiosas para los ecosistemas, cuando mediante la práctica cinegética se consigue el control demográfico de las especies.

 

 

Aun así, a pesar de todo, no he podido resistirme a conseguir una colección de lepidópteros de todo el mundo, y cada día que pasa me maravillo más y más de la suma perfección de Natura, el verdadero dios (o diosa). Pondré un ejemplo ilustrativo: el reverso de las alas de ciertas especies de lepidópteros tienen forma y color de hoja de árbol. Es evidente que las variaciones aleatorias, asociadas a la divergencia de caracteres, la cual no es sino la expresión visible de la mutación genética, que aparecieron en algún momento puntual y que conferían cierto parecido a hojas a las alas de esos ancestros naturales, les daban ventaja frente a otros ancestros lepidópteros del mismo ecosistema, y esto dio lugar a que poco a poco fuesen apareciendo especies con esta morfología, dado que otros animales que se alimentaban de lepidópteros encontraban con mayor dificultad a estas especies miméticas. Otro tanto ocurre en un fenómeno bastante extendido en los lepidópteros: la presencia de ocelos con formas muy similares a la de ojos. Es un hecho comprobado que los pájaros atacan a estos ejemplares precisamente en esos ojos, por llamarles más la atención, y no en el tórax, el abdomen o la cabeza. Por tanto, esos especímenes sobreviven, y esto no debería extrañarnos, pues ahora observamos precisamente que se hallan entre nosotros y no han desaparecido. Simplemente porque la variación consistente en tener esos «ojos» les dio ventaja frente a otras mariposas asentadas en el mismo nicho biológico, que eran atrapadas por sus depredadores. Selección natural al 100%. Como ejemplos de la primera de las circunstancias puedo exponer el caso del lepidóptero Kalima Inachus, y como ejemplos de la segunda circunstancia se me ocurren por ejemplo la Caligo sp., o la Morpho Peleides, ambas dotadas de una belleza embaucadora.

 

 

Para contagiaros de esta contemplación enriquecedora del mundo que nos rodea, que practican miles y miles de personas en el planeta, y cuya belleza y verdad nos aguardan en cada rincón insospechado, he insertado aquí once fotografías correspondientes a mi actual colección de lepidópteros.

 

 

La radio de galena. Descripción y funcionamiento

 

 

En los albores de la era tecnológica, cuando la radio hacía sus primeros pinitos tras la verificación experimental de las ondas electromagnéticas por Hertz, y las experiencias de Marconi -bastante después de su descubrimiento teórico a partir de la combinación de las ecuaciones de Maxwell que genera la ecuación de onda-, todavía no estaban nada perfeccionados los mecanismos de modulación de la señal eléctrica transmitida y la tecnología conocida no permitía grandes maravillas en la transmisión y la recepción de la radio.

El primer problema a resolver consistía en obtener una manera fácil de mezclar la información a transmitir, o señal moduladora,  con un tono o portadora que permitiese su propagación óptima asociada a las variaciones temporales armónicas de la ecuación de onda, consiguiendo adaptar la señal modulada resultado de dicha mezcla a un canal de comunicaciones lo suficientemente bueno en cuanto a carencia de ruidos indeseados notables, una baja atenuación de la onda en su viaje, así como el hecho de utilizar una frecuencia no usada en el espacio físico identificado con el canal para evitar interferencias. Pues bien, el primer intento de transformación matemática de la señal moduladora lo constituyó la modulación de amplitud (AM), por ser el esquema más natural concebible, y consiste en multiplicar la portadora con la señal moduladora, que varía mucho más lentamente que la primera, de modo que la información queda retenida en la envolvente de la onda a transmitir. Es una forma natural de hacerlo, y que permite, si se usa suficiente potencia de transmisión, un gran alcance, a pesar de que es muy sensible a los ruidos. Los ruidos son señales indeseadas producidas por tormentas, y ruido térmico producido por el flujo natural de la corriente en los dispositivos con componente resistiva, con el consabido calentamiento de los mismos, a la cual se le suma una cantidad muy grande de pequeñas corrientes de estadística gaussiana generadas por los choques entre portadores de carga y núcleos atómicos, en todas las direcciones, y que se superponen a la corriente media. Dicha componente superpuesta es precisamente el ruido térmico, que al llegar a un elemento radiante es emitido hacia el receptor, aunque también se debe tener en cuenta la atenuación por hidrometeoros (donde lo que más influye es la atenuación que sufre la onda por la absorción molecular que se produce en las moléculas de agua y/o por dispersión de la energía por ser el agua buena conductora).

En un principio la modulación que se utilizó para las comunicaciones era la modulación de amplitud. Aún es usada hoy por ejemplo en las emisiones de onda corta, en variantes en las que se suprime una de las bandas laterales del espectro de radiofrecuencia. Por ser la señal real, su espectro tiene módulo simétrico respecto al eje de la frecuencia de portadora, con lo cual se evita el envío de información redundante. Queda por tanto el espectro configurado mediante la banda de media frecuencia, las frecuencias superiores (para USB) -o inferiores (para LSB)- y el piloto de portadora -también se puede emitir con portadora suprimida-; y esta modulación se conoce en general como Banda Lateral Suprimida (SSB). Además este mismo esquema -otra variante de la modulación AM o de amplitud- fue usado para la transmisión analógica de televisión, antes de la actual TDT digital; en concreto se usaba una subportadora, para ser modulada en amplitud en cuadratura por dos señales diferencia de color, intercaladas en un hueco del espectro de la señal de luminancia, y estando el sonido modulado en FM a una frecuencia de subportadora mayor. Al menos se operaba así en el antiguo estándar europeo de televisión analógica, conocido como PAL.

Tal vez una de las primeras implementaciones de receptor de radio capaz de transformar la modulación AM en algo audible -en la propia señal moduladora- es un esquema muy simple conocido como radio de galena, que se representa en la figura de más arriba. La radio de galena responde a la forma lógica de detectar la moduladora en una señal AM, esto es, responde a obtener la envolvente de la señal modulada transmitida y recibida en el receptor y aplicarla a unos auriculares. Recuérdese que las variaciones lentas de la señal moduladora contienen la información a recibir. Véase el dibujo de más abajo, que representa una señal moduladora modulando a una portadora.

La galena es un mineral, en concreto sulfuro de plomo, y cristaliza en forma de cristales cúbicos. Tiene una propiedad muy interesante, que es que según algunas direcciones a su través rectifica una corriente eléctrica, esto es, la deja pasar en un sentido pero no en el contrario. Lógicamente, si la señal modulada transmitida una vez recibida es pasada por una galena con el ajuste adecuado, dejará pasar sólo la parte positiva de la corriente eléctrica, y si usamos a su salida un condensador conseguiremos que la parte positiva antes de la bajada hacia valores negativos de la señal modulada cargue esa capacidad, que será descargada a través de los auriculares lentamente en la parte en la que la galena no permite paso de corriente, por estar ésta en el otro sentido -galena en corte-. Se obtiene así una señal sin brusquedades y de variación suave prácticamente idéntica a la señal moduladora de variaciones lentas que se transmitió. Esta parte que aquí describo se corresponde en el esquema con las dos últimas etapas, esto es, la detección, producida en la galena -sustituida hoy en día en los receptores por diodos de silicio o de germanio- y el condensador fijo; y la presentación, producida en unos auriculares de alta impedancia. Hoy en día se usan auriculares de baja impedancia en los receptores por la sencilla razón de que sus cables se conectan en serie en los amplificadores de audio como parte de la carga de los mismos y de este modo las impedancias han de ser pequeñas para no disminuir la corriente que ellos mismos presentan como sonido. En los receptores de galena los auriculares estaban colocados en paralelo con el circuito detector y por tanto para no afectar a su funcionamiento en una medida elevada debían tener alta impedancia, para cargar lo menos posible al detector, ya que las corrientes detectadas son minúsculas por no presentar ninguna amplificación de la señal el receptor de galena.

Esto que he explicado en el párrafo anterior consiste en el procesado que se hace a la señal ya sintonizada para convertir la moduladora en sonido audible. Ahora bien, faltan dos etapas previas, a saber, la etapa de la antena, y la etapa de la sintonía. De la antena no hablaré en profundidad, basta con decir que la onda electromagnética que vibra en las inmediaciones de la misma genera una corriente eléctrica en los conductores, para cuya recogida está especialmente pensada la antena. La señal de antena se pasa a continuación a lo que se conoce como circuito tanque, o filtro de radiofrecuencia o filtro de sintonía. En realidad la bobina y el condensador variable forman lo que se conoce como un resonador, el cual tiene una frecuencia propia de resonancia que viene dada por los valores de la bobina y del condensador variable. Esto significa que a una frecuencia determinada por dichos valores el condensador se carga con la corriente minúscula de la bobina, descargándose el campo magnético de ésta, y después en el siguiente semiciclo el campo eléctrico del condensador se descarga en forma de corriente y por tanto campo magnético en la bobina. Todo ésto da lugar a un circuito oscilante, cuyas oscilaciones se ven atenuadas de forma creciente por las pérdidas óhmicas debidas a las resistencias asociadas a dicho condensador y dicha bobina, los cuales no son ideales. En otras palabras, el paralelo de la bobina y el condensador constituyen un sistema armónico simple con amortiguación. ¿Qué razón de ser tiene su uso?. Pues su razón de ser es que si hacemos coincidir la frecuencia de resonancia del filtro tanque, actuando en el condensador variable, con la frecuencia de la portadora cuya información queremos detectar y oír, entonces la señal de corriente que viene de la antena se enganchará a las variaciones de corriente del sintonizador y dará lugar a un sistema vibratorio amortiguado forzado, en el que la señal de antena de esa frecuencia específica, y ninguna más a otra frecuencia de portadora distinta, pasa hacia el detector. En otras palabras, se obtiene la resonancia y la máxima transferencia de energía. Ésto es así, porque a esa frecuencia el resonador presenta una impedancia infinita. Es decir, a todos los efectos es como si no estuviera presente en el circuito, y toda la corriente que entra desde la antena pasa de forma íntegra al detector. Si variamos la capacidad del sintonizador ya no escucharemos la señal a la que estábamos sintonizados, pues el filtro tanque tendrá una menor impedancia y absorberá una mayor parte de la corriente, pasando poca corriente de antena al detector. Ésto que he descrito es lo que se conoce como etapa de sintonía.

Lo que aquí he descrito es un receptor homodino y sin amplificación ninguna, ni en radiofrecuencia, ni en frecuencia intermedia, ni en audiofrecuencia; en el cual no hay ninguna etapa de frecuencia intermedia -usada para conseguir mayor sensibilidad en los receptores superheterodinos-, en otras palabras, es un esquema muy ineficiente y obsoleto.

 

 

Los radiofaros Consol (Elektra-Sonne) – (6) Datos biográficos de Ernst Kramar

 

A Ernst Kramar se le debe la implementación de lo que se conoció como sistema de posicionamiento Consol.

Nació en Klazno el 15 de junio de 1902, un pueblo próximo a Praga (actual República Checa). Sus estudios universitarios consistieron en ingeniería eléctrica en la ciudad de Praga, entre los años 1920 y 1925, en una universidad entonces llamada Deutsche Technische Hochschule. En el año 1926 se graduó como Doctor Ingeniero por el Barkhausen Institute (Universidad Técnica de Dresde). Comenzó entonces su verdadera andadura profesional.

En el año 1927, Ernst Kramar entró en la empresa C. Lorenz AG (Berlín), compañía anterior a SEL (Standard Elektrik Lorenz). En aquella época se dedicó a resolver diferentes problemáticas en torno a la radio, pero no empezó a resaltar como ingeniero hasta que en 1932 usó frecuencias de la banda VHF con fines de radionavegación, desarrollo que recibió el nombre de Lorenz Landing System, del cual el actual ILS usado en aeropuertos es una mejora, del mismo modo que las balizas VOR, las cuales dan gran información de navegación a los pilotos.

En la Segunda Guerra Mundial, Ernst Kramar trabajó en técnicas de rádar y fue jefe de desarrollo de sistemas de radio en Pforzheim y Stuttgart.

En colaboración con los demás ingenieros de las compañías en las que trabajó, fueron desarrolladas un gran número de patentes, más de 85, lo que le valió un gran número de méritos y premios, tales como la Lilienthal Medal (1937), la Medalla de Oro de la Asociación Alemana para la dirección y navegación (Deustche Gesellschaft für Ortung und Navigation), y la Gran Cruz de la Orden del Mérito Nacional de la República Federal Alemana (1969).

Como resumen de todo esto, se podría decir que Ernst Kramar fue un reconocido científico que se adaptó a diferentes regímenes políticos durante su vida y que colaboró con el desarrollo técnico de Alemania, lo cual le valió múltiples condecoraciones. Sus desarrollos se han mantenido vigentes para el bien de los navegantes ya después de la Segunda Guerra Mundial, y han supuesto una inmensa aportación a la tecnología de las comunicaciones en el siglo XX.

 

La máquina de vapor y su evolución histórica

 

La llegada de la Revolución Industrial allá por el siglo XVIII no se limitó a las manufacturas textiles, a la siderurgia o a la industria química, aunque en estas categorías hubiera avances prodigiosos. Dado el aumento de la producción logrado con dichos avances, era menester una red de comunicaciones todo lo buena que fuese posible, para lo cual debía optimizarse de algún modo el empleo de energía en los medios de locomoción, esto es, incrementarla y aprovecharla en la mayor medida posible.

La máquina de vapor resolvió los problemas de la limitación de las fuerzas animal y humana y de la indisponibilidad de la energía hidráulica en la mayoría de los escenarios.

 

savory

 

La primera máquina de vapor fue diseñada por Thomas Savery en 1698 para elevar el agua en las minas. Esta idea, ya propuesta antes por Denis Papin en 1690, consistía en lo siguiente: hacia un recipiente de forma oval lleno de agua, se inyectaba el vapor producido en una caldera, con lo que el agua era desalojada hacia arriba. Luego el recipiente se bañaba con agua fría, con lo que el vapor se condensaba ( Presión x Volumen = Constante x Temperatura -ley de Boyle-GayLussac-, que significa que disminución de temperatura implica disminución de volumen y condensación). Quedaba pues al vacío el recipiente, con lo que era absorbida más agua, empezando de nuevo el ciclo. La máquina era poco eficiente, porque cada vez que había que empezar un nuevo ciclo había que enfriar de nuevo el recipiente, para la condensación del vapor. Que ni decir tiene que la altura máxima desde la que se podía elevar el agua venía dada por la misma ley que rige las actuales bombas de vacío. Como una atmósfera equivale al peso de una columna de mercurio de 96 cm, o también al de una columna de agua de 10 metros y medio, es ésta última la mayor profundidad a la que la máquina de Savery surtía efecto.

 

newcomen

 

La siguiente implementación de máquina de vapor fue desarrollada por un herrero llamado Thomas Newcomen, en el año 1705. Para tal desarrollo, Newcomen empleó vapor a la presión atmosférica en un cilindro. Al enfriarse este cilindro se producía el vacío, y entonces  la presión atmosférica movía un pistón, el cual estaba conectado a un balancín que bajaba y subía. En el otro extremo del balancín había una bomba de agua, que era para lo que se empleaba esta máquina de vapor. La potencia se incrementaba como es lógico con el incremento de la superficie del pistón. Las pérdidas de presión debidas al precario ajuste que entonces se podía hacer entre el cilindro y el pistón daba lugar a ineficiencia en la máquina. Aún así, el desarrollo de Newcomen estuvo en vigor durante cierto tiempo, hasta el momento en que se trató de perfeccionar el rendimiento de la máquina. Smeaton introdujo ciertas mejoras en el diseño de las máquinas aquí descritas en base precisamente a su estudio de sus rendimientos.

 

watt 

Ahora bien, la implementación definitiva corrió a cargo de un escocés llamado James Watt (de cuyo nombre se ha tomado el nombre de la unidad de la Potencia –el Wattio-), y fue patentada allá por el año 1769. Este mecánico se percató de la pérdida de energía producida por los calentamientos y enfriamientos sucesivos del cilindro, había una gran cantidad de calor que se empleaba únicamente para calentar el cilindro, una vez enfriado para producir el vacío en él. Pero entonces se le ocurrió una idea verdaderamente genial: se emplearían dos cilindros, uno que contuviese el pistón y que estuviese siempre caliente, y otro donde se condensaría el vapor por estar siempre frío –estaría sumergido en un tanque de agua-. Este segundo tanque sería lo que se llamaría condensador. El funcionamiento era el que sigue: el vapor hace bajar el pistón por estar la válvula superior del cilindro abierta. También está abierta la válvula que lo comunica con el condensador para que debajo de él haya el vacío necesario. Al llegar el pistón al fondo, las válvulas superior del cilindro y la del condensador se cierran y el vapor entra en el cilindro por la válvula inferior, igualándose la presión en ambas partes del pistón (superior e inferior), con lo que el pistón se eleva gracias al movimiento continuado del balancín, que es arrastrado desde el cigüeñal por un volante de inercia. Esta implementación daba lugar a un gran ahorro de combustible, con el consiguiente mayor rendimiento-. Con otras mejoras posteriores se convirtió en el motor de la mayoría de las máquinas de entonces.

 

Fuente de los datos históricos y de las imágenes de esta entrada:

Historia de la ciencia.

Carlos Solís, Manuel Sellés.

Editorial Espasa-Calpe.

 

Las abejas, la selección natural, la complejidad (2) y las matemáticas

 

abejas

 

Introducción

Es indudable que existe una relación de coexistencia en la naturaleza entre los conceptos que designan las cuatro palabras que aparecen como título de este artículo.

Para empezar, hablaré de las costumbres de la abeja de la miel (apis mellifera). Es de sobra conocido que las abejas tienen un comportamiento que aparentemente parece indicar la existencia de una gran inteligencia en estos alados insectos, y que se manifiesta fundamentalmente entre otros en tres hechos, a saber, la perfección de los panales, el empleo de un baile de comunicación entre ellas, y la perfecta distribución del trabajo entre los miembros de una comunidad (colmena). Pero,…, ¿cómo es posible que exista tal inteligencia en unos insectos cuyos cerebros apenas ocupan la cabeza de un alfiler?. La respuesta a esta pregunta es sencillamente que tal inteligencia no es tal, esto es, no existe, sino que su comportamiento resulta de la emergencia de ciertos patrones en un sistema complejo en el que sus partículas constituyentes -las abejas- se relacionan entre sí mediante sustancias químicas, dando lugar a propiedades globales del sistema completo (el enjambre), y que a su vez realimentan en el propio comportamiento de las partículas. Es algo similar a lo que ocurre con otros insectos sociales como las hormigas o las termitas. Pero esto que aquí describo sucintamente merece un análisis más profundo, que acometeré en las siguientes secciones.

Las abejas y el problema isoperimétrico

Ya en el libro «El origen de las especies», escrito por Charles Darwin, y publicado en 1859, se hacía mención al fenómeno conocido como «problema isoperimétrico» aplicado a las abejas. Es un dato bien conocido que toda colmena está constituida por panales, y estos panales estan formados por celdillas exagonales, donde se deposita la miel o bien donde la abeja reina pone sus huevos, de los que saldrán nuevas abejas. En cada panal hay pues celdas en las que hay miel almacenada, convenientemente sellada mediante una capa de cera, o bien una futura abeja en su etapa de cría.

¿Por qué las abejas construyen celdas y por qué las hacen exagonales?. La respuesta a esto tiene que ver con la selección natural y con un conocido problema matemático conocido como problema isoperimétrico. Este problema se enuncia del siguiente modo… de todos los polígonos de igual perímetro, ¿cuál de ellos tiene más superficie?… La respuesta a este interrogante es el círculo.

Ahora bien, con círculos no podemos recubrir el plano, quedarían muchos intersticios sin cubrir, y tendrían que usarse diferentes tamaños de círculos para aproximarnos a un plano casi cubierto. Si quisiéramos una solución efectiva y lo más sencilla posible, deberíamos utilizar todas las figuras iguales y regulares, para que el recubrimiento pudiese ser un proceso repetitivo y rutinario…¿Qué figuras regulares planas recubren el plano?…Pues la respuesta a esto, es que para teselar el plano (teselación es lo mismo que recubrimiento del plano) podemos emplear triángulos, cuadrados, rectángulos o exágonos…Pero de estas figuras, y a igualdad de perímetro, ¿cuál es la que ocupa una mayor área?… La respuesta es el exágono, que es precisamente la figura que usan las abejas.

Usando el exágono, las abejas consiguen con un mínimo gasto de cera -lo cual conviene- un máximo almacenamiento de miel -lo cual también conviene de cara al duro invierno, en el que los alados insectos no tienen flores a las que acudir-. Se trata de producir el máximo de miel, a costa claro está del mínimo de cera. Por otra parte, el tamaño de las celdas viene fijado por las propias medidas físicas de cada abeja, no sólo por su tamaño operativo de trabajo sino también por el hecho de que en muchas de esas celdas se criarán otras abejas. ¿Por qué han llegado las abejas a construir los panales de este modo?. La respuesta está clara si utilizamos la teoría de la selección natural de Darwin… Los enjambres que construían sus panales con celdas exagonales tenían ventaja frente a los que no los construían así, pues con una mínima producción de cera podían almacenar una gran cantidad de miel para alimentarse en el invierno. De este modo, aquellos enajambres que desarrollaron la variación consistente en construir las celdas exagonales podrían sobrevivir en mayor medida frente a los que no la desarrollaron y terminaron por imponerse a los otros. Esto se fue amplificando a lo largo de los siglos y los genes implicados en tal comportamiento permanecieron hasta hoy en el código genético de las abejas.

 

baile_abejas

 

Las abejas y su comunicación mediante danzas

También es un hecho bien conocido que, en virtud a la especialización del trabajo en una colmena, las abejas obreras cuando buscan emplazamientos donde se halle alimento -néctar y pólen- , y hallan algún lugar propicio para obtenerlo, para  la posterior producción de miel, jalea o cera, avisan a sus compañeras obreras del lugar y la distancia de dicho alimento, y las que aprenden los datos informados vuelven a repetir el mensaje para que otras obreras se enteren.

Para esta comunicación, y también como resultado del azar y de la selección natural, utilizan una danza en la cual el modo de dibujar la figura en el panal denota la dirección y la mayor o menor vibración de la cola indica la distancia. ¿Por qué las abejas han aprendido esta técnica de comunicación?. Indudablemente, y como decía más arriba, un cerebro como la cabeza de un alfiler no puede acumular este conocimiento, es algo que está grabado en el ADN de las abejas y que empezó como variaciones (llamadas exaptaciones en el libro de Darwin), generadas mediante mutaciones en el código genético, que fueron seleccionadas por la propia naturaleza al proveer a los enjambres que las practicaban ventaja frente a otros en su contienda por el pólen y el néctar -recursos limitados implican contienda por ellos, así funciona la naturaleza, e implica supervivencia de los ejemplares (enjambres en este caso) mejor adaptados-. Todo esto fue mejorando a lo largo de las generaciones hasta la actualidad, siempre con la actuación lenta e invisible de la mano de la selección natural.

Las abejas y la especialización del trabajo

Otro aspecto a reseñar en los enjambres es el fenómeno de la división del trabajo, que también desarrollan otros insectos sociales. Evidentemente este es otro caso donde la selección natural ha actuado, pues está claro que evolutivamente y de cara a la supervivencia es preferible que haya abejas que acometan tareas únicas y bien definidas en vez de que todas las abejas sean capaces de desarrollar todas las tareas de una colmena -entre otras cosas serían animales mucho más complicados y la naturaleza siempre provee de soluciones lo más sencillas posibles, siempre al ritmo que marca la aparición de mutaciones (divergencia de caracteres), la recombinación genética y la selección natural.

Lo que yo pienso de todo esto. Especulaciones propias y el papel de las matemáticas para entender las abejas y su comportamiento.

La pregunta que pretendo contestar con estas especulaciones no es otra que el porqué de todos estos comportamientos, es decir, ¿cómo se ha llegado a dichos comportamientos actuales en la especie apis mellifera y en otros insectos sociales dotados de pequeñísimos cerebros?.

Para entender mi contestación a esta pregunta recomiendo que se lea primero el artículo que publiqué en esta misma bitácora sobre Alan Turing y los números computables.

En primer lugar, ¿cómo podemos modelar por ejemplo la danza de las abejas o el mecanismo de construcción de los panales?. Evidentemente se trata de procedimientos en los cuales ante un conjunto de entradas de información se obtiene una secuencia de salida -por ejemplo en el caso de la danza, las entradas serían las posiciones y distancias del alimento y la salida sería la secuencia obtenida por las posiciones sucesivas de la abeja en el baile y el ímpetu vibratorio del abdomen-. Estos procedimientos se denominan en matemáticas «algoritmos».

Un algoritmo puede ser descrito mediante una máquina de Turing, la cual posee una tabla de configuraciones en que se refleja el comportamiento de la misma ante la secuencia de estados de configuración anteriores y ante unas determinadas entradas. Ante unos estímulos, la máquina, siempre en función de su estado, bascula su estado interno de configuración y da una salida. Y esto se va prolongando en el tiempo. Según esto, tanto la danza de las abejas como la construcción de panales son dos algoritmos matemáticos o se pueden ver así.

Ahora bien, ¿cómo han llegado las abejas a desarrollar estos algoritmos de forma espontánea si carecen de inteligencia o tienen muy poca?. La respuesta, como ya se puede intuir de los párrafos anteriores, se halla en la selección natural.

Pero,…, ¿cómo podríamos modelar esto matemáticamente de forma que fuera algo autoexplicativo?. A mí lo que se me ocurre es lo siguiente: la tabla de configuración que dirige el comportamiento de la máquina de Turing de cada algoritmo actual tiene una descripción estándar o número de descripción que la describe. Pues bien, podría imaginarse una máquina de Turing en la cual está implementado un algoritmo maestro de búsqueda del algoritmo óptimo, y que esta máquina maestra unida a una máquina universal dan lugar a la generación a un ritmo muy lento en el tiempo, con el paso de las generaciones, de nuevos algoritmos, descritos por su número de descripción estándar y que alimentan a la máquina de Turing Universal, capaz de reproducir la operativa indicada por esos números de descripción, con un ritmo de cambio de los algoritmos creados muy lento a medida que transcurren las generaciones. De este modo el funcionamiento en serie de las dos máquinas, primero la M del algoritmo maestro y luego la U (máquina universal), dan lugar en cada generación a un comportamiento a unas entradas determinadas y a un algoritmo de baile o de construcción de panales, según sea el caso.

¿Qué algoritmo estaría implementado en la máquina M?. Pues la respuesta no es difícil…Se trataría de un algoritmo genético…

Un algoritmo genético es un procedimiento en el cual se parte de un genotipo aleatorio (conjunto de genes -bits-), que tienen un número finito de parejas de seres, y mediante la mutación y la recombinación genética, cambiando algún bit, y mezclando los dos cortes de los genotipos de dos progenitores para dar un hijo, respectivamente, complementado con la selección natural -la cual se aplica obteniendo una medida de lo bien adaptado que estaría ese ser para sobrevivir en el ecosistema, y que daría lugar a una poda de los peor adaptados-; se van obteniendo nuevas generaciones de seres cada vez mejor adaptados para la supervivencia según el criterio establecido. Esto da lugar a una optimización del genotipo, que sería la que resolvería cada problema particular.

En el ejemplo que nos ocupa, el algoritmo genético implementado en la máquina M sería capaz de encontrar aquel genotipo óptimo (número de descripción estándar en este caso) que aplicado a la máquina U daría lugar al mejor algoritmo de danza o de construcción de celdillas. Por tanto, el algoritmo maestro o director que emplea la naturaleza para optimizar el comportamiento de las abejas, sería un algoritmo genético, y una medida de performance o grado de desempeño de cada genotipo obtenido en cada generación, probablemente sería el mayor grado de aproximación de la relación miel almacenada / cría almacenada a un valor en el que la miel diera exactamente para sobrevivir en el invierno y alimentar la colmena, pues en ese caso en el que no habría mucho excedente de miel sino sólo el estrictamente necesario se conseguiría un máximo de la cría obtenida y un máximo en el tamaño del enjambre en la siguiente generación -mayor tamaño = mayores posibilidades de sobrevivir-.

De todas maneras, esto también se podría modelar de una forma más real o natural si se quiere, añadiendo un nivel más : habría una tercera máquina P que utilizaría un algoritmo genético también y  en la cual se decidiría la relación óptima celdas ocupadas con miel / celdas ocupadas con cría, para una razón de partida aleatoria, o mejor aún, y de manera equivalente a eso, las propias máquinas M, con sus números de descripción estándar específicos (genotipos individuales) competirían y serían los individuos de un super-algoritmo genético que los tuviese dentro de sí como seres evolucionantes, y que tomase como medida de performance la supervivencia del enjambre en un mayor número de generaciones.

 

La teoría de la complejidad – (1)

 

 

 

La teoría de la complejidad está relacionada con la filosofía hermética. El hermetismo se basa fundamentalmente en dos conceptos. A saber: por una parte se establece que todo está relacionado con todo, o que todo está en todas partes, y que además  los  cambios en una parte del universo generan cambios en otra parte, y estos cambios generarán cambios en otras, e incluso con realimentación aparecerán nuevos cambios en las partes que primero cambiaron, y así sucesivamente…En otras palabras, el universo o la naturaleza son tejidos cuyos cambios en la posición y en el entrelazado de alguna hebra afectan al propio tejido, y las variaciones en el tejido afectan igualmente a las condiciones de las hebras. Según esto está claro el paralelismo entre el hermetismo y complejidad.

Por otra parte, -y de ahí viene la palabra hermetismo, de la misma familia que «hermético»-, este movimiento también establece que las razones del comportamiento mencionado del universo están ocultas -son místicas o esotéricas-. Es decir, hay unas razones ocultas, que podríamos identificar con Dios o con espíritus -o con lo que cada uno guste-.

La teoría de la complejidad es más que una teoría de una sola persona el compendio de trabajos de un gran grupo de investigadores -en su mayoría tal vez americanos-, de entre los cuales quizás se podría citar como importante a Stuart Kauffman -autor de «investigaciones», publicado en Metatemas, de Tusquets Editores-, aunque me consta que también en España hay grupos de investigación en el campo de la complejidad.

Conviene tener claro que esta teoría, al igual que sucede con muchas teorías físicas, abstrae de cada problema concreto a tratar una gran cantidad de cosas, hace conjeturas a veces sobre las relaciones entre los elementos de un sistema complejo, otras veces basa dichas relaciones en cálculos matemáticos lo más simplificados posibles para que los siguientes no se compliquen; y además toma como instrumento indispensable las simulaciones por ordenador basadas como en relaciones matemáticas simplificadas pero no absolutamente verdaderas. Lo cierto es que tras muchas iteraciones en la computadora, los sistemas analizados muestran propiedades emergentes similares a las observadas en la realidad, lo cual ya es en sí un gran logro.

Pondré un ejemplo simple: las redes booleanas. Una red booleana es un conjunto de elementos unidos entre sí, que se podrían interpretar como bits, que pueden tomar el valor «1» o «0», y cuyo valor individual viene dado por una regla matemática sencilla dependiente de los valores de otros bits próximos. Es clara la analogía con los genes: cada uno puede estar activo o inactivo, y además se relaciona con los demás según ciertas leyes que no recuerdo a quiénes les supuso el Nóbel en medicina. Pues bien, supongamos que ponemos unos valores aleatorios iniciales a los genes y dejemos que el sistema evolucione en un programa de ordenador. Lo que se constata, pasado un tiempo, es que el sistema converge a una repetición cíclica de estados de la red booleana. Si se prueba con diferentes combinaciones iniciales se observa siempre esta propiedad: siempre se converge a un conjunto finito de ciclos. Además se comprueba que si el número de bits es N, el número de ciclos límite, atractores, o como les queramos llamar, es del orden de raíz de N. Por otra parte, está comprobado que si se parte de un número N de genes combinados entre sí, estos dan lugar a un número del orden de raíz de N de proteínas diferentes, es decir, de tejidos diferentes. Es clara la analogía, aunque todo se haya simplificado al máximo, ¿o no?. Las proteínas pueden interpretarse según esto, no de una manera muy formal es cierto, como atractores de sistemas complejos formados por genes.

Otro ejemplo: el desarrollo o metamorfosis de una especie de medusa llamada acetabularia. Si se suponen ciertas relaciones matemáticas entre las células próximas, al final en el ordenador se obtiene la misma evolución de este ser: se estira, abre un paraguas, etc…

Ya sé que todo esto que he mencionado no parece muy formal, no lo es tanto como por ejemplo la teoría de la relatividad, sin embargo hasta donde se ha investigado, las conclusiones concuerdan con la realidad. Curioso, ¿verdad?.

 

Investigaciones, de Stuart Kauffman

 

 

He leído hace unos años un libro de un profesor emérito de biología americano llamado Stuart Kaufman, cuya lectura me resultó muy interesante y amena. El libro se titula «Investigaciones», y en él se buscan las condiciones elementales para la vida en cualquier mundo. La conclusión a la que llega es que para que un organismo sea un agente autónomo, esto es, un ser con capacidad para adaptarse al medio y utilizarlo en su propio beneficio, debe ser un compuesto molecular autocatalítico en el que se produzca al menos un ciclo termodinámico. Autocatalítico en el sentido de que debe estar en contacto con enzimas (o catalizadores) que permitan el ensamblado de la molécula viva según las reacciones químicas pertinentes y su autoreplicancia -reproducción-, reduciendo la barrera de potencial que separa reactivos y complejo activado. En realidad esas enzimas, en las formas vivas que conocemos, van ligadas a la molécula en sí. Por eso decimos que se autocatalizan. Sin embargo, S. Kauffman da un paso más, y dice por ejemplo que probablemente podría ser posible que algunas moléculas cooperativamente se catalizasen, una parte de A ayudaría a catalizarse B y una parte de B ayudará a catalizarse A, dando lugar a más moléculas A y B. El hecho es que incluso podría ser que, a partir de una sopa de moléculas inicial de muchos tipos éstas se fueran uniendo, de forma que cuando la relación moléculas/conexiones fuese en torno a 2, emergerían de la sopa moléculas muy grandes con posibilidad de catalizarse a sí mismas.

Por lo visto, hasta el momento se han conseguido moléculas que se catalizan y dan lugar a otras moléculas que las contienen, pero todavía no se ha logrado que ejecuten algún ciclo termodinámico. Y no tendrían por qué ser únicamente las moléculas orgánicas -basadas en el Carbono-, las presentes en otras formas vivas.

En el libro «¿qué es la vida?», de Schröedinger, se planteó una intuición brillantísima en torno a los ladrillos de los que estamos construidos -del ADN que forma las proteínas-. Resulta que Schroëdinger, unos 20 años antes del descubrimiento de Watson y Crick, razonó que nuestras moléculas constituyentes no podrían ser sólidos o cristales regulares, porque la información que contienen está contenida en uno de los ciclos que se repiten, y es por tanto poca. Razonó que serían cristales aperiódicos. Y acertó. Se adelantó al descubrimiento de la doble hélice dextrógira a base de nucleótidos adenina, timina, guanina y citosina.

Al final resulta -según Kauffman- que hay un gran paralelismo entre el segundo principio de la termodinámica y la evolución natural. El segundo principio de la termodinámica establece que la entropía nunca disminuye, esto es, las moléculas chocan entre sí y las que van más rápido se frenan con las otras y las más lentas adquieren velocidad, hacia una situación por tanto de equilibrio térmico, con una gran cantidad de «información térmica» acumulada en el conjunto de todas las moléculas. La evolución natural, siguiendo los procesos de recombinación, mutación y selección natural da lugar por su parte a especies con cada vez más información condensada en su ristra de ADN. Hay cierto paralelismo entre ambas situaciones.

Una de las conclusiones de la biología de Kauffman es que la selección natural por sí misma no explica el fenómeno natural. Es la teoría de la complejidad coadyuvando con la selección natural la que, en virtud a la mera espontaneidad del azar, explica las formas naturales emergentes. Es como si del caos apareciera el orden.

Para los interesados en complejidad, matemáticas y biología, les propongo el libro «investigaciones», de Stuart Kauffman, Metatemas, Tusquets Editores.