Archive for the ‘ Ciencia ’ Category

Mi colección de lepidópteros

 

 

Ya que como digo en mi poema “El mundo del mañana”, los niños de hoy serán los hombres del mañana, dedico esta entrada a un niño de once años, llamado Alex Pujadas, de Barcelona, hijo de un compañero mío de trabajo, y que comienza a descubrir el mundo, y en particular a descubrir sus propias inquietudes, en este caso los insectos. Feliz viaje, amigo Alex.

Siempre me gustaron los lepidópteros (o mariposas), desde muy pequeño. En su momento, a los doce años confeccioné mi propia colección autóctona de estos insectos, a base de carreras por los prados y paciencia, y poco a poco fui advirtiendo la majestuosa belleza que es capaz de engendrar la naturaleza, cuyos misterios están en parte desvelados por la teoría de la selección natural de Darwin -de la cual soy un gran devoto-. ¿Es justo sacrificar especímenes o privarlos de su libertad para su estudio?. Pues tal vez probablemente no lo sea, pero es evidente que esto se hace a gran escala en los museos de la naturaleza, y es el modo más eficiente de conseguir llegar a conclusiones veraces y profundas en lo que respecta a la anatomía. Lo mismo se hace con las plantas. Ahora, tras un par de décadas, pienso que si algún día me da por cazar animales o plantas para su contemplación o estudio lo haré desde detrás de una cámara o unos prismáticos, pues considero que si queremos preservar este planeta para las generaciones venideras tenemos que empezar por aplicar un principio conservativo estricto a todos nuestros actos diarios.

 

 

Ahora bien, existen personas por todo el mundo que se dedican a criar en cautividad lepidópteros a gran escala, para posteriormente ser disecados. De hecho estas actividades están amparadas por los organismos reguladores de las leyes de Protección de la Naturaleza y no constituyen delito. El delito lo sería si los especímenes procediesen del estado de libertad y fuesen especies protegidas. En otras palabras, sacrificar estos ejemplares equivale por ejemplo al sacrificio que hacemos con aquéllos animales de los que nos alimentamos y que criamos en cautividad. En realidad, sigo creyendo que no es justo, pero si observamos la propia naturaleza podemos ver como se dirime una continua contienda sin cuartel entre las especies, depredadores frente a presas, y de esta contienda surge el equilibrio que matemáticamente se modela con las ecuaciones diferenciales de Lotka-Volterra, un par de ecuaciones diferenciales acopladas cuya solución explica la variación biológica en los ecosistemas, y que está formada por dos funciones temporales que modelan la variación de la cantidad de depredadores y de presas en un par de especies que estén relacionadas de este modo. En realidad este par de ecuaciones diferenciales se extienden y particularizan a cada par predador-presa del ecosistema, y establecen al mismo tiempo que la tasa de aumento de las presas es el crecimiento natural de esa especie menos la tasa de muertes por encuentro con el predador, mientras que la tasa de aumento del predador es su crecimiento por encuentro fructífero con la presa menos su tasa de muertes naturales. Evidentemente esto es una simplificación, pero lo suficientemente fina como para que, resolviendo el gran sistema de ecuaciones diferenciales de un ecosistema, obtengamos soluciones basadas en parámetros (siendo los parámetros los que intervienen en las ecuaciones diferenciales y que han de ser obtenidos empíricamente) que representan las cantidades variables en las sucesivas generaciones de cada especie en el espacio de especies, y que esquematizan la variabilidad temporal biológica en cada biotopo. Los ecosistemas que perviven lo hacen merced a la aproximación a situaciones de alejamiento y acercamiento sucesivos a la posición teórica de equilibrio que se obtendría igualando todas las tasas de cambio de todas las ecuaciones a cero, y gracias a la contienda, que es precisamente uno de los mecanismos naturales de poda de los peor adaptados que provee la naturaleza y que mueve precisamente la evolución biológica sobre la Tierra. Al final resulta que un hecho puntual, como por ejemplo que en una región de la sabana africana los leones cacen muy eficazmente, puede ayudar a que todo un ecosistema no se desmorone, porque en este mundo todo está relacionado con todo. Nosotros no somos más que una especie animal más, y por ello también somos depredadores, sólo que nuestros medios y métodos de caza son mucho más sofisticados que los de los animales, y en muchos casos no buscan nuestro sustento, que es el fin realmente noble de la caza, sino la diversión, aspecto lúdico que aunque entraña la muerte de los ejemplares cobrados, puede poseer consecuencias beneficiosas para los ecosistemas, cuando mediante la práctica cinegética se consigue el control demográfico de las especies.

 

 

Aun así, a pesar de todo, no he podido resistirme a conseguir una colección de lepidópteros de todo el mundo, y cada día que pasa me maravillo más y más de la suma perfección de Natura, el verdadero dios (o diosa). Pondré un ejemplo ilustrativo: el reverso de las alas de ciertas especies de lepidópteros tienen forma y color de hoja de árbol. Es evidente que las variaciones aleatorias, asociadas a la divergencia de caracteres, la cual no es sino la expresión visible de la mutación genética, que aparecieron en algún momento puntual y que conferían cierto parecido a hojas a las alas de esos ancestros naturales, les daban ventaja frente a otros ancestros lepidópteros del mismo ecosistema, y esto dio lugar a que poco a poco fuesen apareciendo especies con esta morfología, dado que otros animales que se alimentaban de lepidópteros encontraban con mayor dificultad a estas especies miméticas. Otro tanto ocurre en un fenómeno bastante extendido en los lepidópteros: la presencia de ocelos con formas muy similares a la de ojos. Es un hecho comprobado que los pájaros atacan a estos ejemplares precisamente en esos ojos, por llamarles más la atención, y no en el tórax, el abdomen o la cabeza. Por tanto, esos especímenes sobreviven, y esto no debería extrañarnos, pues ahora observamos precisamente que se hallan entre nosotros y no han desaparecido. Simplemente porque la variación consistente en tener esos “ojos” les dio ventaja frente a otras mariposas asentadas en el mismo nicho biológico, que eran atrapadas por sus depredadores. Selección natural al 100%. Como ejemplos de la primera de las circunstancias puedo exponer el caso del lepidóptero Kalima Inachus, y como ejemplos de la segunda circunstancia se me ocurren por ejemplo la Caligo sp., o la Morpho Peleides, ambas dotadas de una belleza embaucadora.

 

 

Para contagiaros de esta contemplación enriquecedora del mundo que nos rodea, que practican miles y miles de personas en el planeta, y cuya belleza y verdad nos aguardan en cada rincón insospechado, he insertado aquí once fotografías correspondientes a mi actual colección de lepidópteros.

 

 

La radio de galena. Descripción y funcionamiento

 

 

En los albores de la era tecnológica, cuando la radio hacía sus primeros pinitos tras la verificación experimental de las ondas electromagnéticas por Hertz, y las experiencias de Marconi -bastante después de su descubrimiento teórico a partir de la combinación de las ecuaciones de Maxwell que genera la ecuación de onda-, todavía no estaban nada perfeccionados los mecanismos de modulación de la señal eléctrica transmitida y la tecnología conocida no permitía grandes maravillas en la transmisión y la recepción de la radio.

El primer problema a resolver consistía en obtener una manera fácil de mezclar la información a transmitir, o señal moduladora,  con un tono o portadora que permitiese su propagación óptima asociada a las variaciones temporales armónicas de la ecuación de onda, consiguiendo adaptar la señal modulada resultado de dicha mezcla a un canal de comunicaciones lo suficientemente bueno en cuanto a carencia de ruidos indeseados notables, una baja atenuación de la onda en su viaje, así como el hecho de utilizar una frecuencia no usada en el espacio físico identificado con el canal para evitar interferencias. Pues bien, el primer intento de transformación matemática de la señal moduladora lo constituyó la modulación de amplitud (AM), por ser el esquema más natural concebible, y consiste en multiplicar la portadora con la señal moduladora, que varía mucho más lentamente que la primera, de modo que la información queda retenida en la envolvente de la onda a transmitir. Es una forma natural de hacerlo, y que permite, si se usa suficiente potencia de transmisión, un gran alcance, a pesar de que es muy sensible a los ruidos. Los ruidos son señales indeseadas producidas por tormentas, y ruido térmico producido por el flujo natural de la corriente en los dispositivos con componente resistiva, con el consabido calentamiento de los mismos, a la cual se le suma una cantidad muy grande de pequeñas corrientes de estadística gaussiana generadas por los choques entre portadores de carga y núcleos atómicos, en todas las direcciones, y que se superponen a la corriente media. Dicha componente superpuesta es precisamente el ruido térmico, que al llegar a un elemento radiante es emitido hacia el receptor, aunque también se debe tener en cuenta la atenuación por hidrometeoros (donde lo que más influye es la atenuación que sufre la onda por la absorción molecular que se produce en las moléculas de agua y/o por dispersión de la energía por ser el agua buena conductora).

En un principio la modulación que se utilizó para las comunicaciones era la modulación de amplitud. Aún es usada hoy por ejemplo en las emisiones de onda corta, en variantes en las que se suprime una de las bandas laterales del espectro de radiofrecuencia. Por ser la señal real, su espectro tiene módulo simétrico respecto al eje de la frecuencia de portadora, con lo cual se evita el envío de información redundante. Queda por tanto el espectro configurado mediante la banda de media frecuencia, las frecuencias superiores (para USB) -o inferiores (para LSB)- y el piloto de portadora -también se puede emitir con portadora suprimida-; y esta modulación se conoce en general como Banda Lateral Suprimida (SSB). Además este mismo esquema -otra variante de la modulación AM o de amplitud- fue usado para la transmisión analógica de televisión, antes de la actual TDT digital; en concreto se usaba una subportadora, para ser modulada en amplitud en cuadratura por dos señales diferencia de color, intercaladas en un hueco del espectro de la señal de luminancia, y estando el sonido modulado en FM a una frecuencia de subportadora mayor. Al menos se operaba así en el antiguo estándar europeo de televisión analógica, conocido como PAL.

Tal vez una de las primeras implementaciones de receptor de radio capaz de transformar la modulación AM en algo audible -en la propia señal moduladora- es un esquema muy simple conocido como radio de galena, que se representa en la figura de más arriba. La radio de galena responde a la forma lógica de detectar la moduladora en una señal AM, esto es, responde a obtener la envolvente de la señal modulada transmitida y recibida en el receptor y aplicarla a unos auriculares. Recuérdese que las variaciones lentas de la señal moduladora contienen la información a recibir. Véase el dibujo de más abajo, que representa una señal moduladora modulando a una portadora.

La galena es un mineral, en concreto sulfuro de plomo, y cristaliza en forma de cristales cúbicos. Tiene una propiedad muy interesante, que es que según algunas direcciones a su través rectifica una corriente eléctrica, esto es, la deja pasar en un sentido pero no en el contrario. Lógicamente, si la señal modulada transmitida una vez recibida es pasada por una galena con el ajuste adecuado, dejará pasar sólo la parte positiva de la corriente eléctrica, y si usamos a su salida un condensador conseguiremos que la parte positiva antes de la bajada hacia valores negativos de la señal modulada cargue esa capacidad, que será descargada a través de los auriculares lentamente en la parte en la que la galena no permite paso de corriente, por estar ésta en el otro sentido -galena en corte-. Se obtiene así una señal sin brusquedades y de variación suave prácticamente idéntica a la señal moduladora de variaciones lentas que se transmitió. Esta parte que aquí describo se corresponde en el esquema con las dos últimas etapas, esto es, la detección, producida en la galena -sustituida hoy en día en los receptores por diodos de silicio o de germanio- y el condensador fijo; y la presentación, producida en unos auriculares de alta impedancia. Hoy en día se usan auriculares de baja impedancia en los receptores por la sencilla razón de que sus cables se conectan en serie en los amplificadores de audio como parte de la carga de los mismos y de este modo las impedancias han de ser pequeñas para no disminuir la corriente que ellos mismos presentan como sonido. En los receptores de galena los auriculares estaban colocados en paralelo con el circuito detector y por tanto para no afectar a su funcionamiento en una medida elevada debían tener alta impedancia, para cargar lo menos posible al detector, ya que las corrientes detectadas son minúsculas por no presentar ninguna amplificación de la señal el receptor de galena.

Esto que he explicado en el párrafo anterior consiste en el procesado que se hace a la señal ya sintonizada para convertir la moduladora en sonido audible. Ahora bien, faltan dos etapas previas, a saber, la etapa de la antena, y la etapa de la sintonía. De la antena no hablaré en profundidad, basta con decir que la onda electromagnética que vibra en las inmediaciones de la misma genera una corriente eléctrica en los conductores, para cuya recogida está especialmente pensada la antena. La señal de antena se pasa a continuación a lo que se conoce como circuito tanque, o filtro de radiofrecuencia o filtro de sintonía. En realidad la bobina y el condensador variable forman lo que se conoce como un resonador, el cual tiene una frecuencia propia de resonancia que viene dada por los valores de la bobina y del condensador variable. Esto significa que a una frecuencia determinada por dichos valores el condensador se carga con la corriente minúscula de la bobina, descargándose el campo magnético de ésta, y después en el siguiente semiciclo el campo eléctrico del condensador se descarga en forma de corriente y por tanto campo magnético en la bobina. Todo ésto da lugar a un circuito oscilante, cuyas oscilaciones se ven atenuadas de forma creciente por las pérdidas óhmicas debidas a las resistencias asociadas a dicho condensador y dicha bobina, los cuales no son ideales. En otras palabras, el paralelo de la bobina y el condensador constituyen un sistema armónico simple con amortiguación. ¿Qué razón de ser tiene su uso?. Pues su razón de ser es que si hacemos coincidir la frecuencia de resonancia del filtro tanque, actuando en el condensador variable, con la frecuencia de la portadora cuya información queremos detectar y oír, entonces la señal de corriente que viene de la antena se enganchará a las variaciones de corriente del sintonizador y dará lugar a un sistema vibratorio amortiguado forzado, en el que la señal de antena de esa frecuencia específica, y ninguna más a otra frecuencia de portadora distinta, pasa hacia el detector. En otras palabras, se obtiene la resonancia y la máxima transferencia de energía. Ésto es así, porque a esa frecuencia el resonador presenta una impedancia infinita. Es decir, a todos los efectos es como si no estuviera presente en el circuito, y toda la corriente que entra desde la antena pasa de forma íntegra al detector. Si variamos la capacidad del sintonizador ya no escucharemos la señal a la que estábamos sintonizados, pues el filtro tanque tendrá una menor impedancia y absorberá una mayor parte de la corriente, pasando poca corriente de antena al detector. Ésto que he descrito es lo que se conoce como etapa de sintonía.

Lo que aquí he descrito es un receptor homodino y sin amplificación ninguna, ni en radiofrecuencia, ni en frecuencia intermedia, ni en audiofrecuencia; en el cual no hay ninguna etapa de frecuencia intermedia -usada para conseguir mayor sensibilidad en los receptores superheterodinos-, en otras palabras, es un esquema muy ineficiente y obsoleto.

 

 

Los radiofaros Consol (Elektra-Sonne) – (6) Datos biográficos de Ernst Kramar

 

A Ernst Kramar se le debe la implementación de lo que se conoció como sistema de posicionamiento Consol.

Nació en Klazno el 15 de junio de 1902, un pueblo próximo a Praga (actual República Checa). Sus estudios universitarios consistieron en ingeniería eléctrica en la ciudad de Praga, entre los años 1920 y 1925, en una universidad entonces llamada Deutsche Technische Hochschule. En el año 1926 se graduó como Doctor Ingeniero por el Barkhausen Institute (Universidad Técnica de Dresde). Comenzó entonces su verdadera andadura profesional.

En el año 1927, Ernst Kramar entró en la empresa C. Lorenz AG (Berlín), compañía anterior a SEL (Standard Elektrik Lorenz). En aquella época se dedicó a resolver diferentes problemáticas en torno a la radio, pero no empezó a resaltar como ingeniero hasta que en 1932 usó frecuencias de la banda VHF con fines de radionavegación, desarrollo que recibió el nombre de Lorenz Landing System, del cual el actual ILS usado en aeropuertos es una mejora, del mismo modo que las balizas VOR, las cuales dan gran información de navegación a los pilotos.

En la Segunda Guerra Mundial, Ernst Kramar trabajó en técnicas de rádar y fue jefe de desarrollo de sistemas de radio en Pforzheim y Stuttgart.

En colaboración con los demás ingenieros de las compañías en las que trabajó, fueron desarrolladas un gran número de patentes, más de 85, lo que le valió un gran número de méritos y premios, tales como la Lilienthal Medal (1937), la Medalla de Oro de la Asociación Alemana para la dirección y navegación (Deustche Gesellschaft für Ortung und Navigation), y la Gran Cruz de la Orden del Mérito Nacional de la República Federal Alemana (1969).

Como resumen de todo esto, se podría decir que Ernst Kramar fue un reconocido científico que se adaptó a diferentes regímenes políticos durante su vida y que colaboró con el desarrollo técnico de Alemania, lo cual le valió múltiples condecoraciones. Sus desarrollos se han mantenido vigentes para el bien de los navegantes ya después de la Segunda Guerra Mundial, y han supuesto una inmensa aportación a la tecnología de las comunicaciones en el siglo XX.

 

La máquina de vapor y su evolución histórica

 

La llegada de la Revolución Industrial allá por el siglo XVIII no se limitó a las manufacturas textiles, a la siderurgia o a la industria química, aunque en estas categorías hubiera avances prodigiosos. Dado el aumento de la producción logrado con dichos avances, era menester una red de comunicaciones todo lo buena que fuese posible, para lo cual debía optimizarse de algún modo el empleo de energía en los medios de locomoción, esto es, incrementarla y aprovecharla en la mayor medida posible.

La máquina de vapor resolvió los problemas de la limitación de las fuerzas animal y humana y de la indisponibilidad de la energía hidráulica en la mayoría de los escenarios.

 

savory

 

La primera máquina de vapor fue diseñada por Thomas Savery en 1698 para elevar el agua en las minas. Esta idea, ya propuesta antes por Denis Papin en 1690, consistía en lo siguiente: hacia un recipiente de forma oval lleno de agua, se inyectaba el vapor producido en una caldera, con lo que el agua era desalojada hacia arriba. Luego el recipiente se bañaba con agua fría, con lo que el vapor se condensaba ( Presión x Volumen = Constante x Temperatura -ley de Boyle-GayLussac-, que significa que disminución de temperatura implica disminución de volumen y condensación). Quedaba pues al vacío el recipiente, con lo que era absorbida más agua, empezando de nuevo el ciclo. La máquina era poco eficiente, porque cada vez que había que empezar un nuevo ciclo había que enfriar de nuevo el recipiente, para la condensación del vapor. Que ni decir tiene que la altura máxima desde la que se podía elevar el agua venía dada por la misma ley que rige las actuales bombas de vacío. Como una atmósfera equivale al peso de una columna de mercurio de 96 cm, o también al de una columna de agua de 10 metros y medio, es ésta última la mayor profundidad a la que la máquina de Savery surtía efecto.

 

newcomen

 

La siguiente implementación de máquina de vapor fue desarrollada por un herrero llamado Thomas Newcomen, en el año 1705. Para tal desarrollo, Newcomen empleó vapor a la presión atmosférica en un cilindro. Al enfriarse este cilindro se producía el vacío, y entonces  la presión atmosférica movía un pistón, el cual estaba conectado a un balancín que bajaba y subía. En el otro extremo del balancín había una bomba de agua, que era para lo que se empleaba esta máquina de vapor. La potencia se incrementaba como es lógico con el incremento de la superficie del pistón. Las pérdidas de presión debidas al precario ajuste que entonces se podía hacer entre el cilindro y el pistón daba lugar a ineficiencia en la máquina. Aún así, el desarrollo de Newcomen estuvo en vigor durante cierto tiempo, hasta el momento en que se trató de perfeccionar el rendimiento de la máquina. Smeaton introdujo ciertas mejoras en el diseño de las máquinas aquí descritas en base precisamente a su estudio de sus rendimientos.

 

watt 

Ahora bien, la implementación definitiva corrió a cargo de un escocés llamado James Watt (de cuyo nombre se ha tomado el nombre de la unidad de la Potencia –el Wattio-), y fue patentada allá por el año 1769. Este mecánico se percató de la pérdida de energía producida por los calentamientos y enfriamientos sucesivos del cilindro, había una gran cantidad de calor que se empleaba únicamente para calentar el cilindro, una vez enfriado para producir el vacío en él. Pero entonces se le ocurrió una idea verdaderamente genial: se emplearían dos cilindros, uno que contuviese el pistón y que estuviese siempre caliente, y otro donde se condensaría el vapor por estar siempre frío –estaría sumergido en un tanque de agua-. Este segundo tanque sería lo que se llamaría condensador. El funcionamiento era el que sigue: el vapor hace bajar el pistón por estar la válvula superior del cilindro abierta. También está abierta la válvula que lo comunica con el condensador para que debajo de él haya el vacío necesario. Al llegar el pistón al fondo, las válvulas superior del cilindro y la del condensador se cierran y el vapor entra en el cilindro por la válvula inferior, igualándose la presión en ambas partes del pistón (superior e inferior), con lo que el pistón se eleva gracias al movimiento continuado del balancín, que es arrastrado desde el cigüeñal por un volante de inercia. Esta implementación daba lugar a un gran ahorro de combustible, con el consiguiente mayor rendimiento-. Con otras mejoras posteriores se convirtió en el motor de la mayoría de las máquinas de entonces.

 

Fuente de los datos históricos y de las imágenes de esta entrada:

Historia de la ciencia.

Carlos Solís, Manuel Sellés.

Editorial Espasa-Calpe.

 

Las abejas, la selección natural, la complejidad (2) y las matemáticas

 

abejas

 

Introducción

Es indudable que existe una relación de coexistencia en la naturaleza entre los conceptos que designan las cuatro palabras que aparecen como título de este artículo.

Para empezar, hablaré de las costumbres de la abeja de la miel (apis mellifera). Es de sobra conocido que las abejas tienen un comportamiento que aparentemente parece indicar la existencia de una gran inteligencia en estos alados insectos, y que se manifiesta fundamentalmente entre otros en tres hechos, a saber, la perfección de los panales, el empleo de un baile de comunicación entre ellas, y la perfecta distribución del trabajo entre los miembros de una comunidad (colmena). Pero,…, ¿cómo es posible que exista tal inteligencia en unos insectos cuyos cerebros apenas ocupan la cabeza de un alfiler?. La respuesta a esta pregunta es sencillamente que tal inteligencia no es tal, esto es, no existe, sino que su comportamiento resulta de la emergencia de ciertos patrones en un sistema complejo en el que sus partículas constituyentes -las abejas- se relacionan entre sí mediante sustancias químicas, dando lugar a propiedades globales del sistema completo (el enjambre), y que a su vez realimentan en el propio comportamiento de las partículas. Es algo similar a lo que ocurre con otros insectos sociales como las hormigas o las termitas. Pero esto que aquí describo sucintamente merece un análisis más profundo, que acometeré en las siguientes secciones.

Las abejas y el problema isoperimétrico

Ya en el libro “El origen de las especies”, escrito por Charles Darwin, y publicado en 1859, se hacía mención al fenómeno conocido como “problema isoperimétrico” aplicado a las abejas. Es un dato bien conocido que toda colmena está constituida por panales, y estos panales estan formados por celdillas exagonales, donde se deposita la miel o bien donde la abeja reina pone sus huevos, de los que saldrán nuevas abejas. En cada panal hay pues celdas en las que hay miel almacenada, convenientemente sellada mediante una capa de cera, o bien una futura abeja en su etapa de cría.

¿Por qué las abejas construyen celdas y por qué las hacen exagonales?. La respuesta a esto tiene que ver con la selección natural y con un conocido problema matemático conocido como problema isoperimétrico. Este problema se enuncia del siguiente modo… de todos los polígonos de igual perímetro, ¿cuál de ellos tiene más superficie?… La respuesta a este interrogante es el círculo.

Ahora bien, con círculos no podemos recubrir el plano, quedarían muchos intersticios sin cubrir, y tendrían que usarse diferentes tamaños de círculos para aproximarnos a un plano casi cubierto. Si quisiéramos una solución efectiva y lo más sencilla posible, deberíamos utilizar todas las figuras iguales y regulares, para que el recubrimiento pudiese ser un proceso repetitivo y rutinario…¿Qué figuras regulares planas recubren el plano?…Pues la respuesta a esto, es que para teselar el plano (teselación es lo mismo que recubrimiento del plano) podemos emplear triángulos, cuadrados, rectángulos o exágonos…Pero de estas figuras, y a igualdad de perímetro, ¿cuál es la que ocupa una mayor área?… La respuesta es el exágono, que es precisamente la figura que usan las abejas.

Usando el exágono, las abejas consiguen con un mínimo gasto de cera -lo cual conviene- un máximo almacenamiento de miel -lo cual también conviene de cara al duro invierno, en el que los alados insectos no tienen flores a las que acudir-. Se trata de producir el máximo de miel, a costa claro está del mínimo de cera. Por otra parte, el tamaño de las celdas viene fijado por las propias medidas físicas de cada abeja, no sólo por su tamaño operativo de trabajo sino también por el hecho de que en muchas de esas celdas se criarán otras abejas. ¿Por qué han llegado las abejas a construir los panales de este modo?. La respuesta está clara si utilizamos la teoría de la selección natural de Darwin… Los enjambres que construían sus panales con celdas exagonales tenían ventaja frente a los que no los construían así, pues con una mínima producción de cera podían almacenar una gran cantidad de miel para alimentarse en el invierno. De este modo, aquellos enajambres que desarrollaron la variación consistente en construir las celdas exagonales podrían sobrevivir en mayor medida frente a los que no la desarrollaron y terminaron por imponerse a los otros. Esto se fue amplificando a lo largo de los siglos y los genes implicados en tal comportamiento permanecieron hasta hoy en el código genético de las abejas.

 

baile_abejas

 

Las abejas y su comunicación mediante danzas

También es un hecho bien conocido que, en virtud a la especialización del trabajo en una colmena, las abejas obreras cuando buscan emplazamientos donde se halle alimento -néctar y pólen- , y hallan algún lugar propicio para obtenerlo, para  la posterior producción de miel, jalea o cera, avisan a sus compañeras obreras del lugar y la distancia de dicho alimento, y las que aprenden los datos informados vuelven a repetir el mensaje para que otras obreras se enteren.

Para esta comunicación, y también como resultado del azar y de la selección natural, utilizan una danza en la cual el modo de dibujar la figura en el panal denota la dirección y la mayor o menor vibración de la cola indica la distancia. ¿Por qué las abejas han aprendido esta técnica de comunicación?. Indudablemente, y como decía más arriba, un cerebro como la cabeza de un alfiler no puede acumular este conocimiento, es algo que está grabado en el ADN de las abejas y que empezó como variaciones (llamadas exaptaciones en el libro de Darwin), generadas mediante mutaciones en el código genético, que fueron seleccionadas por la propia naturaleza al proveer a los enjambres que las practicaban ventaja frente a otros en su contienda por el pólen y el néctar -recursos limitados implican contienda por ellos, así funciona la naturaleza, e implica supervivencia de los ejemplares (enjambres en este caso) mejor adaptados-. Todo esto fue mejorando a lo largo de las generaciones hasta la actualidad, siempre con la actuación lenta e invisible de la mano de la selección natural.

Las abejas y la especialización del trabajo

Otro aspecto a reseñar en los enjambres es el fenómeno de la división del trabajo, que también desarrollan otros insectos sociales. Evidentemente este es otro caso donde la selección natural ha actuado, pues está claro que evolutivamente y de cara a la supervivencia es preferible que haya abejas que acometan tareas únicas y bien definidas en vez de que todas las abejas sean capaces de desarrollar todas las tareas de una colmena -entre otras cosas serían animales mucho más complicados y la naturaleza siempre provee de soluciones lo más sencillas posibles, siempre al ritmo que marca la aparición de mutaciones (divergencia de caracteres), la recombinación genética y la selección natural.

Lo que yo pienso de todo esto. Especulaciones propias y el papel de las matemáticas para entender las abejas y su comportamiento.

La pregunta que pretendo contestar con estas especulaciones no es otra que el porqué de todos estos comportamientos, es decir, ¿cómo se ha llegado a dichos comportamientos actuales en la especie apis mellifera y en otros insectos sociales dotados de pequeñísimos cerebros?.

Para entender mi contestación a esta pregunta recomiendo que se lea primero el artículo que publiqué en esta misma bitácora sobre Alan Turing y los números computables.

En primer lugar, ¿cómo podemos modelar por ejemplo la danza de las abejas o el mecanismo de construcción de los panales?. Evidentemente se trata de procedimientos en los cuales ante un conjunto de entradas de información se obtiene una secuencia de salida -por ejemplo en el caso de la danza, las entradas serían las posiciones y distancias del alimento y la salida sería la secuencia obtenida por las posiciones sucesivas de la abeja en el baile y el ímpetu vibratorio del abdomen-. Estos procedimientos se denominan en matemáticas “algoritmos”.

Un algoritmo puede ser descrito mediante una máquina de Turing, la cual posee una tabla de configuraciones en que se refleja el comportamiento de la misma ante la secuencia de estados de configuración anteriores y ante unas determinadas entradas. Ante unos estímulos, la máquina, siempre en función de su estado, bascula su estado interno de configuración y da una salida. Y esto se va prolongando en el tiempo. Según esto, tanto la danza de las abejas como la construcción de panales son dos algoritmos matemáticos o se pueden ver así.

Ahora bien, ¿cómo han llegado las abejas a desarrollar estos algoritmos de forma espontánea si carecen de inteligencia o tienen muy poca?. La respuesta, como ya se puede intuir de los párrafos anteriores, se halla en la selección natural.

Pero,…, ¿cómo podríamos modelar esto matemáticamente de forma que fuera algo autoexplicativo?. A mí lo que se me ocurre es lo siguiente: la tabla de configuración que dirige el comportamiento de la máquina de Turing de cada algoritmo actual tiene una descripción estándar o número de descripción que la describe. Pues bien, podría imaginarse una máquina de Turing en la cual está implementado un algoritmo maestro de búsqueda del algoritmo óptimo, y que esta máquina maestra unida a una máquina universal dan lugar a la generación a un ritmo muy lento en el tiempo, con el paso de las generaciones, de nuevos algoritmos, descritos por su número de descripción estándar y que alimentan a la máquina de Turing Universal, capaz de reproducir la operativa indicada por esos números de descripción, con un ritmo de cambio de los algoritmos creados muy lento a medida que transcurren las generaciones. De este modo el funcionamiento en serie de las dos máquinas, primero la M del algoritmo maestro y luego la U (máquina universal), dan lugar en cada generación a un comportamiento a unas entradas determinadas y a un algoritmo de baile o de construcción de panales, según sea el caso.

¿Qué algoritmo estaría implementado en la máquina M?. Pues la respuesta no es difícil…Se trataría de un algoritmo genético…

Un algoritmo genético es un procedimiento en el cual se parte de un genotipo aleatorio (conjunto de genes -bits-), que tienen un número finito de parejas de seres, y mediante la mutación y la recombinación genética, cambiando algún bit, y mezclando los dos cortes de los genotipos de dos progenitores para dar un hijo, respectivamente, complementado con la selección natural -la cual se aplica obteniendo una medida de lo bien adaptado que estaría ese ser para sobrevivir en el ecosistema, y que daría lugar a una poda de los peor adaptados-; se van obteniendo nuevas generaciones de seres cada vez mejor adaptados para la supervivencia según el criterio establecido. Esto da lugar a una optimización del genotipo, que sería la que resolvería cada problema particular.

En el ejemplo que nos ocupa, el algoritmo genético implementado en la máquina M sería capaz de encontrar aquel genotipo óptimo (número de descripción estándar en este caso) que aplicado a la máquina U daría lugar al mejor algoritmo de danza o de construcción de celdillas. Por tanto, el algoritmo maestro o director que emplea la naturaleza para optimizar el comportamiento de las abejas, sería un algoritmo genético, y una medida de performance o grado de desempeño de cada genotipo obtenido en cada generación, probablemente sería el mayor grado de aproximación de la relación miel almacenada / cría almacenada a un valor en el que la miel diera exactamente para sobrevivir en el invierno y alimentar la colmena, pues en ese caso en el que no habría mucho excedente de miel sino sólo el estrictamente necesario se conseguiría un máximo de la cría obtenida y un máximo en el tamaño del enjambre en la siguiente generación -mayor tamaño = mayores posibilidades de sobrevivir-.

De todas maneras, esto también se podría modelar de una forma más real o natural si se quiere, añadiendo un nivel más : habría una tercera máquina P que utilizaría un algoritmo genético también y  en la cual se decidiría la relación óptima celdas ocupadas con miel / celdas ocupadas con cría, para una razón de partida aleatoria, o mejor aún, y de manera equivalente a eso, las propias máquinas M, con sus números de descripción estándar específicos (genotipos individuales) competirían y serían los individuos de un super-algoritmo genético que los tuviese dentro de sí como seres evolucionantes, y que tomase como medida de performance la supervivencia del enjambre en un mayor número de generaciones.

 

La teoría de la complejidad – (1)

 

 

 

La teoría de la complejidad está relacionada con la filosofía hermética. El hermetismo se basa fundamentalmente en dos conceptos. A saber: por una parte se establece que todo está relacionado con todo, o que todo está en todas partes, y que además  los  cambios en una parte del universo generan cambios en otra parte, y estos cambios generarán cambios en otras, e incluso con realimentación aparecerán nuevos cambios en las partes que primero cambiaron, y así sucesivamente…En otras palabras, el universo o la naturaleza son tejidos cuyos cambios en la posición y en el entrelazado de alguna hebra afectan al propio tejido, y las variaciones en el tejido afectan igualmente a las condiciones de las hebras. Según esto está claro el paralelismo entre el hermetismo y complejidad.

Por otra parte, -y de ahí viene la palabra hermetismo, de la misma familia que “hermético”-, este movimiento también establece que las razones del comportamiento mencionado del universo están ocultas -son místicas o esotéricas-. Es decir, hay unas razones ocultas, que podríamos identificar con Dios o con espíritus -o con lo que cada uno guste-.

La teoría de la complejidad es más que una teoría de una sola persona el compendio de trabajos de un gran grupo de investigadores -en su mayoría tal vez americanos-, de entre los cuales quizás se podría citar como importante a Stuart Kauffman -autor de “investigaciones”, publicado en Metatemas, de Tusquets Editores-, aunque me consta que también en España hay grupos de investigación en el campo de la complejidad.

Conviene tener claro que esta teoría, al igual que sucede con muchas teorías físicas, abstrae de cada problema concreto a tratar una gran cantidad de cosas, hace conjeturas a veces sobre las relaciones entre los elementos de un sistema complejo, otras veces basa dichas relaciones en cálculos matemáticos lo más simplificados posibles para que los siguientes no se compliquen; y además toma como instrumento indispensable las simulaciones por ordenador basadas como en relaciones matemáticas simplificadas pero no absolutamente verdaderas. Lo cierto es que tras muchas iteraciones en la computadora, los sistemas analizados muestran propiedades emergentes similares a las observadas en la realidad, lo cual ya es en sí un gran logro.

Pondré un ejemplo simple: las redes booleanas. Una red booleana es un conjunto de elementos unidos entre sí, que se podrían interpretar como bits, que pueden tomar el valor “1” o “0”, y cuyo valor individual viene dado por una regla matemática sencilla dependiente de los valores de otros bits próximos. Es clara la analogía con los genes: cada uno puede estar activo o inactivo, y además se relaciona con los demás según ciertas leyes que no recuerdo a quiénes les supuso el Nóbel en medicina. Pues bien, supongamos que ponemos unos valores aleatorios iniciales a los genes y dejemos que el sistema evolucione en un programa de ordenador. Lo que se constata, pasado un tiempo, es que el sistema converge a una repetición cíclica de estados de la red booleana. Si se prueba con diferentes combinaciones iniciales se observa siempre esta propiedad: siempre se converge a un conjunto finito de ciclos. Además se comprueba que si el número de bits es N, el número de ciclos límite, atractores, o como les queramos llamar, es del orden de raíz de N. Por otra parte, está comprobado que si se parte de un número N de genes combinados entre sí, estos dan lugar a un número del orden de raíz de N de proteínas diferentes, es decir, de tejidos diferentes. Es clara la analogía, aunque todo se haya simplificado al máximo, ¿o no?. Las proteínas pueden interpretarse según esto, no de una manera muy formal es cierto, como atractores de sistemas complejos formados por genes.

Otro ejemplo: el desarrollo o metamorfosis de una especie de medusa llamada acetabularia. Si se suponen ciertas relaciones matemáticas entre las células próximas, al final en el ordenador se obtiene la misma evolución de este ser: se estira, abre un paraguas, etc…

Ya sé que todo esto que he mencionado no parece muy formal, no lo es tanto como por ejemplo la teoría de la relatividad, sin embargo hasta donde se ha investigado, las conclusiones concuerdan con la realidad. Curioso, ¿verdad?.

 

Investigaciones, de Stuart Kauffman

 

 

He leído hace unos años un libro de un profesor emérito de biología americano llamado Stuart Kaufman, cuya lectura me resultó muy interesante y amena. El libro se titula “Investigaciones”, y en él se buscan las condiciones elementales para la vida en cualquier mundo. La conclusión a la que llega es que para que un organismo sea un agente autónomo, esto es, un ser con capacidad para adaptarse al medio y utilizarlo en su propio beneficio, debe ser un compuesto molecular autocatalítico en el que se produzca al menos un ciclo termodinámico. Autocatalítico en el sentido de que debe estar en contacto con enzimas (o catalizadores) que permitan el ensamblado de la molécula viva según las reacciones químicas pertinentes y su autoreplicancia -reproducción-, reduciendo la barrera de potencial que separa reactivos y complejo activado. En realidad esas enzimas, en las formas vivas que conocemos, van ligadas a la molécula en sí. Por eso decimos que se autocatalizan. Sin embargo, S. Kauffman da un paso más, y dice por ejemplo que probablemente podría ser posible que algunas moléculas cooperativamente se catalizasen, una parte de A ayudaría a catalizarse B y una parte de B ayudará a catalizarse A, dando lugar a más moléculas A y B. El hecho es que incluso podría ser que, a partir de una sopa de moléculas inicial de muchos tipos éstas se fueran uniendo, de forma que cuando la relación moléculas/conexiones fuese en torno a 2, emergerían de la sopa moléculas muy grandes con posibilidad de catalizarse a sí mismas.

Por lo visto, hasta el momento se han conseguido moléculas que se catalizan y dan lugar a otras moléculas que las contienen, pero todavía no se ha logrado que ejecuten algún ciclo termodinámico. Y no tendrían por qué ser únicamente las moléculas orgánicas -basadas en el Carbono-, las presentes en otras formas vivas.

En el libro “¿qué es la vida?”, de Schröedinger, se planteó una intuición brillantísima en torno a los ladrillos de los que estamos construidos -del ADN que forma las proteínas-. Resulta que Schroëdinger, unos 20 años antes del descubrimiento de Watson y Crick, razonó que nuestras moléculas constituyentes no podrían ser sólidos o cristales regulares, porque la información que contienen está contenida en uno de los ciclos que se repiten, y es por tanto poca. Razonó que serían cristales aperiódicos. Y acertó. Se adelantó al descubrimiento de la doble hélice dextrógira a base de nucleótidos adenina, timina, guanina y citosina.

Al final resulta -según Kauffman- que hay un gran paralelismo entre el segundo principio de la termodinámica y la evolución natural. El segundo principio de la termodinámica establece que la entropía nunca disminuye, esto es, las moléculas chocan entre sí y las que van más rápido se frenan con las otras y las más lentas adquieren velocidad, hacia una situación por tanto de equilibrio térmico, con una gran cantidad de “información térmica” acumulada en el conjunto de todas las moléculas. La evolución natural, siguiendo los procesos de recombinación, mutación y selección natural da lugar por su parte a especies con cada vez más información condensada en su ristra de ADN. Hay cierto paralelismo entre ambas situaciones.

Una de las conclusiones de la biología de Kauffman es que la selección natural por sí misma no explica el fenómeno natural. Es la teoría de la complejidad coadyuvando con la selección natural la que, en virtud a la mera espontaneidad del azar, explica las formas naturales emergentes. Es como si del caos apareciera el orden.

Para los interesados en complejidad, matemáticas y biología, les propongo el libro “investigaciones”, de Stuart Kauffman, Metatemas, Tusquets Editores.

 

Integración por el método de las palancas y Arquímedes de Siracusa

 

arquimedes

 

En torno a este personaje existen muchas y variadas leyendas, como aquélla relativa a su descubrimiento del principio de la hidrostática (cuando salió por la calle desnudo y gritando “Eureka!”, procedente de su bañera -la cual según parece no debía visitar mucho ya que mientras estaba metido en ella dibujaba y hacía cálculos en su barriga-, y halló un medio de discernir si la corona que habían fabricado para el rey era sólo de oro o tenía también plata.

También es conocido el temor que infundían sus métodos en el enemigo, en concreto al parecer ya en aquel tiempo se le ocurrió utilizar espejos parabólicos para incendiar las velas de las naves enemigas, concentrando en un espacio reducido una gran cantidad de radiación. Además, mediante el uso de polipastos alzaba en el aire los barcos enemigos cuando éstos se aproximaban al puerto. Un polipasto es un sistema compuesto por dos grupos de varias poleas concéntricas, que reduce la fuerza necesaria para levantar un peso en (1/(2*número de poleas concéntricas)), teniendo que desplazarse una cantidad de cuerda igual a la que habría que desplazar en una polea sencilla multiplicada por (2*número de poleas concéntricas). Por lo tanto se satisface como era de esperar la ley de la conservación de la energía. Y se consigue vencer un gran peso, aplicando poca fuerza, a costa de desplazar mucha cuerda. Los polipastos fueron otra idea original del genial Arquímedes.

Pero bueno, al margen de las mencionadas invenciones, los hechos narrados sólo son leyendas. En cualquier caso, es innegable el genio de este geómetra, que se formó en la Biblioteca de Alejandría.

He mencionado ya los espejos parabólicos, los polipastos, el principio de la hidrostática… Pero es que esto no fue todo… Además, dio una buena aproximación para el número pi, diseñó el tornillo de arquímedes (un tornillo sin fin para subir agua entre dos alturas distintas), descubrió el principio de la palanca (“dadme un punto de apoyo y moveré el mundo”), y desarrolló para mí su más bella invención: el cálculo de áreas y volúmenes mediante métodos mecánicos. Es el procedimiento de cálculo más ingenioso que he visto.

Arquímedes colocaba dos figuras superpuestas, una de volumen/área conocido (según lo que quisiese calcular), y la otra de volumen/área desconocido, por ejemplo un cilindro y un cono. Además suponía una densidad volumétrica de masa constante para las dos figuras. A partir de la relación entre los contornos de las dos figuras, hallada mediante las ecuaciones que las describen, calculaba geométricamente para una posición genérica en ambas figuras superpuestas la relación entre el peso de una lámina de la figura conocida y una lámina de la figura desconocida, que además son proporcionales a lo que contribuyen en área o en volumen en la figura respectiva. A continuación creaba a partir del punto por donde pasa ese “elemento de volumen o de área” una palanca con fulcro a la izquierda de las  figuras, de tal modo que el peso de la lámina de la figura desconocida por su brazo fuese igual al peso de la lámina conocida por su brazo, teniendo en cuenta la relación antes calculada. Es decir, el método de Arquímedes se basaba en el desplazamiento de todas las láminas (operando para una lámina genérica) de la figura conocida al brazo izquierdo de la palanca. Cuando esta operación estaba concluida tenía dos figuras en una palanca equilibrada, a la izquierda la figura de volumen (proporcional al peso), o área (proporcional al peso) conocidos, y a la derecha la figura de volumen o área desconocido. De tal forma que el peso de la figura desconocida se puede calcular como el de la conocida multiplicado por la razón entre el brazo izquierdo y el brazo derecho (medidos desde el fulcro hasta los centros de gravedad de las dos figuras). En definitiva, como el área o e el volumen son proporcionales al peso, se podía hallar lo buscado, esto es, la relación entre el área o el volumen de las dos figuras, siendo el de la conocida conocido.

Como a Arquímedes este método no le parecía muy formal,  primero lo usaba para determinar los volúmenes o áreas y después obtenía las demostraciones formales mediante reducción al absurdo. Por ello, se cree que mantuvo el método en secreto, y de hecho sólo se supo de su existencia cuando se descubrió un ejemplo de su empleo en un palimpsesto que cubría con las oraciones de un devocionario los cálculos originales de Arquímedes, mucho después de la época de este genio del mundo antiguo.

En pocas palabras, Arquímedes comparaba el peso de dos figuras colocándolas en una balanza. Realmente ingenioso.