Archive for the ‘ Ciencia ’ Category

El tourbillon y Louis Abraham Breguet

 

 

En el año 1801 el relojero e inventor francés Louis Abraham Breguet patentó una complicación ideada fundamentalmente para los relojes de bolsillo, bajo el nombre de “tourbillon”. El tourbillon es un mecanismo que permite que el movimiento del centro de gravedad del volante de los relojes mecánicos que lo llevan no se vea afectado por la gravedad terrestre cuando el reloj tiene su caja en posición vertical, y que las oscilaciones del volante mantengan constante su amplitud promedio en el tiempo. Como los relojes mecánicos de pulsera suelen estar en posición horizontal mientras están en la muñeca de su dueño, a éstos no les afecta especialmente el uso del tourbillon, por lo que el empleo de esta complicación en ellos es considerado como un adorno, por otra parte muy cotizado.

Para contextualizar la descripción del tourbillon voy primero a describir cómo es fundamentalmente la mecánica de un reloj mecánico convencional sin esta pieza. En un reloj mecánico convencional existe una masa metálica que gira en un sentido y el otro cuando movemos la mano, llamado rotor o contrapeso, que tiene la misión de comprimir la espiral llamada cuerda, que es la que provee de energía al reloj, para lo que se vale de unos piñones de embrague. Gracias a ellos la cuerda es cargada tanto si el rotor se mueve en un sentido o en el otro, si el rotor carga energía en los dos sentidos, que es lo más corriente hoy en día. Es decir, estos piñones “rectifican” el giro del rotor en el sentido que no es de carga, convirtiéndolo en un giro en el único sentido de carga de la cuerda.

Cuando la cuerda está totalmente estirada, no está suministrando energía al volante, por lo cual el reloj está parado. Esta pieza, el volante, el propio corazón del reloj, consiste en un anillo metálico provisto de una delgada espiral que lo hace oscilar en un sentido y en el otro con un período de oscilación constante siempre que el reloj esté orientado en relación a la vertical del mismo modo. Debido al rozamiento con el aire, al calentamiento por rozamiento del eje del volante y al debido a la compresión y descompresión de la espiral, en cada ciclo de oscilación del volante existen pérdidas de energía que harían que el volante parase de oscilar si no se le suministrase energía. Para compensar estas pérdidas de energía, ésta se le suministra mediante un tren de engranajes que engrana en el dentado correspondiente al barrilete, el cual contiene la cuerda, y que transfiere la energía al volante mediante una pieza denominada escape, que es la primera rueda que recibe movimiento del volante, y se lo transmite gracias al impulso periódico de una horquilla llamada áncora que comunica el escape con éste. El tren de engranajes encargado de llevar la energía desde el eje de cuerda hasta el escape es un tren multiplicador de velocidad angular, puesto que lo que se necesita en el áncora es potencia en forma de movimiento, no de momento de fuerzas. Es poco el momento que se debe aplicar en cada ciclo para compensar las pérdidas, causando impulsión angular, y además el escape se mueve a gran velocidad. Si tuviésemos la potencia en forma de momento de fuerzas, sucedería asimismo que la cuerda se descargaría en seguida, ya que en el sentido inverso sería un tren multiplicador y forzaríamos el rápido movimiento del eje de cuerda, y además de ésto, se le comunicaría demasiada fuerza al volante, con lo que se estropearía la espiral y el reloj no marcharía.

En una descripción breve, se puede resumir el funcionamiento diciendo que, en un reloj mecánico hay una transferencia de energía desde la cuerda hacia el volante, en forma de pequeños impulsos de momento de fuerzas que absorbe el volante, consiguiendo así un sistema vibratorio armónico amortiguado forzado (el volante y su espiral forzados con el áncora); al mismo tiempo que la velocidad angular del volante es comunicada al escape y las ruedas que siguen a éste, reduciéndose en cada engrane según los cocientes entre los números de dientes parejos, de los que se obtendrían las correspondientes relaciones de transmisión, obteniendo así las velocidades de rotación necesarias para las agujas.

 

 

El movimiento del volante da lugar a que en cada ciclo avance un diente de la rueda de escape, lo que oímos como tic-tac del reloj. Si deseásemos que el reloj funcionase más rápido para que adelantase más, deberíamos acortar la longitud de la espiral del volante, quedando ésta más comprimida y con una constante elástica de torsión mayor; y si deseásemos un movimiento más lento deberíamos hacer lo contrario, esto es, alargar dicha espiral para que quedase menos comprimida y con menor constante elástica de torsión. A tal efecto existe un ajuste en el reloj. Para minimizar los rozamientos en los pivotes críticos, fundamentalmente el pivote del volante, se incrustan piedras en los apoyos de esos pivotes, suelen ser rubíes, para hacer lo menor posible el rozamiento, y para que no se desgasten los pivotes con tanto movimiento.

Por otra parte, a partir del movimiento del escape, gracias al tren de ruedas multiplicador que le transfiere la energía desde la cuerda, se obtiene una división sucesiva de su velocidad angular en el sentido contrario, hacia la rueda segunda o rueda de segundos, de ésta hacia la rueda primera, y de la primera a la rueda de centro, que es la que engrana en el dentado del barrilete o tambor (el que contiene en su interior la cuerda enrollada) respectivamente, que son las ruedas que giran a la velocidad de las correspondientes manecillas, de acuerdo con los ritmos necesarios para cada una de ellas.

 

 

Si la caja del reloj está en posición vertical, como es lógico, la gravedad hará que el volante baje más rápidamente que sube, y ésto descompensa aunque en una cantidad pequeña su movimiento, causando además una menor amplitud de sus oscilaciones. Para evitar esto, Breguet ideó el tourbillon. La complicación de “tourbillon” se basa en montar el trío formado por el volante, el áncora y el escape en una plataforma llamada jaula. Gracias al engrane del escape en una rueda fija en cuyo interior se monta la jaula, se consigue que este trío gire alrededor del eje de esa rueda fija, normalmente una vuelta cada minuto. Es por ésto que el movimiento de dicho eje de jaula se emplea como eje de minutos. Por ello, como el volante en cada minuto va variando homogéneamente su inclinación en relación al eje vertical terrestre parejo a la acción de la gravedad, por término medio se obtiene que ésta no afecta ni en el sentido de atrasar el reloj ni en el sentido de adelantarlo, y los minutos son siempre iguales. Como ya dije más arriba esto tiene sentido si la caja del reloj está continuamente en posición vertical, como es el caso de los relojes de bolsillo, pero en los relojes mecánicos de pulsera, la mejora que introduce el tourbillon en su funcionamiento es inapreciable.

En la actualidad se ha patentado una complicación en relojería mecánica conocida como girotourbillon, que no es otra cosa que un tourbillon “tridimensional”, que provee de dos ejes de giro en el espacio para el montaje del trío volante-áncora-escape, con lo que se compensan no sólo las variaciones de amplitud de la oscilación del volante debidas a una posición vertical de la caja, sino todas las variaciones de dicha amplitud causadas por cualquiera posición que presente ésta según una inclinación genérica en el espacio. En cualquiera de los casos, a pesar de que no deja de ser un adorno tan complejo y bello como innecesario, hay que reconocer que es una maravilla de la técnica de la relojería que mejora el funcionamiento del reloj, y que ésta tiene ya varios siglos de desarrollo.

En la fotografía superior se muestra un esquema de un reloj mecánico convencional, en la foto intermedia se aprecia el detalle del acoplamiento entre volante, áncora y escape. En las fotos inferiores se aprecia un tourbillon desmontado y montado, respectivamente.

 

 

Charles Babbage, Ada Lovelace y las máquinas diferencial y analítica

 

 

Nacido en el año 1791, Charles Babbage fue un matemático y científico inglés, que es considerado como uno de los pioneros de la ciencia de la computación; más concretamente sus desarrollos y proyectos deberían considerarse como computadores mecánicos. Nótese que especifico mecánicos porque hasta el siglo XX no aparecieron las primeras implementaciones de esquemas tecnológicos basados en relés electromecánicos o en válvulas de vacío, y que se catalogan comúnmente como los verdaderos inicios de la informática. Aunque todos los posibles puntos de vista en lo que respecta a quién tuvo la primicia, quién desarrolló las nociones fundamentales, etcétera, no dejan de ser corrientes de opinión, sin embargo, se suele reconocer a los matemáticos Alan Turing y John Von Neumann como los artífices conceptuales, y a científicos tales como Eckert, Mauckly, Konrad Zuse, el propio Turing, Atanassof, y un largo etcétera, como los tecnólogos que desarrollaron los ingenios, si bien si somos tal vez menos puristas no deberíamos olvidar que tanto Blaise Pascal como Gottfried von Leibniz construyeron máquinas aritméticas, y más aún, que se conservan los restos de una máquina de cómputo datada en la antigüedad griega, el mecanismo de Anticitera, de cuya construcción se sospecha que pudo originarse en alguna corriente tecnológica iniciada por Arquímedes de Siracusa, y que empleaba trenes de engranajes, así como engranajes epicíclicos, para predecir los eclipses solares y lunares, así como las posiciones de los planetas a lo largo de la eclíptica, todo ello empleando el modelo Ptolemaico de epiciclos sobre deferentes, que daba lugar a excelentes predicciones a ojo desnudo, aunque conceptualmente estuviera errado.

Charles Babbage proyectó teóricamente máquinas de cómputo movidas por un motor de vapor, basadas en engranajes, pero que no llegaron a ser construidas íntegramente. Algunos historiadores creen que esto fue debido a la dejadez y desconfianza de los organismos oficiales, que no invirtieron la suficiente cantidad de dinero en los proyectos. Sin embargo, la corriente mayoritaria encuentra como la causa de la no finalización de ellos al mal entendimiento entre el proyectista (Babbage) y el constructor, así como el hecho de que los engranajes de aquel entonces se deformaban con el calor de la fricción y esto repercutía en el mal funcionamiento de las partes desarrolladas.

Los dos ingenios de mayor relevancia que diseñó Babbage fueron la máquina diferencial o máquina de diferencias, y la máquina analítica.

La máquina diferencial trataba de resolver un problema operativo de aquel entonces, que consistía en la dificultad y tediosidad de la tabulación de funciones matemáticas, como por ejemplo los logaritmos o las funciones trigonométricas, para su empleo con un fin científico o en la ingeniería. En aquellos tiempos dicha tabulación se efectuaba mediante cálculo manual, existían para ello operarios, que no podían ser tan eficaces y rápidos como una máquina que desarrollase una rutina de cálculo.

La fundamentación matemática de la máquina diferencial es el método numérico de interpolación de Lagrange, no en su expresión según polinomios de Lagrange sino según polinomios basados en diferencias finitas, es decir, empleando la notación de Newton. El problema de la interpolación de Lagrange consiste en buscar el polinomio de un cierto grado que pasa por unos puntos dato y que por tanto les da solución de continuidad. Las funciones matemáticas de variable compleja que admiten expansión en serie de potencias se denominan funciones analíticas u holomorfas, y tienen la propiedad de “variar suavemente” en cada punto de su dominio de definición. Aparte de esto, si las particularizamos para la recta real, entonces como es lógico admiten desarrollo en serie de Taylor, y nos basta con conocer un conjunto finito y/o numerable de números reales, las derivadas de órdenes sucesivos en un punto de la recta real, para conocer todo el pasado y el futuro de dicha particularización real. Es decir, las particularizaciones reales de funciones complejas holomorfas varían suavemente y son totalmente predecibles a partir de un conjunto numerable de valores. ¿Son analíticas las funciones que modelan el comportamiento de la naturaleza?. La respuesta a esto es no. Pondré algunos ejemplos: tanto la variación temporal del consumo energético, como la evolución temporal de la bolsa, como las señales eléctricas radiadas por una antena, son funciones no analíticas. Se pueden generar modelos predictivos, inclusive lineales, para predecirlas a corto plazo, pero nunca se obtiene un modelado exacto debido a su impredicibilidad inherente. Por muy complejos y buenos que desarrollemos los modelos, nunca jamás llegaremos a predecir con exactitud el futuro, ahí reside precisamente el encanto del universo. Ahora bien, aunque no podamos emular el comportamiento de la maquinaria universal mediante funciones que se adapten a sus variables, sí podemos sin embargo ajustar polinomios a dicho comportamiento y así tendremos un medio para avanzar en la investigación científica. Es esta la razón del interés que hubo siempre en las tabulaciones de polinomios, que aproximan funciones más complejas, en ciertos intervalos de interés. Charles Babbage era consciente de este estado de cosas, y ésta fue su motivación para su máquina de diferencias.

Básicamente, el algoritmo que implementaría la máquina de diferencias era el que sigue: se partía de unos valores conocidos para la ordenada del polinomio a tabular y correspondientes a ciertos valores de abscisa. Estos valores se podían calcular empleando el método de Lagrange para diferencias finitas (método de Newton), de forma manual con lápiz y papel. Entonces ya dispondríamos de un punto de partida para nuestra calculadora, pues una vez ingresados dichos valores en las correspondientes columnas de engranajes, así como las diferencias finitas que los relacionan, la máquina diferencial, al mover una manivela, ya se encargaría de ir computando los valores de ordenada para abscisas consecutivas a las de entrada. Para ello la máquina diferencial la única operación aritmética que emplea es la suma, dado que con esta simple operación nos podemos ir moviendo en la tabla de diferencias finitas asociada al problema para ir calculando los valores de las diferencias finitas de cada orden, así como los de las ordenadas. La propiedad matemática subyacente que permite este proceder es el hecho de que cualquier polinomio de grado N tiene diferencias finitas de orden N+1 igual a 0, y por lo tanto de orden N iguales a una constante, para todos los saltos entre ordenadas. Es esta constante la que la máquina de diferencias suma en un primer paso para obtener la nueva diferencia de orden N-1, y una vez obtenida ésta, es la de orden N-1 la que suma para obtener la de orden N-2, y así hasta llegar a la nueva diferencia de orden 0, que es el valor de la ordenada para la nueva abscisa. Por cada pasada de la manivela se calcularía un nuevo valor de ordenada, y eso llevaría implícitas todas estas operaciones que acabo de describir. De esta forma, dado un punto de partida conferido mediante un conjunto limitado y pequeño de valores y sus diferencias correspondientes, que conforman una parte pequeña de la tabla de diferencias finitas final, se llega a obtener la tabla de diferencias total para todos los puntos de abscisa dato que se quiera, con las limitaciones del tamaño de la máquina.

 

 

 

Por lo que respecta a la máquina analítica, ésta se corresponde con una idea más ambiciosa de Babbage, y que en síntesis se podría describir como una máquina de propósito general. Al igual que la máquina diferencial, no llegó a ser construida en su totalidad en vida de Babbage, y su motor sería una máquina de vapor. En la máquina analítica encontramos ideas pioneras de la arquitectura actual de los ordenadores, o al menos similares. Así, la máquina analítica poseía dos partes principales, a saber: el molino, que sería equivalente a la actual UCP de los computadores, y el almacén, en paralelismo a la memoria de los mismos. Para difundir sus ideas de la máquina analítica, así como para diseñar los programas, Babbage contó con la colaboración de la única hija legítima del poeta romántico inglés Lord Byron, la condesa Lady Ada Lovelace (cuyo nombre recibe en su honor el lenguaje de programación ADA, basado en el lenguaje Pascal). Ada Lovelace recibió una exquisita formación científica para aquellos tiempos, en concreto su profesor de matemáticas fue el mismo Augustus De Morgan (el artífice de las leyes lógicas de De Morgan), el primer profesor de la Universidad de Londres. Ada describió a la perfección el funcionamiento de la máquina analítica, ayudando así a difundir las ideas del inventor, pero incluyendo además sus propias ideas acerca del asunto, y por si esto fuera poco, además describió la manera en que serían implementados los algoritmos en dicha máquina, como por ejemplo el algoritmo para calcular los números de Bernoulli; por lo que es considerada como la primera programadora de la historia, si bien como ya expresé más arriba, la máquina analítica nunca llegó a ser implementada.

 

 

Babbage desarrolló otros inventos en vida, fue profesor de matemáticas de la Universidad de Cambridge, rompió la cifra polialfabética Vigènere –lo cual fue un secreto de Estado durante mucho tiempo-, e incluso diseñó una máquina impresora, la cual estaría conectada con la máquina analítica. Por todo ello, se podría considerar como un verdadero pionero de la informática, así como una figura eminente en el terreno de las matemáticas.

En cuanto a las máquinas diferencial y analítica, si bien en vida de Ada y Babbage no fueron construidas, muy recientemente, en concreto allá por el año 1989, el Museo de Ciencias de Londres decidió averiguar si los esquemas de Babbage no estaban errados y si se podría construir efectivamente una máquina diferencial con dichos diseños, usando para ello las tolerancias constructivas de su época, para así poder saber si en efecto podría construirse o no la máquina en su época. Al final, sí se pudo desarrollar esta idea y de hecho en dicho Museo se pueden observar un modelo de máquina diferencial, así como un modelo de la máquina impresora de Babbage, ambas con perfecto funcionamiento.

Los radiofaros Consol (Elektra-Sonne) – (7) Fotografias de antes de la caida

  

 

 

Reproduzco aquí algunas fotografías de la antena central de la estacion Consol de Arneiro (Cospeito), algún tiempo antes de su caída. Actualmente no ha quedado nada de ellas.

 

 

Se pueden observar perfectamente las riostras que sujetaban a la torre desde varias direcciones, la cual levitaba cuando había viento, puesto que en el suelo estaba simplemente apoyada, y eran estos tirantes los que impedían su caída.

 

Mi colección de lepidópteros

 

 

Ya que como digo en mi poema “El mundo del mañana”, los niños de hoy serán los hombres del mañana, dedico esta entrada a un niño de once años, llamado Alex Pujadas, de Barcelona, hijo de un compañero mío de trabajo, y que comienza a descubrir el mundo, y en particular a descubrir sus propias inquietudes, en este caso los insectos. Feliz viaje, amigo Alex.

Siempre me gustaron los lepidópteros (o mariposas), desde muy pequeño. En su momento, a los doce años confeccioné mi propia colección autóctona de estos insectos, a base de carreras por los prados y paciencia, y poco a poco fui advirtiendo la majestuosa belleza que es capaz de engendrar la naturaleza, cuyos misterios están en parte desvelados por la teoría de la selección natural de Darwin -de la cual soy un gran devoto-. ¿Es justo sacrificar especímenes o privarlos de su libertad para su estudio?. Pues tal vez probablemente no lo sea, pero es evidente que esto se hace a gran escala en los museos de la naturaleza, y es el modo más eficiente de conseguir llegar a conclusiones veraces y profundas en lo que respecta a la anatomía. Lo mismo se hace con las plantas. Ahora, tras un par de décadas, pienso que si algún día me da por cazar animales o plantas para su contemplación o estudio lo haré desde detrás de una cámara o unos prismáticos, pues considero que si queremos preservar este planeta para las generaciones venideras tenemos que empezar por aplicar un principio conservativo estricto a todos nuestros actos diarios.

 

 

Ahora bien, existen personas por todo el mundo que se dedican a criar en cautividad lepidópteros a gran escala, para posteriormente ser disecados. De hecho estas actividades están amparadas por los organismos reguladores de las leyes de Protección de la Naturaleza y no constituyen delito. El delito lo sería si los especímenes procediesen del estado de libertad y fuesen especies protegidas. En otras palabras, sacrificar estos ejemplares equivale por ejemplo al sacrificio que hacemos con aquéllos animales de los que nos alimentamos y que criamos en cautividad. En realidad, sigo creyendo que no es justo, pero si observamos la propia naturaleza podemos ver como se dirime una continua contienda sin cuartel entre las especies, depredadores frente a presas, y de esta contienda surge el equilibrio que matemáticamente se modela con las ecuaciones diferenciales de Lotka-Volterra, un par de ecuaciones diferenciales acopladas cuya solución explica la variación biológica en los ecosistemas, y que está formada por dos funciones temporales que modelan la variación de la cantidad de depredadores y de presas en un par de especies que estén relacionadas de este modo. En realidad este par de ecuaciones diferenciales se extienden y particularizan a cada par predador-presa del ecosistema, y establecen al mismo tiempo que la tasa de aumento de las presas es el crecimiento natural de esa especie menos la tasa de muertes por encuentro con el predador, mientras que la tasa de aumento del predador es su crecimiento por encuentro fructífero con la presa menos su tasa de muertes naturales. Evidentemente esto es una simplificación, pero lo suficientemente fina como para que, resolviendo el gran sistema de ecuaciones diferenciales de un ecosistema, obtengamos soluciones basadas en parámetros (siendo los parámetros los que intervienen en las ecuaciones diferenciales y que han de ser obtenidos empíricamente) que representan las cantidades variables en las sucesivas generaciones de cada especie en el espacio de especies, y que esquematizan la variabilidad temporal biológica en cada biotopo. Los ecosistemas que perviven lo hacen merced a la aproximación a situaciones de alejamiento y acercamiento sucesivos a la posición teórica de equilibrio que se obtendría igualando todas las tasas de cambio de todas las ecuaciones a cero, y gracias a la contienda, que es precisamente uno de los mecanismos naturales de poda de los peor adaptados que provee la naturaleza y que mueve precisamente la evolución biológica sobre la Tierra. Al final resulta que un hecho puntual, como por ejemplo que en una región de la sabana africana los leones cacen muy eficazmente, puede ayudar a que todo un ecosistema no se desmorone, porque en este mundo todo está relacionado con todo. Nosotros no somos más que una especie animal más, y por ello también somos depredadores, sólo que nuestros medios y métodos de caza son mucho más sofisticados que los de los animales, y en muchos casos no buscan nuestro sustento, que es el fin realmente noble de la caza, sino la diversión, aspecto lúdico que aunque entraña la muerte de los ejemplares cobrados, puede poseer consecuencias beneficiosas para los ecosistemas, cuando mediante la práctica cinegética se consigue el control demográfico de las especies.

 

 

Aun así, a pesar de todo, no he podido resistirme a conseguir una colección de lepidópteros de todo el mundo, y cada día que pasa me maravillo más y más de la suma perfección de Natura, el verdadero dios (o diosa). Pondré un ejemplo ilustrativo: el reverso de las alas de ciertas especies de lepidópteros tienen forma y color de hoja de árbol. Es evidente que las variaciones aleatorias, asociadas a la divergencia de caracteres, la cual no es sino la expresión visible de la mutación genética, que aparecieron en algún momento puntual y que conferían cierto parecido a hojas a las alas de esos ancestros naturales, les daban ventaja frente a otros ancestros lepidópteros del mismo ecosistema, y esto dio lugar a que poco a poco fuesen apareciendo especies con esta morfología, dado que otros animales que se alimentaban de lepidópteros encontraban con mayor dificultad a estas especies miméticas. Otro tanto ocurre en un fenómeno bastante extendido en los lepidópteros: la presencia de ocelos con formas muy similares a la de ojos. Es un hecho comprobado que los pájaros atacan a estos ejemplares precisamente en esos ojos, por llamarles más la atención, y no en el tórax, el abdomen o la cabeza. Por tanto, esos especímenes sobreviven, y esto no debería extrañarnos, pues ahora observamos precisamente que se hallan entre nosotros y no han desaparecido. Simplemente porque la variación consistente en tener esos “ojos” les dio ventaja frente a otras mariposas asentadas en el mismo nicho biológico, que eran atrapadas por sus depredadores. Selección natural al 100%. Como ejemplos de la primera de las circunstancias puedo exponer el caso del lepidóptero Kalima Inachus, y como ejemplos de la segunda circunstancia se me ocurren por ejemplo la Caligo sp., o la Morpho Peleides, ambas dotadas de una belleza embaucadora.

 

 

Para contagiaros de esta contemplación enriquecedora del mundo que nos rodea, que practican miles y miles de personas en el planeta, y cuya belleza y verdad nos aguardan en cada rincón insospechado, he insertado aquí once fotografías correspondientes a mi actual colección de lepidópteros.

 

 

La radio de galena. Descripción y funcionamiento

 

 

En los albores de la era tecnológica, cuando la radio hacía sus primeros pinitos tras la verificación experimental de las ondas electromagnéticas por Hertz, y las experiencias de Marconi -bastante después de su descubrimiento teórico a partir de la combinación de las ecuaciones de Maxwell que genera la ecuación de onda-, todavía no estaban nada perfeccionados los mecanismos de modulación de la señal eléctrica transmitida y la tecnología conocida no permitía grandes maravillas en la transmisión y la recepción de la radio.

El primer problema a resolver consistía en obtener una manera fácil de mezclar la información a transmitir, o señal moduladora,  con un tono o portadora que permitiese su propagación óptima asociada a las variaciones temporales armónicas de la ecuación de onda, consiguiendo adaptar la señal modulada resultado de dicha mezcla a un canal de comunicaciones lo suficientemente bueno en cuanto a carencia de ruidos indeseados notables, una baja atenuación de la onda en su viaje, así como el hecho de utilizar una frecuencia no usada en el espacio físico identificado con el canal para evitar interferencias. Pues bien, el primer intento de transformación matemática de la señal moduladora lo constituyó la modulación de amplitud (AM), por ser el esquema más natural concebible, y consiste en multiplicar la portadora con la señal moduladora, que varía mucho más lentamente que la primera, de modo que la información queda retenida en la envolvente de la onda a transmitir. Es una forma natural de hacerlo, y que permite, si se usa suficiente potencia de transmisión, un gran alcance, a pesar de que es muy sensible a los ruidos. Los ruidos son señales indeseadas producidas por tormentas, y ruido térmico producido por el flujo natural de la corriente en los dispositivos con componente resistiva, con el consabido calentamiento de los mismos, a la cual se le suma una cantidad muy grande de pequeñas corrientes de estadística gaussiana generadas por los choques entre portadores de carga y núcleos atómicos, en todas las direcciones, y que se superponen a la corriente media. Dicha componente superpuesta es precisamente el ruido térmico, que al llegar a un elemento radiante es emitido hacia el receptor, aunque también se debe tener en cuenta la atenuación por hidrometeoros (donde lo que más influye es la atenuación que sufre la onda por la absorción molecular que se produce en las moléculas de agua y/o por dispersión de la energía por ser el agua buena conductora).

En un principio la modulación que se utilizó para las comunicaciones era la modulación de amplitud. Aún es usada hoy por ejemplo en las emisiones de onda corta, en variantes en las que se suprime una de las bandas laterales del espectro de radiofrecuencia. Por ser la señal real, su espectro tiene módulo simétrico respecto al eje de la frecuencia de portadora, con lo cual se evita el envío de información redundante. Queda por tanto el espectro configurado mediante la banda de media frecuencia, las frecuencias superiores (para USB) -o inferiores (para LSB)- y el piloto de portadora -también se puede emitir con portadora suprimida-; y esta modulación se conoce en general como Banda Lateral Suprimida (SSB). Además este mismo esquema -otra variante de la modulación AM o de amplitud- fue usado para la transmisión analógica de televisión, antes de la actual TDT digital; en concreto se usaba una subportadora, para ser modulada en amplitud en cuadratura por dos señales diferencia de color, intercaladas en un hueco del espectro de la señal de luminancia, y estando el sonido modulado en FM a una frecuencia de subportadora mayor. Al menos se operaba así en el antiguo estándar europeo de televisión analógica, conocido como PAL.

Tal vez una de las primeras implementaciones de receptor de radio capaz de transformar la modulación AM en algo audible -en la propia señal moduladora- es un esquema muy simple conocido como radio de galena, que se representa en la figura de más arriba. La radio de galena responde a la forma lógica de detectar la moduladora en una señal AM, esto es, responde a obtener la envolvente de la señal modulada transmitida y recibida en el receptor y aplicarla a unos auriculares. Recuérdese que las variaciones lentas de la señal moduladora contienen la información a recibir. Véase el dibujo de más abajo, que representa una señal moduladora modulando a una portadora.

La galena es un mineral, en concreto sulfuro de plomo, y cristaliza en forma de cristales cúbicos. Tiene una propiedad muy interesante, que es que según algunas direcciones a su través rectifica una corriente eléctrica, esto es, la deja pasar en un sentido pero no en el contrario. Lógicamente, si la señal modulada transmitida una vez recibida es pasada por una galena con el ajuste adecuado, dejará pasar sólo la parte positiva de la corriente eléctrica, y si usamos a su salida un condensador conseguiremos que la parte positiva antes de la bajada hacia valores negativos de la señal modulada cargue esa capacidad, que será descargada a través de los auriculares lentamente en la parte en la que la galena no permite paso de corriente, por estar ésta en el otro sentido -galena en corte-. Se obtiene así una señal sin brusquedades y de variación suave prácticamente idéntica a la señal moduladora de variaciones lentas que se transmitió. Esta parte que aquí describo se corresponde en el esquema con las dos últimas etapas, esto es, la detección, producida en la galena -sustituida hoy en día en los receptores por diodos de silicio o de germanio- y el condensador fijo; y la presentación, producida en unos auriculares de alta impedancia. Hoy en día se usan auriculares de baja impedancia en los receptores por la sencilla razón de que sus cables se conectan en serie en los amplificadores de audio como parte de la carga de los mismos y de este modo las impedancias han de ser pequeñas para no disminuir la corriente que ellos mismos presentan como sonido. En los receptores de galena los auriculares estaban colocados en paralelo con el circuito detector y por tanto para no afectar a su funcionamiento en una medida elevada debían tener alta impedancia, para cargar lo menos posible al detector, ya que las corrientes detectadas son minúsculas por no presentar ninguna amplificación de la señal el receptor de galena.

Esto que he explicado en el párrafo anterior consiste en el procesado que se hace a la señal ya sintonizada para convertir la moduladora en sonido audible. Ahora bien, faltan dos etapas previas, a saber, la etapa de la antena, y la etapa de la sintonía. De la antena no hablaré en profundidad, basta con decir que la onda electromagnética que vibra en las inmediaciones de la misma genera una corriente eléctrica en los conductores, para cuya recogida está especialmente pensada la antena. La señal de antena se pasa a continuación a lo que se conoce como circuito tanque, o filtro de radiofrecuencia o filtro de sintonía. En realidad la bobina y el condensador variable forman lo que se conoce como un resonador, el cual tiene una frecuencia propia de resonancia que viene dada por los valores de la bobina y del condensador variable. Esto significa que a una frecuencia determinada por dichos valores el condensador se carga con la corriente minúscula de la bobina, descargándose el campo magnético de ésta, y después en el siguiente semiciclo el campo eléctrico del condensador se descarga en forma de corriente y por tanto campo magnético en la bobina. Todo ésto da lugar a un circuito oscilante, cuyas oscilaciones se ven atenuadas de forma creciente por las pérdidas óhmicas debidas a las resistencias asociadas a dicho condensador y dicha bobina, los cuales no son ideales. En otras palabras, el paralelo de la bobina y el condensador constituyen un sistema armónico simple con amortiguación. ¿Qué razón de ser tiene su uso?. Pues su razón de ser es que si hacemos coincidir la frecuencia de resonancia del filtro tanque, actuando en el condensador variable, con la frecuencia de la portadora cuya información queremos detectar y oír, entonces la señal de corriente que viene de la antena se enganchará a las variaciones de corriente del sintonizador y dará lugar a un sistema vibratorio amortiguado forzado, en el que la señal de antena de esa frecuencia específica, y ninguna más a otra frecuencia de portadora distinta, pasa hacia el detector. En otras palabras, se obtiene la resonancia y la máxima transferencia de energía. Ésto es así, porque a esa frecuencia el resonador presenta una impedancia infinita. Es decir, a todos los efectos es como si no estuviera presente en el circuito, y toda la corriente que entra desde la antena pasa de forma íntegra al detector. Si variamos la capacidad del sintonizador ya no escucharemos la señal a la que estábamos sintonizados, pues el filtro tanque tendrá una menor impedancia y absorberá una mayor parte de la corriente, pasando poca corriente de antena al detector. Ésto que he descrito es lo que se conoce como etapa de sintonía.

Lo que aquí he descrito es un receptor homodino y sin amplificación ninguna, ni en radiofrecuencia, ni en frecuencia intermedia, ni en audiofrecuencia; en el cual no hay ninguna etapa de frecuencia intermedia -usada para conseguir mayor sensibilidad en los receptores superheterodinos-, en otras palabras, es un esquema muy ineficiente y obsoleto.

 

 

Los radiofaros Consol (Elektra-Sonne) – (6) Datos biográficos de Ernst Kramar

 

A Ernst Kramar se le debe la implementación de lo que se conoció como sistema de posicionamiento Consol.

Nació en Klazno el 15 de junio de 1902, un pueblo próximo a Praga (actual República Checa). Sus estudios universitarios consistieron en ingeniería eléctrica en la ciudad de Praga, entre los años 1920 y 1925, en una universidad entonces llamada Deutsche Technische Hochschule. En el año 1926 se graduó como Doctor Ingeniero por el Barkhausen Institute (Universidad Técnica de Dresde). Comenzó entonces su verdadera andadura profesional.

En el año 1927, Ernst Kramar entró en la empresa C. Lorenz AG (Berlín), compañía anterior a SEL (Standard Elektrik Lorenz). En aquella época se dedicó a resolver diferentes problemáticas en torno a la radio, pero no empezó a resaltar como ingeniero hasta que en 1932 usó frecuencias de la banda VHF con fines de radionavegación, desarrollo que recibió el nombre de Lorenz Landing System, del cual el actual ILS usado en aeropuertos es una mejora, del mismo modo que las balizas VOR, las cuales dan gran información de navegación a los pilotos.

En la Segunda Guerra Mundial, Ernst Kramar trabajó en técnicas de rádar y fue jefe de desarrollo de sistemas de radio en Pforzheim y Stuttgart.

En colaboración con los demás ingenieros de las compañías en las que trabajó, fueron desarrolladas un gran número de patentes, más de 85, lo que le valió un gran número de méritos y premios, tales como la Lilienthal Medal (1937), la Medalla de Oro de la Asociación Alemana para la dirección y navegación (Deustche Gesellschaft für Ortung und Navigation), y la Gran Cruz de la Orden del Mérito Nacional de la República Federal Alemana (1969).

Como resumen de todo esto, se podría decir que Ernst Kramar fue un reconocido científico que se adaptó a diferentes regímenes políticos durante su vida y que colaboró con el desarrollo técnico de Alemania, lo cual le valió múltiples condecoraciones. Sus desarrollos se han mantenido vigentes para el bien de los navegantes ya después de la Segunda Guerra Mundial, y han supuesto una inmensa aportación a la tecnología de las comunicaciones en el siglo XX.

 

La máquina de vapor y su evolución histórica

 

La llegada de la Revolución Industrial allá por el siglo XVIII no se limitó a las manufacturas textiles, a la siderurgia o a la industria química, aunque en estas categorías hubiera avances prodigiosos. Dado el aumento de la producción logrado con dichos avances, era menester una red de comunicaciones todo lo buena que fuese posible, para lo cual debía optimizarse de algún modo el empleo de energía en los medios de locomoción, esto es, incrementarla y aprovecharla en la mayor medida posible.

La máquina de vapor resolvió los problemas de la limitación de las fuerzas animal y humana y de la indisponibilidad de la energía hidráulica en la mayoría de los escenarios.

 

savory

 

La primera máquina de vapor fue diseñada por Thomas Savery en 1698 para elevar el agua en las minas. Esta idea, ya propuesta antes por Denis Papin en 1690, consistía en lo siguiente: hacia un recipiente de forma oval lleno de agua, se inyectaba el vapor producido en una caldera, con lo que el agua era desalojada hacia arriba. Luego el recipiente se bañaba con agua fría, con lo que el vapor se condensaba ( Presión x Volumen = Constante x Temperatura -ley de Boyle-GayLussac-, que significa que disminución de temperatura implica disminución de volumen y condensación). Quedaba pues al vacío el recipiente, con lo que era absorbida más agua, empezando de nuevo el ciclo. La máquina era poco eficiente, porque cada vez que había que empezar un nuevo ciclo había que enfriar de nuevo el recipiente, para la condensación del vapor. Que ni decir tiene que la altura máxima desde la que se podía elevar el agua venía dada por la misma ley que rige las actuales bombas de vacío. Como una atmósfera equivale al peso de una columna de mercurio de 96 cm, o también al de una columna de agua de 10 metros y medio, es ésta última la mayor profundidad a la que la máquina de Savery surtía efecto.

 

newcomen

 

La siguiente implementación de máquina de vapor fue desarrollada por un herrero llamado Thomas Newcomen, en el año 1705. Para tal desarrollo, Newcomen empleó vapor a la presión atmosférica en un cilindro. Al enfriarse este cilindro se producía el vacío, y entonces  la presión atmosférica movía un pistón, el cual estaba conectado a un balancín que bajaba y subía. En el otro extremo del balancín había una bomba de agua, que era para lo que se empleaba esta máquina de vapor. La potencia se incrementaba como es lógico con el incremento de la superficie del pistón. Las pérdidas de presión debidas al precario ajuste que entonces se podía hacer entre el cilindro y el pistón daba lugar a ineficiencia en la máquina. Aún así, el desarrollo de Newcomen estuvo en vigor durante cierto tiempo, hasta el momento en que se trató de perfeccionar el rendimiento de la máquina. Smeaton introdujo ciertas mejoras en el diseño de las máquinas aquí descritas en base precisamente a su estudio de sus rendimientos.

 

watt 

Ahora bien, la implementación definitiva corrió a cargo de un escocés llamado James Watt (de cuyo nombre se ha tomado el nombre de la unidad de la Potencia –el Wattio-), y fue patentada allá por el año 1769. Este mecánico se percató de la pérdida de energía producida por los calentamientos y enfriamientos sucesivos del cilindro, había una gran cantidad de calor que se empleaba únicamente para calentar el cilindro, una vez enfriado para producir el vacío en él. Pero entonces se le ocurrió una idea verdaderamente genial: se emplearían dos cilindros, uno que contuviese el pistón y que estuviese siempre caliente, y otro donde se condensaría el vapor por estar siempre frío –estaría sumergido en un tanque de agua-. Este segundo tanque sería lo que se llamaría condensador. El funcionamiento era el que sigue: el vapor hace bajar el pistón por estar la válvula superior del cilindro abierta. También está abierta la válvula que lo comunica con el condensador para que debajo de él haya el vacío necesario. Al llegar el pistón al fondo, las válvulas superior del cilindro y la del condensador se cierran y el vapor entra en el cilindro por la válvula inferior, igualándose la presión en ambas partes del pistón (superior e inferior), con lo que el pistón se eleva gracias al movimiento continuado del balancín, que es arrastrado desde el cigüeñal por un volante de inercia. Esta implementación daba lugar a un gran ahorro de combustible, con el consiguiente mayor rendimiento-. Con otras mejoras posteriores se convirtió en el motor de la mayoría de las máquinas de entonces.

 

Fuente de los datos históricos y de las imágenes de esta entrada:

Historia de la ciencia.

Carlos Solís, Manuel Sellés.

Editorial Espasa-Calpe.

 

Las abejas, la selección natural, la complejidad (2) y las matemáticas

 

abejas

 

Introducción

Es indudable que existe una relación de coexistencia en la naturaleza entre los conceptos que designan las cuatro palabras que aparecen como título de este artículo.

Para empezar, hablaré de las costumbres de la abeja de la miel (apis mellifera). Es de sobra conocido que las abejas tienen un comportamiento que aparentemente parece indicar la existencia de una gran inteligencia en estos alados insectos, y que se manifiesta fundamentalmente entre otros en tres hechos, a saber, la perfección de los panales, el empleo de un baile de comunicación entre ellas, y la perfecta distribución del trabajo entre los miembros de una comunidad (colmena). Pero,…, ¿cómo es posible que exista tal inteligencia en unos insectos cuyos cerebros apenas ocupan la cabeza de un alfiler?. La respuesta a esta pregunta es sencillamente que tal inteligencia no es tal, esto es, no existe, sino que su comportamiento resulta de la emergencia de ciertos patrones en un sistema complejo en el que sus partículas constituyentes -las abejas- se relacionan entre sí mediante sustancias químicas, dando lugar a propiedades globales del sistema completo (el enjambre), y que a su vez realimentan en el propio comportamiento de las partículas. Es algo similar a lo que ocurre con otros insectos sociales como las hormigas o las termitas. Pero esto que aquí describo sucintamente merece un análisis más profundo, que acometeré en las siguientes secciones.

Las abejas y el problema isoperimétrico

Ya en el libro “El origen de las especies”, escrito por Charles Darwin, y publicado en 1859, se hacía mención al fenómeno conocido como “problema isoperimétrico” aplicado a las abejas. Es un dato bien conocido que toda colmena está constituida por panales, y estos panales estan formados por celdillas exagonales, donde se deposita la miel o bien donde la abeja reina pone sus huevos, de los que saldrán nuevas abejas. En cada panal hay pues celdas en las que hay miel almacenada, convenientemente sellada mediante una capa de cera, o bien una futura abeja en su etapa de cría.

¿Por qué las abejas construyen celdas y por qué las hacen exagonales?. La respuesta a esto tiene que ver con la selección natural y con un conocido problema matemático conocido como problema isoperimétrico. Este problema se enuncia del siguiente modo… de todos los polígonos de igual perímetro, ¿cuál de ellos tiene más superficie?… La respuesta a este interrogante es el círculo.

Ahora bien, con círculos no podemos recubrir el plano, quedarían muchos intersticios sin cubrir, y tendrían que usarse diferentes tamaños de círculos para aproximarnos a un plano casi cubierto. Si quisiéramos una solución efectiva y lo más sencilla posible, deberíamos utilizar todas las figuras iguales y regulares, para que el recubrimiento pudiese ser un proceso repetitivo y rutinario…¿Qué figuras regulares planas recubren el plano?…Pues la respuesta a esto, es que para teselar el plano (teselación es lo mismo que recubrimiento del plano) podemos emplear triángulos, cuadrados, rectángulos o exágonos…Pero de estas figuras, y a igualdad de perímetro, ¿cuál es la que ocupa una mayor área?… La respuesta es el exágono, que es precisamente la figura que usan las abejas.

Usando el exágono, las abejas consiguen con un mínimo gasto de cera -lo cual conviene- un máximo almacenamiento de miel -lo cual también conviene de cara al duro invierno, en el que los alados insectos no tienen flores a las que acudir-. Se trata de producir el máximo de miel, a costa claro está del mínimo de cera. Por otra parte, el tamaño de las celdas viene fijado por las propias medidas físicas de cada abeja, no sólo por su tamaño operativo de trabajo sino también por el hecho de que en muchas de esas celdas se criarán otras abejas. ¿Por qué han llegado las abejas a construir los panales de este modo?. La respuesta está clara si utilizamos la teoría de la selección natural de Darwin… Los enjambres que construían sus panales con celdas exagonales tenían ventaja frente a los que no los construían así, pues con una mínima producción de cera podían almacenar una gran cantidad de miel para alimentarse en el invierno. De este modo, aquellos enajambres que desarrollaron la variación consistente en construir las celdas exagonales podrían sobrevivir en mayor medida frente a los que no la desarrollaron y terminaron por imponerse a los otros. Esto se fue amplificando a lo largo de los siglos y los genes implicados en tal comportamiento permanecieron hasta hoy en el código genético de las abejas.

 

baile_abejas

 

Las abejas y su comunicación mediante danzas

También es un hecho bien conocido que, en virtud a la especialización del trabajo en una colmena, las abejas obreras cuando buscan emplazamientos donde se halle alimento -néctar y pólen- , y hallan algún lugar propicio para obtenerlo, para  la posterior producción de miel, jalea o cera, avisan a sus compañeras obreras del lugar y la distancia de dicho alimento, y las que aprenden los datos informados vuelven a repetir el mensaje para que otras obreras se enteren.

Para esta comunicación, y también como resultado del azar y de la selección natural, utilizan una danza en la cual el modo de dibujar la figura en el panal denota la dirección y la mayor o menor vibración de la cola indica la distancia. ¿Por qué las abejas han aprendido esta técnica de comunicación?. Indudablemente, y como decía más arriba, un cerebro como la cabeza de un alfiler no puede acumular este conocimiento, es algo que está grabado en el ADN de las abejas y que empezó como variaciones (llamadas exaptaciones en el libro de Darwin), generadas mediante mutaciones en el código genético, que fueron seleccionadas por la propia naturaleza al proveer a los enjambres que las practicaban ventaja frente a otros en su contienda por el pólen y el néctar -recursos limitados implican contienda por ellos, así funciona la naturaleza, e implica supervivencia de los ejemplares (enjambres en este caso) mejor adaptados-. Todo esto fue mejorando a lo largo de las generaciones hasta la actualidad, siempre con la actuación lenta e invisible de la mano de la selección natural.

Las abejas y la especialización del trabajo

Otro aspecto a reseñar en los enjambres es el fenómeno de la división del trabajo, que también desarrollan otros insectos sociales. Evidentemente este es otro caso donde la selección natural ha actuado, pues está claro que evolutivamente y de cara a la supervivencia es preferible que haya abejas que acometan tareas únicas y bien definidas en vez de que todas las abejas sean capaces de desarrollar todas las tareas de una colmena -entre otras cosas serían animales mucho más complicados y la naturaleza siempre provee de soluciones lo más sencillas posibles, siempre al ritmo que marca la aparición de mutaciones (divergencia de caracteres), la recombinación genética y la selección natural.

Lo que yo pienso de todo esto. Especulaciones propias y el papel de las matemáticas para entender las abejas y su comportamiento.

La pregunta que pretendo contestar con estas especulaciones no es otra que el porqué de todos estos comportamientos, es decir, ¿cómo se ha llegado a dichos comportamientos actuales en la especie apis mellifera y en otros insectos sociales dotados de pequeñísimos cerebros?.

Para entender mi contestación a esta pregunta recomiendo que se lea primero el artículo que publiqué en esta misma bitácora sobre Alan Turing y los números computables.

En primer lugar, ¿cómo podemos modelar por ejemplo la danza de las abejas o el mecanismo de construcción de los panales?. Evidentemente se trata de procedimientos en los cuales ante un conjunto de entradas de información se obtiene una secuencia de salida -por ejemplo en el caso de la danza, las entradas serían las posiciones y distancias del alimento y la salida sería la secuencia obtenida por las posiciones sucesivas de la abeja en el baile y el ímpetu vibratorio del abdomen-. Estos procedimientos se denominan en matemáticas “algoritmos”.

Un algoritmo puede ser descrito mediante una máquina de Turing, la cual posee una tabla de configuraciones en que se refleja el comportamiento de la misma ante la secuencia de estados de configuración anteriores y ante unas determinadas entradas. Ante unos estímulos, la máquina, siempre en función de su estado, bascula su estado interno de configuración y da una salida. Y esto se va prolongando en el tiempo. Según esto, tanto la danza de las abejas como la construcción de panales son dos algoritmos matemáticos o se pueden ver así.

Ahora bien, ¿cómo han llegado las abejas a desarrollar estos algoritmos de forma espontánea si carecen de inteligencia o tienen muy poca?. La respuesta, como ya se puede intuir de los párrafos anteriores, se halla en la selección natural.

Pero,…, ¿cómo podríamos modelar esto matemáticamente de forma que fuera algo autoexplicativo?. A mí lo que se me ocurre es lo siguiente: la tabla de configuración que dirige el comportamiento de la máquina de Turing de cada algoritmo actual tiene una descripción estándar o número de descripción que la describe. Pues bien, podría imaginarse una máquina de Turing en la cual está implementado un algoritmo maestro de búsqueda del algoritmo óptimo, y que esta máquina maestra unida a una máquina universal dan lugar a la generación a un ritmo muy lento en el tiempo, con el paso de las generaciones, de nuevos algoritmos, descritos por su número de descripción estándar y que alimentan a la máquina de Turing Universal, capaz de reproducir la operativa indicada por esos números de descripción, con un ritmo de cambio de los algoritmos creados muy lento a medida que transcurren las generaciones. De este modo el funcionamiento en serie de las dos máquinas, primero la M del algoritmo maestro y luego la U (máquina universal), dan lugar en cada generación a un comportamiento a unas entradas determinadas y a un algoritmo de baile o de construcción de panales, según sea el caso.

¿Qué algoritmo estaría implementado en la máquina M?. Pues la respuesta no es difícil…Se trataría de un algoritmo genético…

Un algoritmo genético es un procedimiento en el cual se parte de un genotipo aleatorio (conjunto de genes -bits-), que tienen un número finito de parejas de seres, y mediante la mutación y la recombinación genética, cambiando algún bit, y mezclando los dos cortes de los genotipos de dos progenitores para dar un hijo, respectivamente, complementado con la selección natural -la cual se aplica obteniendo una medida de lo bien adaptado que estaría ese ser para sobrevivir en el ecosistema, y que daría lugar a una poda de los peor adaptados-; se van obteniendo nuevas generaciones de seres cada vez mejor adaptados para la supervivencia según el criterio establecido. Esto da lugar a una optimización del genotipo, que sería la que resolvería cada problema particular.

En el ejemplo que nos ocupa, el algoritmo genético implementado en la máquina M sería capaz de encontrar aquel genotipo óptimo (número de descripción estándar en este caso) que aplicado a la máquina U daría lugar al mejor algoritmo de danza o de construcción de celdillas. Por tanto, el algoritmo maestro o director que emplea la naturaleza para optimizar el comportamiento de las abejas, sería un algoritmo genético, y una medida de performance o grado de desempeño de cada genotipo obtenido en cada generación, probablemente sería el mayor grado de aproximación de la relación miel almacenada / cría almacenada a un valor en el que la miel diera exactamente para sobrevivir en el invierno y alimentar la colmena, pues en ese caso en el que no habría mucho excedente de miel sino sólo el estrictamente necesario se conseguiría un máximo de la cría obtenida y un máximo en el tamaño del enjambre en la siguiente generación -mayor tamaño = mayores posibilidades de sobrevivir-.

De todas maneras, esto también se podría modelar de una forma más real o natural si se quiere, añadiendo un nivel más : habría una tercera máquina P que utilizaría un algoritmo genético también y  en la cual se decidiría la relación óptima celdas ocupadas con miel / celdas ocupadas con cría, para una razón de partida aleatoria, o mejor aún, y de manera equivalente a eso, las propias máquinas M, con sus números de descripción estándar específicos (genotipos individuales) competirían y serían los individuos de un super-algoritmo genético que los tuviese dentro de sí como seres evolucionantes, y que tomase como medida de performance la supervivencia del enjambre en un mayor número de generaciones.