Archivo de la categoría ‘ Matemáticas ’

Mujeres extraordinarias (IV). Marian Mirzakhani, la mente maravillosa.

 

 

Cualquier persona que trate de hallar en su vida un camino agradecido ha de esforzarse en pulir su virtud y su don especial, ya que todos y cada uno de los humanos tienen alguno, sea de la índole que sea. Aún así, aún puliendo diamantes, muchas veces el camino no es agradable, o no va en consonancia con lo que de nosotros mismos damos o aportamos. Cuando los obstáculos o impedimentos son fruto de nuestra interacción con la sociedad, se llega a la conclusión de que o bien nosotros estamos equivocados o bien lo está la sociedad, y ante ésto poco se puede hacer, ya que si sucede lo primero nuestra condición de habitantes de nuestra propia mente nos hace inconscientes e incapaces de cambiar tal hecho, y si sucede lo segundo estamos en una clara desventaja numérica. Pero, ay, cuando el enemigo no es la convención social, ni nuestras limitaciones mentales, sino la propia naturaleza, en ese caso, tarde o temprano caeremos al suelo en nuestra condición mortal. Sucede todos los días que se mueren personas, forma parte del propio ciclo de la vida y de la repoblación biológica terrestre. A veces el finado es un personaje “corriente” que no ha vivido con grandes pretensiones ni aspiraciones, que se ha conformado con practicar sus funciones biológicas y sociales sin buscar una continua superación. Por eso no es menos que ningún otro ser humano. Ahora bien, en la naturaleza del ser humano se halla en los individuos extraordinarios como común denominador la búsqueda de la virtud, o dicho de una manera más neutra si se quiere, la búsqueda de la excelencia.

Marian Mirzakhani fue una mujer muy virtuosa, muchísimo. A su talento y dotes genéticas se unió desde niña el trabajo en la búsqueda de la excelencia, en una sociedad hostil a su condición de mujer y más aún, de mujer matemática. Fue una de esas contadas personas que aparecen espontáneamente en cada generación, una aquí, otra allá, que destacan no sólo por su intelecto sino además por su motivación y sus inmensas ganas de superarse, porque aquí nadie compite contra otras personas sino sólo consigo mismo; el necio compite por cada día alcanzar una mayor necedad, y el talentoso por superar positivamente el listón allí donde lo había dejado antes.

Marian fue una heredera de la genialidad de Omar Khayyam, poeta, matemático, astrónomo y médico persa que resolvió las ecuaciones cúbicas intersecándolas con formas cuadráticas. Khayyam, autor del conocido poemario Rubaiyyat, donde se centraba en algo tan humano como es el goce del momento presente (recurriendo, todo hay que decirlo, al filtro del vino) fue una de las mejores mentes que dio la antigua Persia (actual Irán). Y allí nació nueve siglos más tarde Marian. Su vida fue un frenesí en búsqueda de la perfección matemática, y también de las ideas geniales, de esas maravillosas ideas que se nos ocurren en un acto de resonancia bioquímica de nuestro cerebro. Nació en Teherán en 1977 (tendría hoy en día la corta edad de 43 años), en un entorno propicio para su forma de ser. En el año 1994 consiguió 41 puntos de 42 en la Olimpiada Matemática y una medalla de oro. En 1995 volvió a repetir la hazaña, consiguiendo los 42 puntos y también la medalla de oro. En este mismo año comenzó sus estudios universitarios en la universidad más prestigiosa de Irán, la Universidad de tecnología de Sharif. Y allí, siendo todavía estudiante, publicó su primer trabajo “Decomposition of complete tripartite graphs into 5-cycles”. Pocos años más tarde publicó “A small non-4-choosable planar graph” y “A simple proof of a theorem of Schur”. Realizó su tesis doctoral en la Universidad de Harvard, apadrinada por el flamante nuevo medallista Fields del momento, Curtis McMullen. Consiguió su doctorado en 2004 con una tesis titulada “Simple geodesics on hyperbolic surfaces and volume of the moduli space of curves”. Se mudó a la Universidad de Stanford, se casó y tuvo una hija, Anahita.

El trabajo de Marian Mirzakhani que la consagró como una mente maravillosa fue la aplicación de su maravillosamente extraordinaria intuición espacial, enfocándola en el estudio de las superficies hiperbólicas y de sus geodésicas y en la demostración de una conjetura que había sido propuesta por el partero de la teoría “M” de cuerdas, el también maravilloso Edward Witten, del Instituto de Estudios Avanzados de Princeton, que establecía algunas medidas topológicas en los espacios de moduli de la propia teoría de cuerdas. Y siguió dándole vueltas sin descanso a este tema. En el año 2019 publicó, conjuntamente con Alex Eskin el “teorema más importante de la década”, con un trabajo de 214 páginas.

El colofón lo supuso la medalla Fields, obtenida como consecuencia de sus importantes hallazgos, en el ICM de Seúl (año 2014). Pero al igual que le pasó a Galois o a Abel, a Riemann o a Rammanujan, y a tantas y tantas mentes maravillosas, la sombra del demonio la poseyó, en este caso con un cáncer de mama extendiéndose al hígado y a los huesos, sin perdón, sin compasión, sin ningún tipo de miramiento ni consideración alguna, liquidándola en el año 2017.

Es la única mujer que ha obtenido la medalla Fields. Es una auténtica mente maravillosa, y sus trabajos la harán trascender al presidio de la carne, aunque en su corta vida ésto le haya favorecido poco o nada.

 

Créditos de los datos biográficos: Mujeres matemáticas, trece matemáticas, trece espejos. V.V.A.A. Coordinado por Marta Macho Stadler.

 

El análisis de Leonhard Euler

 

 

En este facsímil de la obra clásica Introductio in analysin infinitorum, que desarrolló el bueno de Leonhard Euler, este prolífico matemático contribuyó con su peculiar forma de calcular al análisis matemático, en particular con lo conocido como análisis no estándar, en el que no era infrecuente ver desarrollos en serie de números trascendentes como pi o e.

Más específicamente, en estas dos hojas comenzaba su disertación sobre el concepto de función que él inventó y que todavía mantiene su vigencia, basada en una correspondiencia uno a uno entre un conjunto conocido como dominio de definición de la función y otro conjunto conocido como su recorrido. Concretamente, aquí se estaba extendiendo el concepto de función de una variable al de función de varias variables, asentando así las bases para el actual análisis multivariable.

 

 

El método de Isaac Newton de interpolación mediante diferencias finitas

 

 

En estas dos hojas estaba Isaac Newton desarrollando el método de interpolación por diferencias finitas, que utilizaría casi dos siglos después Charles Babbage en su diseño de la máquina de diferencias, y cuyo esquema modificó Lagrange adaptándolo a la expresión según polinomios de Lagrange, sabiendo que sólo hay un cambio de base y nada más, el polinomio interpolador de los puntos datos es único para cada problema y siempre el mismo (es fácil de ver si se expresa en la base canónica en ambas expresiones, y dado que la ligadura de ajustar una curva de grado N a N + 1 abscisas es un problema resoluble en un sistema de ecuaciones lineales determinado de Vandermonde), tanto según la forma de Newton, como con la de Lagrange. El verdadero inventor fue Newton, pero para la posteridad quedó como interpolación de Lagrange.

 

 

Saturación y distorsión armónica en señal de audio de un receptor FM con el volumen al máximo

 

En este video que he grabado el otro día, estuve viendo con el osciloscopio la señal de audio de un receptor de radio FM, con el volumen casi al máximo. Se puede observar perfectamente que el amplificador de audio entra en su rango de funcionamiento no-lineal, pasando a saturarse, cuando el volumen topea la máxima tensión que puede caer entre el condensador de filtro y masa.
En ese instante el sonido se distorsiona, por no ser amplificado, al alcanzar la tensión ese máximo valor que decía antes. Al final del video aumento la amplitud de la escala en el eje vertical y paso al modo combinado, mostrando abajo la transformada FFT, que es el estimador espectral empleado. Todo estimador espectral parte del concepto de que nosotros no podemos ver la señal desde menos infinito hasta más infinito en la pantalla del osciloscopio, sino que lo que vemos es la señal en tiempo enventanada con un pulso cuadrado de anchura el período de la señal de sincronismo del eje horizontal. Esto en frecuencia no da la transformada de Fourier de la señal, que es lo que idealmente querríamos obtener, sino la convolución en frecuencia de una función sin pi.w/ pi.w, o sea sinc, con la transformada de Fourier de la señal total en tiempo. Además de ello se aprecia que el espectro estimado no tiene exclusivamente las componentes banda base de la onda (algo similar a un triángulo centrado en el cero de la frecuencia) sino como cabía esperar aparece distorsión armónica, precisamente por estarse saturando el amplificador y no funcionar en su régimen lineal.

 

 

El tema de utilizar distintas transformaciones de la señal en tiempo para ver su composición en frecuencia no resulta extremadamente difícil de explicar. Una función temporal, que en definitiva es un vector en su espacio vectorial, se puede expresar según distintas bases de vectores. En este caso tenemos la base de los impulsos en tiempo, en función de los que podemos expresar con una integral el vector (una integral es un caso límite de una combinación lineal de vectores), y también tenemos la base de los impulsos en frecuencia. Cada impulso en frecuencia, que es un vector o señal, si lo expresamos en la base de los impulsos en tiempo tenemos una señal senoidal, que es una frecuencia pura. El espectro de una señal no es otra cosa que ver la señal o vector en otra base de vectores linealmente independientes distinta. Derivado de esta filosofía aparecen propiedades como el teorema de Parcival, que dice que la energía en frecuencia (La norma al cuadrado del vector en la base de la frecuencia) de una señal coincide con la energía en tiempo (La norma al cuadrado del vector en la base del tiempo). Ésto no es difícil de asimilar si tenemos en cuenta que el vector es en ambos casos el mismo y que en ambos casos usamos el mismo producto escalar, esto es, la integral entre menos infinito y más infinito del producto de la señal por el conjugado de esa misma señal, ya sea en tiempo o en frecuencia, y que arroja como resultado la norma al cuadrado o energía de la señal. En todo momento estamos hablando de un único vector que es la señal, pero a este vector lo podemos referenciar respecto a distintas bases. Lo mismo ocurre con otras transformadas matemáticas que se emplean en telecomunicaciones, como la transformada de Laplace, empleada para señales en las que existe un amortigüamiento, la transformada Wavelet, que emplea como vectores de la base las ondículas o señales chirp, y que permiten elegir la granularidad en nuestro análisis en frecuencia, o la transformada Z.

 

Mujeres extraordinarias (III). Hipatia de Alejandría.

 

 

Hipatia de Alejandría es considerada, según una gran cantidad de autores, como la última gran científica de la Antigüedad. Aunque se desconocen muchas cosas de su vida, se sabe lo suficiente como para poder catalogarla como una gran maestra y divulgadora.

No se conservan sus trabajos y las fuentes bibliográficas fiables son realmente escasas. Aún así, existe un acuerdo en torno a la consideración de que las mejores fuentes que se poseen de ella son los trabajos de Sócrates Escolástico y las cartas que le escribió Sinesio de Cirene, quien para Hipatia era su alumno favorito.

En los últimos siglos se han extendido desinformaciones en relación a la vida y obra de esta astrónoma griega. Esto sucedió dado que su historia era muy jugosa para arremeter contra el fanatismo religioso, cosa que los ilustrados franceses no dudaron en hacer. Su leyenda comenzó con Voltaire, alcanzando el cénit con los poemas de Leconte de Lisle, el que la definió como «el espíritu de Platón en el cuerpo de Afrodita». En  esta misma web he aludido como causa de su muerte el fanatismo religioso, cosa que trato de corregir con este artículo, reconociendo que cada vez más investigadores apuntan a la política como motor de las circunstancias que ocasionaron su forzado óbito. En cualquier caso, su asesinato fue de extrema crueldad y un punto de cambio en la historia de la ciencia y la filosofía.

Se sabe que Hipatia nació y vivió siempre en Alejandría y parece poco probable su viaje a Atenas, cosa que se ha afirmado en distintas ocasiones en torno a sus circunstancias vitales. Se desconoce la fecha de su nacimiento, pero se acepta actualmente que ello ocurrió en el año 355, cosa a la que apuntan las cartas de Sinesio.

El padre de Hipatia fue Teón, un prestigioso matemático, director de la tristemente desaparecida biblioteca de Alejandría. Hipatia tuvo, por lo tanto, un acceso privilegiado al conocimiento, cosa muy poco común en las mujeres contemporáneas de ella.

No se conservan los trabajos de Hipatia, pero se sabe que como mínimo escribió un comentario a la Aritmética de Diofanto: el Canon astronómico. Hipatia estaba especialmente dotada para el álgebra y la astronomía y fue una gran profesora y comunicadora. Tuvo también tiempo para cultivar la filosofía neoplatónica, sobre la que impartió conferencias públicas y privadas. Pero también fue inventora, se interesó en la tecnología, contribuyendo con un hidrómetro y un destilador de agua. Contribuyó asimismo al perfeccionamiento del astrolabio.

Hipatia fue asesinada en el 415, probablemente a los 60 años de edad, de una forma brutal y salvaje por un grupo de energúmenos.

La historia de Hipatia no está libre de controversia. Existen voces que aseguran que no fue importante para la historia de la ciencia. A mí me parece que se le debe reconocer su dedicación al estudio y la transmisión del conocimiento en una época muy complicada.

Un libro muy bueno para profundizar sobre la leyenda y la historia de Hipatia es: Margaret Alec, El legado de Hipatia. Historia de las mujeres en la ciencia desde la Antigüedad hasta fines del siglo XIX, Madrid: Siglo XXI, 2005. También es reseñable Maria Dzielska, Hipatia de Alejandría, Madrid: Siruela, 2009. Como libro de introducción en la historia y contribuciones de las mujeres matemáticas a lo largo de la historia, muy recomendable El árbol de Emmy, por Eduardo Sáenz de Cabezón, más conocido por el programa de divulgación Órbita Laika.

La película de Alejandro Amenábar y Mateo Gil, merece también la pena, aunque en ella se han utilizado algunas licencias histórico-científicas. Alejandro Amenábar (director), Ágora, 2009.

 

 

Créditos de los datos históricos: @Los tres Chanchitos, cuenta de Twiter.

Créditos de la imagen: Arriba, Hipatia, en un detalle de La escuela de Atenas del pintor Rafael.

 

Teorema sobre la condición necesaria y suficiente para la convergencia del método de vasos comunicantes en el espacio de Hilbert L2.

 

 

En mi anterior artículo matemático había obtenido una condición que de modo suficiente garantizaba la convergencia al valor medio del cálculo integral para la sucesión de funciones de cambio variable. En el paper que ahora presento doy un paso más, hallando la condición necesaria y suficiente, esto es, equivalente, a dicha convergencia, si elegimos el valor de Xo de cierta manera, que es el punto donde vamos «midiendo las oscilaciones de la onda igualadora» que termina por igualar la altura del nivel en todo el intervalo de la función si se da la convergencia.

 


 

La demostración del teorema parejo contiene la prueba de los enunciados en ambos sentidos, tal y como se debe esperar de un teorema de equivalencia entre dos asertos.

Por una parte, se prueba que en caso de que una función cuya integral definida en un intervalo queramos obtener pertenece al espacio de Hilbert de las funciones cuadrado-integrables y da lugar a una sucesión de cambio variable convergente, en ese caso se obtienen dos cosas de manera necesaria, que son, respectivamente, que la sucesión de derivadas de la función de partida tiene la función nula como límite; por otra parte, que se cumple la condición suficiente de convergencia hallada en los dos anteriores artículos de la serie, y que relaciona el máximo de la función en el intervalo con el recorrido máximo de la misma en el intervalo y con el intervalo.

 

 

En segundo lugar, se prueba la implicación en el otro sentido y se verifica que si se cumplen esas dos condiciones, entonces se produce la convergencia. El artículo está convenientemente registrado en el Registro de la Propiedad Intelectual.

 

 

 

PARA INICIAR LA DESCARGA CLICAR AQUI: condicion_equivalente_de_convergencia

 

Condición suficiente de arranque para la convergencia del método de vasos comunicantes en el espacio de Banach L2

 

En mis dos anteriores artículos matemáticos había explicado la heurística y la descripción formal del método de vasos comunicantes, cuyo objeto es obtener mediante una vía indirecta la integral definida de una función regular en un intervalo [a,b].

En el segundo artículo de la serie me había centrado en hallar una condición suficiente que garantizase la convergencia de dicho método, según el esquema de la sucesión de cambio variable. La condición obtenida, que incluyo en la primera imagen de esta entrada, sintetiza en una desigualdad la materialización del concepto de que los operadores que van aplanando la función de partida son liptschitzianos y contractivos. Sin embargo no se trata de una condición fácilmente verificable, dado que su uso implica la comprobación de que se cumple la inecuación para cada valor de k, o al menos para un número finito mayor que 1 de casos.

 

 

Ésta es la motivación que me ha llevado a desarrollar un poco más los cálculos, simplificarlos en la medida de lo posible, y encontrar una expresión en función del rango dinámico de f(x) y el máximo valor del módulo de esta función, cuyo cumplimiento implique además el cumplimiento de la inecuación obtenida en el segundo artículo de la serie, pero que se ponga en práctica en un único paso, con comprobaciones sobre la función de partida f(x).

 

 

La expresión final que encuentro es la de la anterior imagen, y es la que se erige como condición suficiente de convergencia de la sucesión de cambio variable en el espacio de Hilbert L2.

 

PARA INICIAR LA DESCARGA CLICAR AQUI: condicion_suficiente_de_arranque

 

Lanzamiento de la aplicación web Billiards Trainer

 

 

En el año 2005 desarrollé el método de la bola virtual, un método matemático que he creado para dar soporte a los jugadores de billar. En el artículo correspondiente, que se puede descargar de esta web en la sección de ‘Mis métodos matemáticos’ desde este enlace metodo_bola_virtual, se adelantaba que una posible aplicación del mismo sería una aplicación de entrenamiento, a la que se le suministrasen los parámetros de la jugada descritos en el paper, obtenidos con un medidor láser de distancias.

Pues bien, catorce años más tarde he vuelto sobre mis pasos y he implementado una aplicación web de nombre Billiards Trainer, que he registrado en el Registro de la Propiedad Intelectual, y que he desplegado en la url que sigue:
https://www.eclecticamente.com/BilliardsTrainer/index.html.

La aplicación muestra un formulario donde se deben rellenar los parámetros característicos de la jugada que se quiere realizar: largo y ancho de la mesa, posición de la bola objetivo en coordenadas tomadas respecto a los ejes cartesianos ubicados en la esquina inferior izquierda de la mesa, posición de la bola transmisora (normalmente es la bola blanca, salvo jugadas compuestas), número de contactos en bandas izquierda (l), derecha (r), inferior (d) y superior (u), signos horizontal y vertical de banda (Sx y Sy), que indican la última banda alcanzada para cada par de bandas de igual paridad (-1 para última banda izquierda o inferior y +1 para última banda derecha o superior, respectivamente), el signo de banda (Sb), que indica si en la jugada la trayectoria comienza alcanzando banda par (Sb=2) o impar (Sb=1), el radio de una bola no blanca, el ancho del agujero de la tronera central y el ancho de una tronera de una esquina proyectado sobre cualquiera de las dos bandas que separa.

Con todos estos datos, que describen un plan de jugada, la aplicación determina si la jugada es imposible o si es posible, y en este último caso calcula además el punto de corte a donde debemos dirigir la bola blanca en la primera banda de la jugada, identificado con su distancia al origen de coordenadas en la dirección variable.

Es imprescindible para tomar las medidas antes de efectuar la jugada el poseer un medidor láser de distancias, como el que muestro en la siguiente imagen.

 

 

Como no es una aplicación computacionalmente compleja, no se cobra por su uso, pero se aceptan donaciones.

 

 

El concepto de verdad en matemáticas, por Jesús Mª Landart Ercilla.

 

 

Conozco a Jesús María Landart Ercilla desde el año 2005. Ya entonces me sorprendió su agradable conversación y su calidad de polímata. Era como hablar con una enciclopedia Espasa andante, pero con las emociones de un humano. Me hice amigo enseguida de él. Y desde entonces mantenemos una comunicación fluida mediante medios electrónicos. Es una gran persona y se hace querer desde el minuto cero.

Pero Jesús es mucho más que mi amigo. Estudió ingeniería técnica electrónica, es licenciado en matemáticas y graduado en filosofía, complementado con un Máster en Lógica, Historia y Filosofía de la Ciencia. Nunca o casi nunca bajó del 10 y del primer puesto en su promoción. Es por ello que le tengo un gran respeto. Se trata de quizás uno de los últimos renacentistas que quedan, en una sociedad que valora lo inmediato, lo fácil, lo gratuito, lo que no requiere esfuerzo. Me da miedo incluso destripar aquí su último libro, que en realidad es la versión impresa de su Tesis Fin de Máster en Lógica, Historia y Filosofía de la Ciencia, y que lleva por título «El concepto de verdad en matemáticas». Y es que se frivoliza mucho con el concepto de verdad, y debo reconocer que soy la primera persona en hacerlo.

Es por ello que, ahora que ya lo he presentado, introduzco la reseña del libro usando sus mismas palabras, para no faltar a la verdad.

«La teoría clásica de la verdad matemática afirma que la deducción a partir de axiomas intuitivos es condición suficiente y necesaria para la verdad matemática. Al menos tres crisis importantes a lo largo de los últimos ciento cincuenta años quebraron esta confianza: la irrupción de geometrías no euclídeas, el descubrimiento de contradicciones en el seno de la teoría de conjuntos y la constatación de la existencia de limitaciones intrínsecas en los sistemas axiomáticos. La última esperanza, la posibilidad de encontrar un algoritmo que respondiera a toda pregunta bien formulada, se desvanecía igualmente. Quedaba una concepción mucho más débil de verdad matemática, menos ingenua y de gran riqueza de matices.»

Dejo aquí los enlaces a la versión impresa y a la versión en PDF del libro, para quien lo quiera comprar o descargar. Se trata de un libro que todas las personas que estudian carreras técnicas deberían leer. Porque está muy bien escrito, con mucho rigor. Al leerlo, uno no diferencia si la mente que hay detrás de él es la de un premio Nóbel o la mente de una persona próxima, humana y buena como él lo es.

 

Versión impresa


Versión en PDF

Síntesis de dinámica de poblaciones con aplicación a sistemas de pesca/capturas

 

 

En el año 2015, presenté mi Tesis Fin de Máster en la especialidad de Análisis Matemático del Máster Universitario de Matemáticas Avanzadas de la UNED.

Mediante este trabajo de fin de Máster se intenta primeramente hacer una síntesis de los tópicos principales dentro del estudio de la dinámica de poblaciones. Se trata de una especialidad de la matemática aplicada que se enmarca en la disciplina de la biología matemática. Dicha disciplina tuvo su nacimiento en los años 20 del siglo pasado, con algunas aportaciones previas, y su estudio ha discurrido en paralelo al desarrollo de otras ramas en el marco del análisis de los sistemas dinámicos, que comparten para algunos casos particulares el patrón de las ecuaciones diferenciales que las articulan. Me refiero aquí a la teoría del caos, y a la teoría de bifurcaciones, campos de investigación muy activos durante todo el siglo XX, y cuyo interés mantiene su vigencia. Este primer foco de atención se centra en los aspectos fundamentales del estado de desarrollo actual de la dinámica poblacional. Esto es, como punto de partida introductorio, nos fijaremos en los modelos de una especie y los de dos especies, así como en los conceptos matemáticos necesarios para estudiar los sistemas poblacionales. Se pondrá especial atención en los trabajos pioneros llevados a cabo por los matemáticos Alfred J. Lotka y Vito Volterra. Estas tareas se llevan a cabo en los dos primeros capítulos. En el capítulo tercero se tratan los sistemas de Lotka-Volterra para un número de especies mayor que dos. Es decir, en él se generalizan los aspectos tratados en el segundo capítulo, aplicándolos a ecosistemas con mayor diversidad biológica, y atendiendo a las relaciones de interdependencia que existen entre las especies que los habitan.

Para finalizar, en el cuarto y último capítulo, se realiza el estudio mediante modelos matemáticos de la variabilidad poblacional en ecosistemas en los que se extraen ejemplares de manera “artificial”, esto es, mediante prácticas pesqueras o cinegéticas. Se realiza este análisis con el objeto de conocer cómo varían las poblaciones según distintas estrategias de pesca/capturas, y de averiguar las condiciones que deben evitarse para obtener un máximo rendimiento económico, sin forzar la extinción de las especies de interés. Se presenta además una introducción a las problemáticas existentes en las pesquerías, relacionadas con la búsqueda de un equilibrio óptimo entre el rendimiento económico y la supervivencia de las especies, sin la que la práctica de la pesca no tendría cabida.

 

PARA INICIAR LA DESCARGA CLICAR AQUÍ: TFM_2015_Analisis_Matematico

 

 

Convergencia de la sucesión de cambio variable en el espacio de Banach L2

 

En el anterior artículo matemático había descrito el método de vasos comunicantes, que he creado para obtener indirectamente la integral definida de una función en un intervalo, basándome para ello en el principio físico de los vasos comunicantes.

 

cero

uno

 

Ahora doy un paso más siguiendo con esa filosofía de cálculo. En el paper que ahora presento estudio qué se le debe pedir a los parámetros involucrados en el método para que la sucesión de transformaciones que van suavizando la función sobre la que actúan hasta hacerla constante sea contractiva y Lipstchitziana en el espacio de Banach de las funciones cuadrado integrables L2, que también es un espacio de Hilbert.

 

dos

tres

 

De esta manera, si se cumplen estas condiciones se garantizará que en L2 el método de vasos comunicantes converge a una autofunción por el operador que hay en el infinito, es decir, un punto fijo de la sucesión de funciones, sobre la que opera la sucesión de transformaciones, y que será la función constante e idénticamente igual al valor medio del cálculo integral en todo el intervalo.

 

cuatro

cinco

 

Lo que se consigue es una expresión para los parámetros a, b y para los valores que van tomando las funciones de la sucesión en los extremos del intervalo, obtenida a partir del radio espectral de ciertos operadores de los que depende la contractividad de la sucesión de funciones en L2, y que garantizan la convergencia del método de vasos comunicantes.

 

nueve

seis

 

Este nuevo paper ha sido registrado en el Registro de la Propiedad Intelectual, y goza de las protecciones que dicho registro proporciona.

 

PARA INICIAR LA DESCARGA CLICAR AQUÍ : convergencia_vasos_comunicantes_en_L2

 

Integración indirecta mediante el método de vasos comunicantes.-

 

Hace ya bastante tiempo, tuve una idea que me pareció realmente bella. Tanto, que me di cuenta en el momento que se podían hacer nuevas matemáticas desarrollándola un poco.

 

 

 

Estaba pensando en cómo si introducimos un líquido en un mecanismo dotado de columnas huecas adyacentes unas a otras y practicamos un agujero lo suficientemente bajo en cada pared que separa columnas contiguas, resultará que el volumen de líquido es invariante, ni aumenta ni disminuye, y cuando se equilibran las fuerzas parejas a la presión hidrostática en cada columna, tendremos el mismo volumen de líquido que al principio, resultando ser por lo tanto la altura alcanzada igual al valor medio del cálculo integral de la función de partida. De esta manera, se me ocurrió que se podría construir una sucesión de funciones que imitara el comportamiento del nivel de líquido en todo el intervalo, con el objeto de obtener indirectamente la integral definida de la función inicial en dicho intervalo. La sucesión de funciones tendría como condición de construcción que la integral del nuevo nivel no variase en cada nueva iteración. Pues bien, tal y como era mi intención, he desarrollado esta bonita idea y el resultado ha sido el paper titulado «integración indirecta mediante el método de vasos comunicantes», que aquí presento en esta entrada.

 

 

A las personas que practican el odio o el «bullying» en las redes sociales, les diré que yo prefiero ser constructivo y hacer cosas de provecho, antes que odiar a nadie. Me parece una gran pérdida de tiempo y de energía. A esas personas les proporciono mi trabajo desinteresado, es decir, no les ofrezco odio. Nunca jamás entenderé los beneficios que obtienen los llamados «haters» y «trolls», y condeno su actitud. Hagamos el amor y no la guerra y busquemos el bien para todos.

 

 

PARA INICIAR LA DESCARGA CLICAR AQUÍ : metodo_vasos_comunicantes

 

Georg Cantor, los cardinales transfinitos y la hipótesis del continuo

 

 

El matemático alemán Georg Cantor, nacido en San Petersburgo en 1845, y fallecido en Halle en 1918, fue el artífice de la moderna concepción matemática de infinito, así como el creador junto con Dedekind y Fregue de la teoría de conjuntos, que se erige como el esqueleto en el que se apoyan las actuales teorías del análisis matemático. Sus trabajos sobre el infinito no fueron muy populares en la época en la que vivió, en parte quizás porque Cantor tuvo la desgracia de padecer el trastorno bipolar, también conocido como trastorno maníaco-depresivo, que lo forzó a tener que recluirse en el sanatorio universitario de Halle en numerosas ocasiones, sobre todo a comienzos del siglo XX, y este factor contribuyó a que muchos matemáticos como Leopold Kronecker o Karl Weirstrass –que paradójicamente fueron sus profesores cuando él era estudiante universitario- desdeñaran los trabajos de Cantor por considerarlos como un producto de su patología; pero hubo alguien que por su peso acreditado en las matemáticas de aquella época, que a la sazón formaba junto con David Hilbert la luminaria en la creatividad lógica del momento, más concretamente el matemático francés Henri Poincaré, salió en la defensa de los trabajos de Cantor, argumentando que no importaba si Cantor estaba lidiando con una enfermedad, sus trabajos eran de primera línea y además de una sutil belleza. Eso bastaba para tomarlo en serio. Y fue éso lo que en parte ayudó a poner a cada uno en su sitio, en una situación en la que curiosamente Georg Cantor no tenía sus preocupaciones centradas ni en las controversias de las que estaba siendo involuntariamente el causante, ni tampoco en las paradojas que surgían de sus trabajos, que les causaban gran molestia a otros matemáticos. En una ocasión se le preguntó al filósofo, premio Nóbel de literatura, y matemático, Bertrand Russell, quién consideraba la persona más influyente de la historia en Francia, y éste contestó que esa persona era Poincaré, ante lo cual su interlocutor se quedó sumamente extrañado, al ver que no figuraban en su contestación ni el escritor Honoré de Balzac, ni por ejemplo Napoleón, y sin embargo sí un ministro de entonces con dicho apellido, a lo que Russell contestó que a quien se refería no era al ministro Poincaré, sino a su primo Henri. Esto da una idea de hasta qué punto era influyente el mencionado matemático francés, por estar junto con Hilbert en la élite generalista de las matemáticas de principios de siglo, por sus contribuciones al análisis, a la naciente topología o geometría doblada, por sus estudios sobre el problema de los tres cuerpos –de los que accidentalmente ha surgido la moderna teoría del caos- y por muchas otras contribuciones firmadas con su nombre, entre las que podríamos poner de relieve el estudio del grupo de transformaciones de Lorentz, que por muy poco no lo convierten en codescubridor de la teoría de relatividad especial, por adelantársele Albert Einstein en su año milagroso de 1905. Por este motivo, a Cantor comenzó a tomársele en serio, y fue por ello que precisamente el primero de los problemas a resolver planteado por Hilbert en su famosa conferencia pronunciada durante el Congreso Internacional de Matemáticas, celebrado en la Sorbona (París) en 1900, fuese concretamente el problema de la hipótesis del continuo, no resuelto en su totalidad hasta el año 1963.

 

 

Para contextualizar la hipótesis del continuo, problema al que Cantor no encontró por aquel entonces solución, a pesar de intentarlo con todo su empeño, se debe hablar primero de los cardinales transfinitos y del concepto de infinito en acto, tal y como quedó registrado con las contribuciones del matemático alemán.

Pero antes de esto, debemos remontarnos a la Grecia clásica para ver lo escurridizo que ha sido siempre el concepto de infinitud, que no logró ser domado hasta los trabajos de Cantor. En aquellos tiempos de la Antigüedad surgió una controversia en torno a las concepciones de infinito en potencia e infinito en acto, que se mantuvo a lo largo de toda la historia hasta Cantor. El infinito en potencia consiste en considerar que efectivamente, por ejemplo, después de cada número natural existe otro número posterior, independientemente de que consideremos al primero de ellos todo lo grande que queramos. Así pues, potencialmente los números naturales no se acaban nunca, y cobra forma el hecho de que podemos pensar que el infinito existe, aunque escape a nuestra limitada forma de pensar basada en la observación de cosas u objetos finitos, y no podamos aprehenderlo. Pero hay otra forma de ver el infinito, y es la de considerarlo en acto, no como algo sólo posible, sino como algo con existencia real, hablándose entonces de infinito actual. Aristóteles consideraba que el infinito actual no era concebible, y que si debíamos pensar en el infinito era teniéndolo en cuenta como algo sólo en potencia. Precisamente, algunos pensadores contemporáneos de Aristóteles, uno de los cuales fue Zenón, basándose en lo engañosa que puede resultar la comprensión de un número indefinidamente grande se dieron cuenta de la gran cantidad de aporías, o contradicciones lógicas, que surgían si solamente se consideraba el infinito como algo en potencia y no en acto, de las cuales tal vez las más conocidas sean la famosa aporía de Aquiles y la Tortuga, o la aporía del espacio a recorrer de longitud unidad y de su cubrición con la serie geométrica de suma de distancias avanzadas, con un término general de razón ½. Por otra parte, la continuidad de esta incertidumbre en lo que a los conceptos se refiere, se mantuvo a lo largo de la historia y fue determinante en los primeros intentos de formular el cálculo; así ya los trabajos de los indivisibles de Cavalieri carecían de una total consistencia conceptual precisamente por lo escurridizo del infinito; y aún más, cuando Isaac Newton y Gottfried Leibniz descubrieron el cálculo de manera independiente, eran probablemente conscientes de manera plena de que la nueva forma de calcular, que tan fecunda ha sido para el desarrollo científico, no poseía el grado de rigor que todo buen matemático desea para sus creaciones, dado que era preciso recurrir a los elementos infinitesimales, a lo infinitamente pequeño y distinto de cero, que en realidad lleva implícita la creencia en el infinito en acto.

Así pues, ¿posee existencia real el infinito en acto, aunque lo observado por los humanos, los medios de medida, y nuestra forma de pensar, estén basados en lo finito?.

La respuesta a esta pregunta es afirmativa, y fue Cantor quien comprendió por primera vez en toda su perspectiva el infinito. Para esto, Cantor partió en primer lugar del conjunto de los números naturales. Como dado cualquier número natural, existe otro más grande, el conjunto de los números naturales es infinito, es decir, no se acaba nunca. Para estudiar el tamaño de un conjunto, fuese finito o infinito, Cantor definió los conceptos de numerabilidad (un conjunto es numerable si sus elementos se pueden poner en correspondencia uno a uno mediante una biyección con el conjunto de los números naturales) y cardinalidad (el cardinal de un conjunto es el número de sus elementos si el conjunto es finito, y si dos conjuntos son infinitos se puede decir que tienen la misma cardinalidad si podemos establecer una biyección entre sus elementos, esto es, una correspondencia biunívoca entre ambos, que es equivalente a decir que tienen el mismo tamaño). A partir de estos dos conceptos básicos se llega a la conclusión de que un conjunto es finito si no existe una biyección entre dicho conjunto y alguna de sus partes, y es infinito –tiene cardinalidad transfinita- si dicha biyección existe. Así, por ejemplo, podemos relacionar el 1 con el 10, el 2 con el 20, el 3 con el 30, y así sucesivamente, y vemos que los números naturales son infinitos y son biyectivos con uno de sus subconjuntos (el conjunto formado por las sucesivas decenas). Por otra parte, también podemos decir que el conjunto de los números enteros es numerable, dado que podemos poner en correspondencia el 1 con el 1, el 2 con el -1, el 3 con el 2, el 4 con el -2, el 5 con el 3, y así sucesivamente. Dado que el conjunto de los números racionales (las fracciones) también es infinito, y dado que entre dos números enteros existen infinitas fracciones, podría parecer que existen muchas más fracciones que enteros y que dichos conjuntos tienen distinta cardinalidad. Sin embargo, Cantor advirtió que esto no era así. Para ello, construyó una retícula discreta de puntos en dos dimensiones, de tal forma que la primera fila de puntos se corresponde con los números naturales, la segunda fila con las mitades (números con 2 en el denominador), la tercera fila con los tercios (números con 3 en el denominador), la cuarta con los cuartos (números con 4 en el denominador), y así sucesivamente, aumentando el numerador en cada fila de izquierda a derecha. En esta retícula infinita se encuentran todos los números racionales, y así por ejemplo la fracción 5/6 se halla en la sexta fila, quinta columna; y otro tanto para cualquiera otra fracción que nos imaginemos. Ahora, supongamos que siguiendo una serie de trayectorias diagonales en zig-zag recorremos esta retícula y estiramos dichas trayectorias según una alineación recta, quedando todos los números racionales colocados en esa fila resultado del desdoblamiento de todas esas trayectorias oblicuas. Entonces, es claro que podemos numerar cada una de las fracciones con un número natural, ya que a cada uno de esos puntos alineados podemos colocarle al lado un natural. Por lo tanto, aunque de entrada parecía todo lo contrario, el conjunto de los números naturales y el conjunto de los números racionales, que tienen ambos cardinalidad transfinita, son recíprocamente biyectivos (sus elementos están en relación uno a uno), y poseen la misma cardinalidad. Cantor denotó este número cardinal como aleph sub-cero (no incluyo aquí el símbolo, pero la letra aleph es la primera en el alfabeto hebreo, y es parecida a una x mayúscula). Pero Cantor no se detuvo aquí, ni muchísimo menos, sino que pasó a considerar el conjunto infinito de los números reales con infinitos decimales, y lo que primero se preguntó es si este conjunto posee el mismo cardinal que el conjunto de los números naturales (equivalentemente, que el conjunto de los racionales). Y para demostrar que ambos cardinales transfinitos son diferentes, siendo mayor el de los números con infinitos decimales, utilizó un interesante e ingenioso argumento, que desde entonces se ha llamado diagonalización de Cantor, y que también usó Alan M. Turing en su trabajo sobre los números computables y el problema de la decisión. En esencia el argumento consiste en lo siguiente: supongamos que tenemos una lista (infinita) con todos los números con infinitos decimales posibles, de tal forma que a la izquierda de cada número colocamos un número natural para indicar el puesto que ocupa el número decimal en la lista, esto es, suponiendo implícitamente que el conjunto de número decimales y el conjunto de números naturales poseen la misma cardinalidad. Hagamos ahora lo siguiente: al primer decimal del primer número de la lista lo cambiamos por otra cifra distinta, al segundo decimal del segundo número de la lista lo cambiamos también por otra cifra distinto, y repitamos este proceder para todos los números que hay en la lista (¡nunca jamás terminaríamos de hacer tal cosa, pero ello no significa que no podamos imaginarlo!). Si reflexionamos un rato, fácilmente nos daremos cuenta que el número decimal así construido con los sucesivos nuevos decimales que hemos usado, no está en la lista inicial de tamaño infinito numerable propuesta, por lo que se colige que necesariamente existen más números reales que naturales o racionales, y así hemos llegado a la conclusión de que existe otro número cardinal transfinito, que Cantor denotó por aleph sub-uno, y que se corresponde con la cardinalidad del conjunto de los números reales, que es estrictamente mayor que aleph sub-cero, o cardinal de los naturales. Y dado que no es difícil establecer una biyección entre un intervalo cualquiera de la recta real con el conjunto de los números reales, también se puede ver que la cardinalidad de cualquier intervalo es igual a la del conjunto del que forma parte de los números reales, e igual por tanto a aleph sub-uno (tienen el mismo tamaño). Parece algo extraño, desde luego, pero es verdadero, y Cantor tuvo que asombrarse bastante con sus novedosos razonamientos. Y aún más, si consideramos cualquier intervalo N-dimensional, formado por el producto cartesiano de N intervales 1-dimensionales, también es fácil ver, asombrosamente y en contra de lo que en principio dictaría la intuición, que es biyectivo con un intervalo 1-dimensional, y por tanto de cardinalidad transfinita igual a aleph sub-uno. Entonces tenemos de momento dos grados de infinito, el de los números naturales, y el mayor de los números reales, que implica que en la recta real existen más números irracionales que racionales (son en realidad muchos más) ya que ya se vio que los números fraccionarios son numerables, mientras que el conjunto de los reales, formado por los fraccionarios y los irracionales, no lo son. La pregunta que se formuló entonces Georg Cantor es si existen otros cardinales transfinitos o grados de infinitud mayores que los dos hallados. Y para contestar a esta pregunta, Cantor consideró, dado un conjunto cualquiera, el conjunto formado por todas las partes posibles de ese conjunto de partida, teniendo en cuenta las partes triviales igual al conjunto vacío y al conjunto total. Para un conjunto discreto, el cardinal o número de elementos del conjunto formado por las partes del de partida es igual, como fácilmente se comprueba, a 2 elevado al cardinal de dicho conjunto de partida. Así pues, el cardinal del conjunto de partes de un conjunto es estrictamente mayor al cardinal de dicho conjunto. Si ahora hacemos que el conjunto original tenga cardinalidad transfinita, hemos encontrado una manera práctica de hallar un conjunto transfinito de mayor tamaño, que es el conjunto formado por las partes del inicial. Por lo tanto, tenemos una sucesión infinita de cardinales transfinitos, que empieza con aleph sub-cero, seguido del cardinal del conjunto formado por las partes del conjunto de cardinal aleph sub-cero, que tiene cardinalidad aleph sub-uno, al que sigue el cardinal del conjunto formado por las partes del conjunto formado por las partes del conjunto de cardinalidad aleph sub-cero, que tiene cardinalidad aleph sub-dos, y así sucesivamente.

Pero entonces a Cantor se le planteó una duda “existencial”, que formalmente pasaría a ser conocida como hipótesis del continuo, y que lo tuvo infructuosamente ocupado el resto de su vida. Y esa duda consiste en saber si existe algún conjunto infinito cuyo cardinal sea estrictamente mayor que el cardinal de los números naturales aleph sub-cero y a la vez estrictamente menor que el cardinal mayor de los números reales con infinitos decimales aleph sub-uno. La hipótesis del continuo afirma que tal conjunto no existe, y requería de la búsqueda de un contraejemplo o de su demostración directa, para poder así afirmar su falsedad o veracidad respectivamente. Este problema fue enunciado por David Hilbert en su famosa conferencia de 1900 como uno de los problemas matemáticos abiertos a la espera de solución para las matemáticas modernas. Era el primero de su famosa lista de 23 problemas de gran dificultad que han tenido bien ocupadas a algunas de las mayores mentes matemáticas del siglo XX; y un puñado de los cuales aún no se han resuelto (la hipótesis de Riemann entre ellos, el santo Grial de la teoría de números; o la axiomatización de la física, tampoco aún no conclusa), habiéndose resuelto no obstante una gran cantidad de ellos (como por ejemplo el problema de la existencia de un procedimiento general para saber si una ecuación diofántica tiene soluciones enteras o no, resuelto en dos fases: primera mediante el enunciado de la hipótesis de Julia Robinson y sus colaboradores, y segunda mediante los trabajos del matemático ruso Yuri Matiyasévich; o el problema de la conjetura de Poincaré, la cual ya es un teorema desde la intervención del “medallista” Fields Grigori Perelman).

 

 

Y para resolver el primer problema de Hilbert, que tan absorto mantuvo sin éxito a Georg Cantor, hizo falta la intervención de dos astros de las matemáticas modernas; el primero de ellos, más conocido por su teorema de la incompletitud, el austríaco Kurt Gödel, quien en 1939 complementó el sistema axiomático de la teoría de conjuntos formado por los axiomas de Zermelo-Fraenkel, y el axioma de la elección, con la hipótesis del continuo como axioma independiente, para llegar a un sistema axiomático consistente; el segundo de ellos, el matemático norteamericano Paul J. Cohen, de ascendencia judía, que en 1963, complementó también el sistema axiomático Zermelo-Fraenkel, más axioma de elección, más negado de la hipótesis del continuo, para llegar también a un sistema consistente desde el punto de vista lógico. En consecuencia el problema de la hipótesis del continuo es indecidible. Es decir, se han construido dos mundos matemáticos diferentes, en uno de ellos existe un conjunto de cardinal transfinito comprendido entre aleph sub-cero y aleph sub-uno, y en el otro mundo no existe tal conjunto; y se dice entonces que el resultado depende de la hipótesis del continuo, que es un axioma independiente de la teoría de conjuntos que ha de considerarse o bien directamente o bien de forma negada como un axioma más, (algo al estilo del 5º postulado de Euclides de las paralelas y a su implicación en la existencia de geometrías no euclídeas perfectamente consistentes).

Y éste es el final de la historia, fue precisa primero la originalidad de Georg Cantor para desentrañar el tan escurridizo misterio del infinito en acto, y la tenacidad y el ingenio de Gödel y de Cohen para completar la panorámica en su totalidad. Una buena muestra de que las matemáticas son un terreno eternamente cambiante y perfeccionista, que no admite huecos vacíos en sus argumentaciones, tárdese lo que se tarde en cubrirlos. Hay un millón de dólares y una entrada para el Monte Olimpo de la Ciencia, esperando a quien resuelva el problema de la hipótesis Riemann, uno de los problemas de Hilbert aún abiertos. La distribución de los números primos es de enorme importancia, tanto teórica como prácticamente, no sólo por la motivación de saber por saber, sino además por sus implicaciones en la criptografía RSA, con la que se protegen nuestros números de tarjetas de débito/crédito en las transacciones comerciales por Internet. El matemático Bernhard Riemann dedujo una ecuación que relaciona la función compleja meromorfa zeta (conocida como función zeta de Riemann) con la cantidad de números primos menores que un número natural dado. Así pues, existe una conexión entre la función zeta de Riemann y la teoría de números, y un conocimiento del emplazamiento de los ceros y polos de zeta en el plano complejo arrojaría luz sobre la distribución de los números primos. La hipótesis de Riemann establece que todos los ceros no triviales de dicha función tienen parte real igual a 1/2. Por métodos computacionales no se han encontrado todavía contraejemplos a esta conjetura. Pero ésto no basta, puesto que se trata de saber con certeza si este comportamiento se produce para absolutamente todos los ceros no triviales, que son infinitos. La demostración o refutación de la hipótesis de Riemann es tal vez el problema matemático abierto en la actualidad de mayor relevancia. Personalmente no me gustaría morir viendo que ese problema se mantiene sin solución. Me gustaría que en alguno de los próximos años venideros de esta época en la que nos ha tocado vivir, en la que el Dios Dinero es el que marca los tiempos, los trabajos, el funcionamiento de la sociedad, y las preocupaciones diarias, con una crisis económica que se extiende como una telaraña por las naciones; y con asignación de escasos fondos para la investigación; hiciese acto de presencia de repente una persona de naturaleza extraordinaria, que al puro y clásico estilo romántico de esta ciencia democrática que es la matemática, resolviese este problema y nos sorprendiera a todos. Quién sabe. A lo mejor ese iluminado ya ha nacido y se halla ahora ocupado en sus cotidianos quehaceres, ajeno a la que será la contribución de su vida y del siglo a las matemáticas.

Las imágenes presentadas en esta entrada se corresponden, por este orden, con las fotografías de Georg Cantor, Kurt Gödel y Paul Cohen.

 

Modelos matemáticos en la demografía de las especies

 

 

Coincidiendo prácticamente con los comienzos del siglo XX se vio nacer una nueva disciplina científica, la biología matemática, ciencia en la cual se ha tratado y se trata de aúnar el conocimiento propio de ambas ramas, con el objeto de establecer modelos que expliquen lo más finamente posible la realidad de la vida. Tanto los físicos como los matemáticos vieron en la biología una serie abrumadora de fenómenos que eran tratables con el lenguaje abstracto de la matemática.

Mucho antes del siglo pasado, a finales del siglo XVIII, el conocido economista Thomas Malthus, que fue posteriormente una fuente de inspiración para el biólogo Charles Darwin, estudió el crecimiento demográfico de las poblaciones y advirtió que si la naturaleza no proveía de algún sistema de control de la población, la vida en nuestro planeta sucumbiría. Precisamente fue ahí donde entró Darwin más tarde identificando a la selección natural como el mecanismo regulador que en cierto modo limita las poblaciones vivas. El razonamiento de Malthus era en cierto modo sencillo pero totalmente lógico, aunque también con limitación de miras. Dada una especie animal que se alimenta de otra especie vegetal, pongamos por caso el ratón y el trigo, se verifica que la cantidad de trigo que se puede producir en cada temporada en un cierto terreno crece aritméticamente con el paso de las generaciones, dado que la superficie de terreno es siempre la misma. Esto es, en la primera generación se producirá por ejemplo x metros cúbicos de trigo. Tras la segunda generación habrá x + x = 2x metros cúbicos de trigo, y en general tras n generaciones habrá nx metros cúbicos de trigo, todo ésto abstrayéndonos de la presencia humana, esto es, suponiendo que no hay consumo del trigo por ningún otro ser que fueran los ratones. Sin embargo la población de ratones en ese escenario hipotético no crece aritméticamente sino exponencialmente, puesto que se puede suponer, simplificando las cosas, que un individuo típico aporta en la unidad de tiempo una cierta cantidad de ratones r a la población (número que puede ser fraccionario, y que representa el valor medio de lo aportado en la unidad de tiempo per cápita), cuyo valor se identificaría con la tasa de natalidad. Ésta ecuación diferencial tiene como solución una función exponencial del tiempo, en la que participa el parámetro r. Así pues, aunque la cantidad de trigo que se poseería en una generación sería grande, la población de ratones crecería mucho más rápido, con lo cual en un principio, si aislamos del resto del planeta estas dos especies, llegaría un momento en que se agotaría el alimento y ambas especies dejarían de existir.

Ahora bien, este tipo de crecimiento demográfico exponencial, que también se conoce como malthusiano, es en realidad una aproximación grotesca de la realidad, independientemente de que el mundo no está formado sólo por dos especies vivas. En realidad existe un límite al crecimiento demográfico de una especie, que viene dado por las limitaciones de espacio o nutrientes o por la presencia de otros predadores, y ese límite es conocido como capacidad de carga o de soporte de la especie. En términos matemáticos diríamos que el crecimiento malthusiano viene dado por una ecuación diferencial de la forma y’ = k.y, esto es la tasa de cambio de la especie es proporcional a la cantidad de miembros que tiene esa especie en ese momento, y cuya solución es una función exponencial del tiempo. Pero el crecimiento real, cuyo estudio fue acometido por Pierre Francois Verhulst, se modela según otra ecuación diferencial de la forma y’ = k.y.(C-y), donde la constante C es la capacidad de carga o valor límite de la población. Esta ecuación expresa que la tasa de cambio es no sólo proporcional a la cantidad de individuos, sino que es menor también cuanto más próxima sea esa cantidad de individuos a la capacidad de carga, porque cada vez hay menos espacio o nutrientes para ellos o porque otra especie predadora los limita numéricamente. La solución de esta ecuación diferencial es la denominada ecuación o ley logística, que se rige por la expresión y = Cy0 / (y0 + (C-y0)exp(-kt)), donde el valor y0 es la cantidad de individuos en el instante inicial.

Pero, como es lógico, no tiene sentido aislar dos especies apartándolas del resto del mundo, puesto que éste presenta relaciones recíprocas entre todas las especies, sean de una naturaleza o de otra.

Ya en el siglo XX entraron en escena dos matemáticos para mejorar los estudios de Malthus y de Verlhust, y éstos fueron Vito Volterra y Alfred Lotka, aportando dos modelos que explican mucho mejor las interacciones de pares de especies predador-presa o bien predador-predador competidor. Históricamente para ejemplificar estos modelos se utilizan en el caso del modelo predador-presa a la relación entre lobos y conejos. Si las poblaciones de lobos y conejos estuviesen aisladas los lobos no podrían alimentarse de los conejos, con lo cual la población de lobos decrecería según una ecuación x’ = -l.x, que es de tipo malthusiano. Por otra parte los conejos seguirían una tasa de crecimiento también malthusiana pero de signo contrario, esto es : y’ = c.y. En estas dos ecuaciones los valores l y c son respectivamente las tasas de muerte y de natalidad de lobos y conejos.

Sin embargo, si ambas especies, lobos y conejos, coexisten en un determinado biotopo, estas ecuaciones no serán válidas, porque ambas especies interactuarán entre sí, y de este modo, podemos decir que, debido al encuentro entre predadores y presas, a la anterior tasa de crecimiento de lobos habremos de sumar un término debido al hecho de que ciertos lobos cacen ciertos conejos, y que será mayor cuanto más lobos y conejos haya, puesto que en esa situación más fácil será que se encuentren entre sí, y además el signo de este término será positivo, dado que significará que los lobos aumentan su cantidad por el hecho de encontrarse con conejos que capturan, por lo que pueden seguir viviendo y reproduciéndose. Así pues, la tasa de crecimiento de los lobos quedará x’ = -l.x + r.x.y, siendo r un parámetro de la ecuación, como también lo era l, y que en este caso representa la facilidad con que los lobos cazan los conejos y su repercusión en la mayor reproducción consecuente. De esta forma, la especie predadora de este caso, la lobuna especie, en vez de extinguirse tendrá al menos posibilidad de tener cierto crecimiento. Por otra parte, para el caso de la tasa de crecimiento de los conejos, y por el mismo motivo que el que causó el anterior término r.x.y, habrá de restarse al crecimiento malthusiano original de los conejos un término que será proporcional a la facilidad de encontrarse lobos y conejos y que tendrá signo negativo, de modo que la segunda ecuación diferencial será de la forma y’ = c.y – s.x.y. Estas dos ecuaciones diferenciales, dependientes de los parámetros l, r, c y s, son dos ecuaciones diferenciales que están acopladas, y si resolvemos este sistema obtenemos una cantidad oscilante de lobos y conejos, de manera que si representamos en el plano XY, para el eje de abscisas la cantidad de conejos y para el eje de ordenadas la cantidad de lobos aparecerán las “curvas isoparamétricas” a las que tienden la evolución de predadores y de presas, y que en este caso tienen la forma de curvas cerradas con «radios» diferentes y que tienen su punto «central» en la situación de equilibrio ideal que correspondería a la no variación ni de la cantidad de presas ni de predadores. Al variar los parámetros obtenemos distintos ciclos cerrados en dicho plano conejos-lobos, y la evolución temporal de ambas especies sigue una de esas curvas. Los parámetros para cada modelización particular habrán de ser obtenidos por métodos empírico-estadísticos, pero en general se puede decir, de modo intuitivo, que el número de predadores aumentará si disponen de gran cantidad de presas, pero al irse consumiendo éstas el número de predadores disminuirá, con lo cual aquéllas aumentarán su número, aumentando de nuevo el de predadores. La solución es, pues, cíclica, salvo que estemos en una condición de equilibrio en el ecosistema para todas las generaciones, la cual es improbable. Es decir, existen curvas isoparamétricas para cada sistema de ecuaciones diferencial, en las que yacerían las series de valores temporales, también llamadas órbitas, de todas las variables involucradas. Y esto no sólo se aplica a las ecuaciones de Lotka-Volterra de predador-presa sino a cualquier modelo no lineal en el que intervengan ecuaciones diferenciales no lineales. Un ejemplo de esto es el modelo climático de Lorentz, desarrollado en el siglo XX. Para elaborar este modelo, Lorentz estableció, en su forma o versión simplificada, las tres ecuaciones diferenciales que fijan la tasa de cambio de cada de las tres variables de posición de una molécula en un fluido (por ejemplo una molécula de de agua en la atmósfera). Y se ayudó de algunos parámetros. La solución del sistema diferencial de tres ecuaciones de Lorentz da lugar a una órbita que tiende a un atractor, que se denomina “el atractor extraño de Lorentz” y que tiene forma de ochos acostados enlazados cada uno con el siguiente.

Pero Lotka y Volterra desarrollaron además otro par de ecuaciones diferenciales que dan lugar al modelo de competencia entre especies de un mismo biotopo. Este modelo se aplica a dos especies que compiten por un recurso o presa común, y en las que aparece crecimiento logístico, y ese crecimiento ha de ser forzosamente logístico porque los recursos por los que compiten ambas especies son limitados. Las ecuaciones diferenciales son gemelas para cada uno de los competidores y tienen la forma : x’ = k.x.((C-x-r.y)/C), siendo k la constante de crecimiento malthusiano, C la capacidad de carga para la expecie x y r un factor que establece la interacción con la especie competidora. Habría una ecuación diferencial análoga para la otra especie, con parámetros análogos pero con otro nombre, y de la resolución de ambas ecuaciones obtendríamos unas órbitas en el plano XY sobre las que yacerían las series temporales de ambas especies.

Todo lo que aquí se ha descrito para dos especies puede ser ampliado para un número mayor de especies y así se construirían modelos aplicables a ecosistemas simplificados con un número limitado de especies que darían lugar, en el espacio de tantas dimensiones como distintos tipos de seres interactuando, a distintas órbitas donde se situaría la evolución en el espacio de fase de las series temporales de todas las especies.

En cuanto a la resolución de los sistemas de ecuaciones diferenciales que modelan a la naturaleza, existen básicamente dos formas de acometerla de acuerdo con las herramientas de que nos provee la matemática. Una de ellas es la disciplina de resolución de ecuaciones diferenciales y la otra es el análisis numérico. La primera de las dos emplea métodos concretos de cálculo para transformar cada ecuación y/o para resolverlas analíticamente. La segunda herramienta son los métodos numéricos basados en diferencias finitas o en diferencias divididas y que aproximan las derivadas por diferencias escaladas entre valores próximos de cada variable, y mediante el cálculo por computadora se obtienen directamente las series temporales. Ejemplos de este tipo de cálculo serían los métodos de Runge-Kutta y de Euler.

En la imagen superior se representan las curvas isoparamétricas de la solución del modelo predador-presa y en la imagen inferior se representa el atractor extraño de Lorentz.

 

 

El cifrado César y la aritmética modular

 

 

 

Desde la antigüedad se cultivaron los métodos de cifrado y descifrado de mensajes, ya que era de vital importancia que algunas informaciones relevantes llegaran a manos de un destinatario del mismo bando, sobre todo en épocas de guerra, cuando el líder de las tropas necesitaba comunicarse mediante un mensajero con cada uno de los corresponsales de los diversos destacamentos. Así pues, era preciso un convenio para el cifrado y después para el descifrado. Los mensajes podían cifrarse por sustitución –sustituyendo cada letra original por otra letra o símbolo que le correspondía-, o bien por trasposición. El cifrado por trasposición consistía en alterar el orden de las letras del mensaje. Ya en la antigüedad clásica se usaba la escítala, que no era otra cosa que una vara de cierto diámetro convenido entre emisor y receptor. Se enrollaba una tira de papel alrededor de la escítala y se escribía el mensaje sobre líneas consecutivas en el papel enrollado. Cuando se desenrollaba dicho papel aparecía un galimatías de letras –las letras del mensaje-, en el cual el orden de las letras había sido totalmente violado. Pero cuando este papel era vuelto a enrollar en una vara de idéntico diámetro aparecía el mensaje perfectamente legible.

Por lo que se refiere a los métodos de sustitución, existe constancia de que uno de los primeros algoritmos de sustitución fue el cifrado de Polibio, aunque aproximadamente 50 años después, el propio Julio César hacía uso de uno bastante simple, que pasó a ser llamado cifrado César. Este cifrado consiste en establecer una clave común a emisor y receptor, que era un número, y dada una letra a cifrar se desplazaban en el alfabeto tantas posiciones como indicaba el número y se tomaba la letra de esa posición final como carácter cifrado. Para el descifrado podía usarse un rectángulo de cartón en el que estuviesen en orden las letras del alfabeto, por debajo de las cuales se podía deslizar una tira con dos alfabetos consecutivos, y así al mover la tira inferior una cantidad de caracteres igual al número clave, se ponían en correspondencia el alfabeto sin cifrar con el cifrado.

Entre el cifrado César y la aritmética modular –o “aritmética del reloj”- hay una correspondencia clara. La aritmética modular, que es una de las bases del actual sistema de encriptación Rivest-Shamir-Adellman (RSA) utilizado para cifrar y firmar digitalmente la información privada en las comunicaciones de Internet, se basa en atribuir la equivalencia entre un número menor que el tope numérico que consideremos al resultado de efectuar cualquier número entero de pasadas al ciclo que va desde 1 hasta el tope (que en un reloj sería el número 12) más los avances hacia el número considerado. Por ejemplo, podemos decir que las 4 horas equivalen a las 16 horas o a las 28 horas, si damos respectivamente 1 y 2 vueltas al reloj y contamos 4 unidades más. La arimética modular viene a darnos equivalencias basadas en un ciclo que se repite y que es rebasado en la última vuelta la misma cantidad de posiciones que las del carácter a cifrar. Escrito matemáticamente, de una forma rigurosa, se dice que 16 es congruente con 4 en módulo 12, o que 28 es también congruente con 4 en módulo 12. Esta misma forma de razonar la podemos emplear con medidas angulares, diciendo por ejemplo que 380 es congruente con 20 en módulo 360.

De esta manera el cifrado César se puede expresar mediante una fórmula matemática del siguiente modo. Si llamamos C(x) al ordinal de la letra cifrada y a x el ordinal de la letra sin cifrar, y si consideramos una aritmética modular módulo 27 (el número de letras del alfabeto), se puede escribir :

C(x) = (x + k) (módulo 27), donde k es la clave empleada.

Por ejemplo, si la clave es 3, el carácter de ordinal 4, que sería la letra E (se empieza a contar con 0 para el primer carácter) quedará cifrado mediante el carácter de ordinal 7, que sería la letra H. Pero la clave k puede ser todo lo grande que queramos. Así, por ejemplo, si k es igual a 58, el carácter de ordinal 4 (letra E) sería cifrado por el carácter de ordinal 4 + 58 (módulo 27), que es el ordinal 8 (letra I).

Para el desciframiento también podemos usar una fórmula, que sería de la forma O(c) = (c – k) (módulo 27). Ésta sería la fórmula inversa a la anterior, que nos permitiría conocer el ordinal del carácter original a partir del cifrado c.

En principio el cifrado César no sería difícil de romper, si nos basamos en análisis de frecuencia, pero podríamos complicarlo algo más si utilizamos el conocido como cifrado afín, que responde a la fórmula :

C(x) = (ax + b) (módulo 27), siendo a y b dos números menores que el número de caracteres del alfabeto. Para que un carácter fuese cifrable unívocamente mediante este esquema, sería preciso que el mcd(a, b) fuese 1, esto es, que a y b fuesen coprimos.

¿Por qué es más potente el cifrado afín que el cifrado César original?. Pues la razón estriba en que ahora hay dos claves para el cifrado, que son los números a y b, mientras que antes sólo había 1 número clave (k). El número de claves distintas para el cifrado afín será igual a la cantidad de 26 x 26 para un alfabeto de 27 letras, mientras que el número de claves para el cifrado César sería sólo de 26. Es decir, hay una notoria mejoría a favor del cifrador, puesto que existen más claves potenciales con las cuales practicaría un hipotético interceptor del mensaje hasta dar con el mensaje descifrado siguiendo la filosofía afin. Aún así, ninguna de las dos formas de encriptación es invulnerable, basta con emplear fuerza bruta para romperlas.

En la imagen superior se observa una representación de la forma de cifrado por trasposición mediante escítala. En la imagen inferior, un busto de Julio César.