LA INTIMIDAD DE LOS ATOMOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

Lo enseñan en las escuelas de medio mundo, los átomos se relacionan entre sí. Hemos aprendido que las moléculas son las formas de relación estables, sujetas a todos los vaivenes de la vida, como ocurre con los humanos. Los átomos se juntan, si se gustan se unen, si no pasa nada permanecen juntos, hasta que nuevas tentaciones por parte de otros, pueden acabar con sus formas de pareja o reunión para formar otras nuevas. No hay, necesariamente monogamia, solamente unas pocas parejas mantienen la proporción 1:1. Son más abundantes las relaciones “poligámicas”. En una cosa si hay diferencia con los humanos: nunca quedan solos. Debe ser un alivio para los átomos, aunque para los humanos tiene algo de tragedia. La fuerza que atrae a los átomos es fuerte. Depende del medio en el que se encuentran pero, dependen mucho más de las características de los átomos que se emparejan o reúnen. Los hay también más sosos, los gases nobles. Su displicencia es tal que, durante mucho se pensó que no querían saber nada de ningún otro átomo. Se les concebía como “clasistas”. Eran endogámicos y se reunían con ellos mismos y no querían saber del resto nada. Poco a poco, acercándose más a ellos, se descubrió que eran “muy flojos”, que no es que no se reunieran, pero como si estuvieran desganados, alicaídos, poco enérgicos. Tienen su medio en el que sobrevivir, pero les cuesta mucho.

Probablemente los átomos son las partículas de las que más se ha hablado, aún cuando ha costado mucho verlos, encararlos. Sus propiedades y sus aportaciones se han descubierto. Sus familias también, casi todas, pero lo que es verlos, permanece en la oscuridad, por ser muy esquivos. Por primera vez dos átomos juntándose han estado al alcance de la imagen. Un experimento ha permitido construir un mapa del proceso de colisión de dos átomos. Colisionar dos átomos es un proceso sumamente frecuente, casi todo lo que hacemos o podemos imaginar conlleva que átomos colisionan. Observarlo es otra cosa. Se ha descrito, se han elaborado teorías, mecánicas precisas para describirlo, se derivan propiedades y consecuencias de las colisiones, pero lo que es verlas cuando están ocurriendo no se había observado anteriormente nunca. Para imaginación la de Demócrito, filósofo y matemático griego que vivió entre los siglos V-IV a. C. Fue discípulo de Leucipo  y  es especialmente recordado por su concepción atomista de la materia. Es muy importante tener una descripción detallada de lo que ocurre cuando dos átomos se reúnen. Hay muchos campos de conocimiento que requieren conocerlo, por ejemplo en la computación cuántica, en la que se requiere el uso de sensores cuánticos o en las memorias de ordenador de alta densidad que están basadas en átomos individuales para el almacén de los datos y el tratamiento de la información.

Yang coordina un grupo de investigación en el IBM Almaden Research Centre  que ha logrado que se den un toque un átomo de titanio y uno de hierro y observarlo. El primero, paciente en la espera, se situó en la superficie y el segundo se mantuvo en la punta de la sonda de un microscopio electrónico. Se vio la fuerza de la interacción magnética, que es una medida del solapamiento de los bordes de los dos átomos. Desde lo que se puede considerar primer contacto, hasta la colisión completa, la interacción magnética alcanzó una magnitud 10.000 veces mayor. Los bordes de la zona donde un átomo ejerce su influencia no son rígidos, sino difusos. Esa parte más exterior de la “itinerancia” de los electrones,  que es lo que describen sus órbitas y que están basadas en la probabilidad de encontrarles en cada punto del espacio, son lo que se denomina funciones de onda. Como los átomos se mueven cada uno hacia el otro, empiezan a interaccionar mediante una fuerza que se denomina Interacción de intercambio, que hace referencia, precisamente, a que los electrones están en trance de pasar de estar descritos por uno de los átomos a estarlo por el otro. Esta fuerza comienza a incrementarse conforme aumenta el solapamiento entre las dos funciones de onda que describen a cada uno de los átomos. Los átomos llegan a estar tan juntos que, la función de onda de uno de ellos puede describir al otro. Esta fuerza Interacción de Intercambio, fue propuesta por Pauli y es la responsable de muchos procesos como la exclusión, por la cual dos electrones no pueden ocupar el mismo lugar del espacio, lo que se demuestra mediante propiedades de simetría y la generación de las interacciones magnéticas, entre otras.

Los átomos de titanio se depositaron sobre una capa de espesor de dos átomos de óxido de magnesio, que actuó como aislante. Midieron el efecto magnético al aproximar el átomo de hierro  a los niveles de energía de los átomos de titanio por dos procedimientos: mediante ESR  (Resonancia de Espin Electrónico) capaz de proporcionar medidas del detalle de las interacciones débiles y emplearon, también, la espectroscopía de efecto túnel, que permite medidas de interacciones fuertes entre átomos en zonas más próximas. A partir de los dos conjuntos de medidas se obtuvo el mismo perfil (una curva exponencial) al representar la fuerza frente a la distancia, en un amplio margen de la escala.

La importancia del experimento radica en que ahora se conoce con detalle lo que la teoría ha venido prediciendo desde hace mucho. En Ciencia, teoría y experimento se complementan, una sugiere a la otra o viceversa y se van concretando los logros conforme la Técnica está dispuesta y a punto para evidenciar lo que se propone. Este es el caso. Ahora se tiene un camino expedito para avanzar en las tecnologías cuánticas a escala atómica, al poderse “ver” a escala atómica donde están los átomos, cambiarlos de lugar, construir estructuras y medir sus propiedades y, a nivel de computación cuántica, posibilitar el control coherente de las operaciones cuánticas. A nivel académico, también, la incidencia es notable, por disponer de un dispositivo instrumental capaz de estudiar las conexiones entre átomos como se ven influenciadas si situamos dos o tres átomos sobre una superficie, le aplicamos una fuerza a uno de ellos y podemos observar la incidencia sobre los otros, lo que pondrá de relieve las conexiones entre ellos como se ven modificadas. Estamos en condiciones de examinar los mecanismos subyacentes a nivel atómico.

Cada vez disponemos de más evidencias del comportamiento cuántico de la materia. Es interesante y resulta divertido contemplar el avance del conocimiento científico. Es una herramienta precisa y correcta para ir desvelando el mundo en que vivimos. Interesante.

LA LEY DE SUTTON por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

Las leyes naturales aluden a los factores invariantes, por tanto, a las constantes propias de las cosas y tienen mucho que ver con una causa primera. La autoridad que establece las leyes, puede ser de origen natural. En este caso, no son artificiales, no han sido creadas ni propuestas por el hombre y son ajenas a las voluntades humanas. Tienen carácter atemporal, son eternas, e invariables y válidas en cualquier localización. Son irrevocables.

Las denominadas leyes no siempre son tales. En muchos casos la denominación es hiperbólica y categoriza una regla operativa, sin atender a los requisitos formales para clasificar la propuesta como ley. Hay muchos casos y un buen ejemplo de ello son las múltiples formulaciones de las leyes de Murphy. Dedicaremos atención a un caso sobresaliente: la ley de Sutton. Está muy extendida en ámbitos médicos en los que el diagnóstico se práctica con harta frecuencia, unas veces con mayor fundamento que otras. En el ámbito físico, el proceso por el que se determina la causa más probable de un hecho o signo concreto o un síntoma, se denomina diagnóstico diferencial. En realidad no es sino un término sofisticado para denominar la aludida ley de Sutton.

El origen de esta ley es curioso, cuando menos. Walter (Willy) Sutton fue un notable ladrón de bancos, que eludió durante décadas la captura y puesta a disposición de la Justicia. Finalmente, fue aprendido y cuando fue interrogado sobre por qué robaba bancos, emitió su famosa respuesta: “Ahí es donde está el dinero”, que se convirtió en la Ley de Sutton. El implicado negó repetidas veces el haber pronunciado tan lapidaria frase, como dejó constancia en un libro publicado en 1976, titulado “Donde estaba el dinero”, pero el epónimo ha sobrevivido a la posteridad. Viene a significar que las cosas comunes, son comunes y el diagnóstico de cualquier enfermedad o hecho raro o poco común (exótico) requiere un elevado grado de evidencia. En el ámbito médico de algún país, la versión reza del siguiente tenor: “Si escuchas galopar, no asumes que es una cebra”. Propone que los primeros exámenes a realizar son aquéllos que permiten confirmar o descartar el diagnóstico más probable.

Rememora aquélla formulación que se denomina “Navaja de Ockham”, según la cual la parsimonia tiene distintas formulaciones “ En igualdad de condiciones, la explicación más sencilla suele ser la más probable”. No es, como todas estas formulaciones, ningún principio irrefutable dado que, en demasiados casos, la explicación hay que encontrarla en las formulaciones más complejas. Una teoría solamente resulta confirmada por la evidencia a la luz de la razón. Ambas leyes, de Ockham y Sutton, son primas hermanas. Esta última aboga por dar prioridad en el diagnóstico, a lo más obvio. No sólo en el campo farmacológico o médico, en general, sino que alcanza el ámbito de la computación, cuando se buscan motivos para justificar que un programa de ordenador no funciona como debiera.

Tiene una lectura alternativa y es la ordenación de las acciones a llevar a cabo, sujetas al criterio de probabilidad de ocurrencia. Es un protocolo de análisis. Por ejemplo, situémonos en un quirófano donde se está efectuado una intervención quirúrgica. Supongamos, que en el enfermo intervenido se da un aumento progresivo de la concentración de CO2 detectado, por ejemplo, en 40 mm Hg y que a los cinco minutos se incrementa hasta 45 mmHg y luego pasa a 55 mmHg en unos cuantos minutos más, Evidencia que, dado que el cuerpo humano tiene bajo control la presión del CO2, el incremento continuado sobrepasa lo que se puede conceptuar como un pequeño incremento. Hay varias causas que, en esta situación, pueden justificar el incremento de la concentración de CO2. Siguiendo la ley de Sutton, comenzaríamos por la más probable: falla una de las válvulas que desvían el CO2 exhalado. En algunas máquinas puede darse, debido a la humedad que entra como consecuencia de quedarse abierta la válvula. El siguiente elemento más probable podría ser el agotamiento del absorbente del CO2. Esto se detecta por el cambio de color del mismo. El agotamiento del absorbente provoca que descienda la temperatura hasta alcanzar la del ambiente, dado que no se estaría dándose la reacción exotérmica, al haberse agotado la capacidad de absorber más CO2. Supongamos que no se ha dado un cambio de color del absorbente, pero la temperatura del mismo es elevada. Es un síntoma nada usual, porque podría indicar que el cuerpo humano está produciendo cantidades enormes de CO2 y que se ha alcanzado un estado hipermetabólico. Ahora podríamos analizar otros signos del carácter hipermetabólico y comprobar la velocidad del corazón y la velocidad de la respiración y la temperatura del cuerpo, por tanto. Finalmente, se puede comprobar la presión parcial de CO2 en la sangre y el pH. Supongamos que la lectura es de 91 mmHg y un pH de 6.9, que es un valor letal (se considera normal en la sangre arterial entre 7.35 y 7.45). No habría problema en el diagnóstico: hipertermia maligna. Es una enfermedad rara. Los anestesistas ven un caso o dos en su vida profesional. Es una enfermedad genética disparada por la inhalación de anestesia, que provoca un hipermetabolismo de los músculos asociados al esqueleto. Si se diagnostica apropiadamente, la mortalidad solo es menos del 5%. De no ser así, bien por retardo en la diagnosis o la aplicación del tratamiento, la mortalidad se aproxima al 100%. Solo la dispara la anestesia inhalada. Suministrar de forma discontinua el anestésico, ventilar más para eliminar el CO2 y suministrar el fármaco apropiado para revertir el hipermetabolismo muscular, son las alternativas o simultáneas soluciones al caso. Usar otro anestésico, de los muchos que hoy hay disponibles, puede soslayar el problema.

Nos interesaba, más que el caso concreto, la metodología por la que se avanza siguiendo la ley de Sutton. Es una vía útil para ordenar el avance del análisis. La contrapartida es la posibilidad de que la respuesta sea la compleja, no la que aparece como más probable y que requiera actuar en tiempo limitado, dadas las consecuencias de la dilatación del mismo. Ahí hay que tener intuición y oficio, para que la ordenación sea otra. Esa es la debilidad de las denominadas leyes de este tipo, No son leyes y su cumplimiento no garantiza una metodología científica. Así son las cosas. ¡Aunque algunos fruncen el ceño, pretendiendo dar seriedad a sus propuestas!

CIENCIA Y TÉCNICA. SON LOS TIEMPOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

La confusión es manifiesta, Ciencia y Técnica se asumen, en general,  sinónimas en muchos ámbitos. Claro que, ni todo lo que se rotula Técnica lo es, ni mucho menos lo que se refiere como Ciencia lo ha sido siempre. En determinados círculos se recurre, con harta frecuencia a respaldar las afirmaciones que se hacen, amparadas supuestamente en la Ciencia. La gente que escucha, que tributa respeto al halo científico, generalmente, acepta como autoridad de garantía cuando se apela a la Ciencia. Los científicos, rara vez acuden como tabla de salvación a formular afirmaciones referenciales de la Ciencia. Los científicos argumentan, razonan explican, describen, etc. La Ciencia pretende aplicar el método científico para lograr nuevo conocimiento. La Técnica, por contra, tiene por objeto acomodar, transformar, adecuar la Naturaleza para beneficio de las personas.

No son antitéticas Ciencia y Tecnología, pero no son sinónimas. Y no tiene por qué preceder una a la otra. La primera requiere observación y sus pilares son la repetibilidad y la falsabilidad. La segunda puede ser, perfectamente, empírica. Qué duda cabe que cuando hay Ciencia detrás, la Técnica avanza a paso ligero, ahonda mucho más lejos, logra mucho más progreso. Pero la inducción puede ser su compás. Frecuentemente, se conoce la Historia de la Ciencia, en algún grado. La Técnica se pone de relieve con más dificultad. Ortega le dedicó atención, de la forma brillante con la que abordaba todo lo que enfocaba. En la Introducción de la intervención con la que inauguró la Universidad Internacional Menéndez Pelayo en 1933, con un ensayo sobre la Técnica, afirma “Sin la Técnica el hombre no hubiera existido ni existiría jamás”. Y tras este inicio tan rutilante, comenzó su disertación que se extendió hasta cubrir doce lecciones, en las que describió, justificó y evidenció las razones sobradas que esgrimía para justificar su aserción.

Ciertamente, la misión de los intelectuales es prever con fecunda anticipación lo que andando el tiempo va a convertirse en usual o va a ser un problema y generar debate, de forma que se irradien ideas claras y los que pueden aportar algo viertan propuestas que irrumpan, proporcionando sosiego o serenidad, valorando la verdad sobre las cosas importantes y ponderar la realidad incluso cuando se presenta con su careta negativa, siendo como es nuestra vocación la de vivir o pervivir. Reflexión y voluntad son las facultades de la vida, capaces de reobrar sobre los instintos.

Hay un gran repertorio de actividades que la Humanidad ha acumulado y las necesidades que subvienen a ellas  Vivir es la necesidad originaria de todas las demás. No es una necesidad impuesta, sino creada por un acto de voluntad, que es el empeño en pervivir. Desde alimentarnos, hasta desplazarnos suscitan necesidades y actividades para satisfacerlas aprovechando los medios de que disponemos. El  animal no es que tenga menos apego a la vida, sino menos dotes intelectuales para defender su vida. Las personas hemos ido generando formas de hacer para que la naturaleza, que está ahí, produzca lo que no hacía, o no está al alcance cuando hace falta. Fabricamos automóviles para suprimir espacio y tiempo. Cultivar en un invernadero no es lo mismo que alimentarse, como hacer un coche no es desplazarse. Estas actividades no son necesidades, sino actividades para soslayar aquellas otras necesidades que las suscitaron. En esta capacidad están las personas y no los animales. No es tanto falta de inteligencia como ser capaz de desprendernos de las urgencias vitales, para dedicarnos a ocuparnos de actividades capaces de lograr obviar las necesidades. El animal solamente permanece ligado a sus necesidades: vida biológica tan sólo.  Los actos que las personas realizan presuponen la invención de procedimientos para obtener lo que hay en la Naturaleza y necesitamos. Esto implica crear objetos, instrumentos o aparatos cuyo funcionamiento proporciona lo que necesitamos. Estas actividades modifican la Naturaleza logrando que en ella haya lo que no había y se necesitaba. Estos son los actos técnicos y su conjunto es la Técnica. Así pues, resumiendo, la Naturaleza nos impone necesidades y nosotros imponemos una reforma a la Naturaleza para satisfacer las necesidades que ésta nos genera. De aquí se desprende la creación de una sobre-naturaleza, en la que, realmente, nos desenvolvemos cotidianamente, también. Como evidencia Ortega, Técnica no es lo que el hombre hace para satisfacer sus necesidades, sino la reforma de la Naturaleza que nos provoca la necesidad, de forma tal que se anulen las necesidades y dejen de ser un problema a satisfacer. La Técnica sitúa el calor junto a la sensación de frío y anula la necesidad, soslaya el problema, por ejemplo.

La Humanidad ha ido desarrollando la Técnica, acomodando las invenciones a la percepción de las necesidades que han ido emergiendo. La Ciencia ha ido aportando conocimiento que ha permitido invenciones cada vez más audaces, al tiempo que la propia Técnica ha ido acumulando más invenciones, herramientas y dispositivos empleados en un creciente abordaje de satisfacción de necesidades. Desde la tarea de encender fuego, para disponer de él donde y cuando se precisaba, hasta la actualidad en que nos ocupan las herramientas autónomas, cada vez dotadas de más “inteligencia”, lo que nos obliga a reflexionar el mundo que nos aguarda, en breve, porque la máquina está lista, la Inteligencia, dispuesta, la voluntad, decidida a reformar la Naturaleza para satisfacer lo que nuestra voluntad requiera. Estamos en los albores de la era en que tenemos que encarar los dilemas sociales, éticos y, también afectivos, que las máquinas inteligentes nos plantean. Son los tiempos.

SUBSUELO ESTETICO FRACTAL por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

La Naturaleza está compuesta por elementos que son, en su mayoría, irregulares, imperfectos. Las formas geométricas no bastan para medir los objetos irregulares. Las formas euclídeas no se ajustan bien a los objetos que la realidad nos brinda. Los objetos que nos rodean, en su mayoría, no son polígonos o cuerpos perfectos. Mandelbrot se planteó esta cuestión. La línea de costa no requiere un patrón fijo para su medida. Las plantas presentan patrones de crecimiento que optimizan el contacto con el medio. Encontramos en ellos la denominada fractalidad.

Si queremos medir una costa, como se planteó Mandelbrot, la costa es irregular. Si empleamos una unidad de medida recta, a lo único que podemos aspirar es a efectuar una estimación. En la concepción clásica de la medida, la longitud estimada, “L”, será el resultado de multiplicar la unidad de medida “u” por el número de medidas “n” de esas unidades, “u”, precisas para cubrir el objeto. Si obtenemos una medida “L” con una unidad “u” y ahora tomamos una unidad distinta “u’ ” que sea la mitad de “u”, no necesariamente obtendremos el doble valor para la longitud, “L”, sino que puede ser mayor. Aquí identificamos que la medida clásica es insuficiente, cuando se trata de objetos irregulares. Cuanto menor sea la unidad de medida “u”, obtenemos una longitud, “L”, mayor. Aquí se evidencia que los objetos irregulares requieren otro procedimiento de medida. Y recordemos que irregulares son la mayoría de los objetos que nos rodean.

La geometría fractal es la rama de las Matemáticas que estudia estos objetos irregulares. Nació en 1967 de la mano de una idea que propuso Richardson unos años antes, cuando estudió la incidencia de la longitud de la frontera entre dos países entraran en guerra. Los datos que obtuvo para la longitud de las fronteras variaba en función de la fuente consultada, hasta en un 20%. Ya concluyó que dependía de la unidad empleada para efectuar la medida. Conforme disminuía la escala el resultado era mayor, con un límite teórico infinito. Este es el conocido como efecto Richardson. Se relaciona la medida de la longitud “L” con la unidad de medida “u” mediante una relación logarítmica de Mandelbrot,

log [L(u)] = (1 – d) log(u) + b

siendo b una constante de ajuste  y d la dimensión fractal, que viene a ser la cobertura del espacio, de forma que cuanto más supere a la unidad, menos próxima a la línea será el objeto que medimos. Los fractales se caracterizan por dos propiedades: la autosemejanza y la autoreferencia. La primera implica invarianza de escala, por la que la apariencia siempre es la misma, independientemente de la escala a la que la observemos. La última, la autoreferencia,  significa incumplir el aserto de la lógica que exige que lo definido no puede entrar en la definición. La autoreferencia implica que el objeto aparece en su definición. En términos de computación, es la recurrencia. Las formas geométricas no diferenciables son las que son objeto de estudio de la geometría fractal. La curva de Koch, por ejemplo. El conjunto de Cantor se obtiene tras una iteración infinita y de él emergen la alfombra Sierpinski (dimensión euclídea 2) y la esponja de Menger (en dimensión euclídea 3).

En la Naturaleza hay muchos objetos que satisfacen las condiciones de los fractales. Todos los procesos de ramificación, desde ruidos en señales eléctricas, hasta elementos del sistema económico, pasando por distribución de las galaxias, forman parte del elenco propio de la geometría fractal. Es raro el campo de estudio que no forma parte del escenario fractal. La Música no podía quedar al margen. Como si hubiera un sonido del caos. La Música Clásica se presta más que otras, por lo elaborado de las propuestas, permiten más fácilmente, un análisis de su componente fractal. Bach es el gran geómetra fractal de la Música Clásica. Sus fugas, en  gran medida son reflejo de la autosemejanza y recurrencia. El alcance de Bach, no sólo es el de su música interpretada, sino la referencia en la que se miran desde Shostakovich hasta Villalobos, improvisando sobre los fundamentos que establecen las estructuras de Bach.

Las invenciones y sinfonías de Bach son dos conjuntos integrados por quince composiciones, las denominadas invenciones, que son obras propuestas para dos voces y otras quince sinfonías propuestas para tres voces, con estructura contrapuntística. Al igual que Chopin, que propone los famosos Estudios, para que los aprendices no tengan que verse sometidos a la ardua tarea de someterse a la tortura de Hannon o Cerny, son auténticas obras de arte y asi se le reconoce cuando son objeto de repertorio de los mejores pianistas pero, en realidad, fueron concebidos para estudiar, para ejercitar determinados dedos de una o ambas manos, Bach concibe los estudios para ejercitación de los que se inician o se entrenan, en suma, para educación musical.

La pieza de Bach, BWV772 es un excelente ejemplo en el que efectuar el análisis fractal de una invención. En www.teoria.com,  Rodríguez Alvira, hace un detallado análisis del Inventio 1 de Bach, identificando los compases 3 a 6, 7 y 8, 9 a 12 y los finales, incluida la coda, En los compases 3 a 6, las inversiones que convierten los intervalos ascendentes en descendentes forman la voz superior, mientras que las cuatro notas del tema transformadas por aumentación, doblando el valor, constituyen el bajo de la marcha. Visualmente, en la partitura se evidencia como una imagen especular. Estas transformaciones son las que utiliza Bach para transitar mediante una modulación a sol mayor, la dominante de do mayor. En los compases 9 a 12 hay un tránsito al tono de re menor mediante inversiones.  Mientras que en los compases 3 y 4 se pasaba de do mayor a sol mayor (dominante), quinta ascendente, ahora pasamos de re menor a la menor, que también es una quinta ascendente. Siguen las marchas armónicas en los compases subsiguientes. En resumen, la pieza incluye: imitación, transformación por inversión, transformación por aumentación, contrapunto invertido a la octava y marchas armónicas. Todo ello arropado por la vestimenta de las fugas, comenzando y terminando en la misma tonalidad, la principal, a través de una modulación a la dominante, donde presenta el tema de nuevo y otras modulaciones a tonalidades más cercanas. Básicamente miles de notas integradas en una composición sinfónica que alberga sonidos estructurados.

Hsu y Hso estudian la pieza BWV772 evidenciando la  existencia de patrones fractales como autosemejanzas.  Lo hacen de forma parecida a la que se emplea cuando se analiza una línea de costa. Zhi-Yuan Sua y Tzuyin Wub en Multifractal analyses of music sequences, dejan probada la fractalidad. Y no son las únicas referencias de este tenor, por cuanto Y. Shi, Correlations of pitches in music, Fractals 4 (1996) 547–553) analiza la variación y autosemejanza en música country y para piano. Muchos otros autores lo confirman. La geometría fractal puede ser un lenguaje apropiado para expresar el misterioso atractivo de la música, con su estructura sonora íntima albergada en la integración de miles de notas que constituyen una composición musical. Hsu y Hso analizan las piezas de Bach desde el punto de vista de las frecuencias acústicas y la relación entre los intervalos de esas frecuencias.

Como sabemos, una octava implica una frecuencia duplicada, lo cual se consigue reduciendo a la mitad la longitud de una cuerda. Como una escala diatónica consta de 12 semitonos, la relación de las frecuencias sucesivas en esta escala será r. De esta forma:

Ni = N i-1 r
C(do)# = C(do) r
D(re) = C(do)# r = C(d) r2

C(do) = B (si) r = A# (la) r2 = A (la) r3 = G (sol)# r4 = G (sol) r5 = F(fa)# r6 =
F(fa) r7 = E r8 = D#(Re) r9 = D(Re) r10 = C(Do)# r11 =  C(do) r12

Concluimos en que para pasar de una octava a la siguiente y alcanzar el armónico de una nota, como Do, en el ejemplo, es preciso multiplicar por r12. Si la frecuencia del do original es f, la de la octava, será el doble, por tanto

2f = f r12

De donde obtenemos que r = 12√2 = 1.059463. Este sería el intervalo entre dos notas sucesivas.

Podemos concebir la música, como una sucesión ordenada de notas, que constituye la melodía, combinadas apropiadamente para que concuerden (armonía) y secuenciadas en una sucesión de duraciones temporales y espacios entre ellas (ritmo). La convención clásica supone que la combinación de estos componentes no es caótica, sino que todo requiere un orden. De ser fractal una composición, según Hsu y Hso  debiera cumplirse que

n = cte / (i d)

siendo n la frecuencia, i el intervalo y d  la dimensión fractal. Esta expresión resulta una buena descripción para varias obras de Bach y Mozart. Otros análisis pormenorizan la recursividad y no solo los intervalos en las notas y confirman la fractalidad.

Como vemos, hay estudios que confirman la fractalidad musical.  Música y Naturaleza tienen en común que la presencia de estas imágenes en acústica  y las formas de la Naturaleza, conllevan la consecución de imágenes complejas que integran muchos elementos, pero en los que subyace un patrón simple que se incorpora mediante recursividad. Al final, todo parece indicar que cuando en un objeto hay muchos elementos, cuantos más y mayor variedad de ellos hayan, estando organizados, más bellos y agradables nos parecerán, como apunta Eysenck, estudioso de la personalidad. Los fractales están presentes en el mundo, tanto en la Naturaleza como en la percepción estética y está integrado en ellos y en el subsuelo de las cosas hermosas y agradables, incluso es posible que en el escenario cognitivo.

CONSTANTE HUMANA UNIVERSAL por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

La fisiología humana estudia las funciones del cuerpo humano. Es una de las Ciencias más antiguas del mundo. La función biológica es el objeto de su estudio. Desvelar como el organismo se mantiene con vida. En este escenario, maneja las denominadas constantes fisiológicas, que reflejan los parámetros fisiológicos, como frecuencia cardíaca, respiratoria, presión arterial, temperatura, peristalsis, pH, reflejos pupilares y rutiliano, tiempo de vigilia, ciclo ovárico, peso, talla, etc

 

La Homeostasis refleja la constancia de las condiciones del medio humano interno. Las funciones de cada uno de los órganos se superponen a las de los restantes, en un coro armonioso que permite la vida del ser humano. El medio interno está compuesto hasta en un 65% de líquido, la mayor parte intracelular. Hasta un 65% es agua y el 35% restante extracelular. En este último se encuentran diluidos los iones y nutrientes que aseguran la función de las células, es el denominado medio interno. El equilibrio homeostático es la clave de la vida. Su fallo puede ser incompatible con la vida. Los sistemas de control son decisivos y, entre ellos, los genéticos, que tienen lugar en el interior de las células, resultan ser los más complejos. Hay otros que actúan a nivel de órgano o sistema, como regulaciones de concentraciones de oxígeno, de dióxido de carbono, los reguladores de la presión arterial o la temperatura corporal, etc. El mecanismo básico de control se establece en términos de retroalimentación negativa, es decir, en función de que la concentración de algún factor sea muy diferente de la apropiada, tanto positiva como negativamente, con lo que se disparan mecanismos que devuelven al factor el valor que debiera mantener. En suma, se mantiene la homeostasis. La denominada retroalimentación positiva, es fatal para el organismo porque genera mayor inestabilidad. Se le denomina círculo vicioso, y no es más que una espiral creciente retroalimentada, por tanto explosiva. Por ejemplo, una hemorragia provoca la pérdida de sangre, pudiendo llegar a superar el umbral de funcionamiento correcto del corazón. La presión arterial cae y las arterias coronarias disminuyen el riego sanguíneo al corazón, lo que provoca que el músculo cardiaco empiece a sufrir por falta de oxígeno. El corazón se debilita y se encamina al colapso. Círculo vicioso. En casos, la retroalimentación positiva es saludable, como la oxitocina en al parto.

 

De todos es conocido que la temperatura corporal se sitúa entre 35.5 ºC y 37 ºC; la frecuencia respiratoria entre 12 y 20 respiraciones por minuto; la frecuencia cardíaca entre 60 – 100 latidos por minuto; la diuresis entre 800 y 1500 mililitros diarios; el peso varía con la edad sexo y altura, pero el Índice de Masa corporal (IMC) se sitúa entre 18.5 y 24.99; la presión arterial entre 80 (sistólica) y 120 (diastólica)  milímetros; la evacuación de heces entre 1 y 3 veces por día; el pH del cuerpo entre 7.32 y 7.42, es decir,  ligeramente básico, etc.

 

Hay otro tipo de constantes, como propone Hammerman, con visos de carácter universal y caracterizando a la raza humana en su conjunto. Se inspiró en la “teoría de la carrera de competición” propuesta por Keller que analizaba las características fisiológicas de los records ya que se sitúan muy próximos al límite de las capacidades del cuerpo humano. Comparando valores correspondientes a mujeres y a hombres, dio con unos valores universales independientes de capacidades físicas y requerimientos de cualquier deporte. Obtuvo la relación entre los tiempos de los records obtenidos por hombres y por mujeres y esta razón representa la velocidad relativa entre sexos. Usain Bolt recorrió los 200 metros en 19.19 segundos. Florence Griffith  lo hizo en 21,34 segundos. La ratio entre la velocidad de mujeres y hombres era 0.899. Pero esta relación, para las categorías entre carreras desde 30 a 100 metros, media maratón o maratón completa, se situaban entre 0.820 y 0.923. En las carreras efectuadas en interior, las relaciones correspondientes para 100 metros y  hasta maratón fueron de 0.89.  La ratio es, esencialment, constante. Pero si se examinan otros deportes, como el kayak para distintas distancias, desde 200 m hasta 5000 metros  y un número de remeros de uno, dos o cuatro, para todas las categorías la ratio fue de 0.89. En natación ocurre otro tanto de lo mismo. Para 30 categorías, desde libre hasta mariposa y todas las distancias de competición, la ratio fue de 0.90. Para la carrera en bicicleta, otro tanto de lo mismo con 0.89 de ratio.  En remo y en 10 categorías, la ratio fue 0.90. En patinaje sobre hielo, en 7 categorías, la ratio fue de 0.92. En suma, en 90 categorías el valor medio de la ratio fue de 0.89, con una desviación del 2%. Todo indica que hay un valor invariante mantenido a lo largo de los últimos 50 años. Debe tener una explicación fisiológica. Si, como avanza Hammerman, pudiera deberse al contenido de hemoglobina, resulta que para el hombre es 13.6 – 17.5 y para la mujer 12.0 – 15.5, cuya ratio se sitúa entre 0.88 y 0.89. Pudiera tratarse de una constante universal. Al final, todo se sabe o se puede saber.

GUIA CELESTE por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

Hiparco De Nicea fue el astrónomo, geógrafo y matemático griego que efectuó el primer catálogo de estrellas, propuso la división del día en 24 horas, con la misma duración cada una de ellas y que no fuera función de la estación. Así se mantuvo hasta el siglo XIV en que se inventó el reloj mecánico. Pero, además de otras muchas otras aportaciones de interés, se le atribuye la invención de la trigonometría, así como los conceptos de latitud y longitud geográficas. Cabe precisar que en la tabla de arcilla babilónica denominada Plimton 522, datada en 1800 años a.C. ya se incluyen tres columnas con los valores de los catetos de un triángulo rectángulo y en una tercera se contiene los valores correspondientes a la hipotenusa, lo que pone en entredicho la autoría del teorema de Pitágoras, por parte de quien dio nombre al mismo. Pero, más allá, también hay columnas que responden a la razón trigonométrica seno, aunque se atribuya a Hiparco su autoría. Son cosas que no empañan para nada la aportación de personajes de esta entidad, pero si evidencian la ligereza con la que se atribuyen los logros científicos, o cuando menos, la arbitrariedad con la que se adjudican autorías. Lejos de ser aportaciones personales, individuales, nunca la Ciencia se ha conducido en los ámbitos de la soledad individual. Alguien pone el caldo de cultivo, normalmente muchas personas y un tiempo generoso, son los que desencadenan los acontecimientos científicos, que luego la distancia e ignorancia los concreta en nombres personales, como si a la Ciencia le importara quien ha acabado un trabajo que han iniciado muchos y en mayor número han aportado vida e inteligencia para conformar un logro, un avance, una parcela de conocimiento. La vanidad humana nunca nos abandona, ya sea profano o científico.

 

Los cuerpos celestes que estudiaba Hiparco había que situarlos en los cielos, con objeto de conocer sus movimientos, con suficiente precisión como para poder predecir su posición y, por ejemplo, pronosticar los eclipses. Se precisaba la trigonometría, pero los cuerpos que se observaban no se movían en un plano, sino en superficies, en buena aproximación esféricas. No hay acuerdo en quien la introdujo: Hiparco, Menelao, dos siglos después o Tolomeo más tarde. Este último introdujo la trigonometría esférica. Formulando un “calado” para un arco circular, en lugar del concepto de seno que manejamos en la actualidad, introducido siglos después en la India. Los astrónomos árabes sitúan la aparición de la Trigonometría esférica en el Almagesto, publicado en el 140 d.C. y debido a Tolomeo de Alejandría.

 

Situémonos en escena. Imaginemos a dos personas situadas en el Polo Norte de una esfera que se dirigen hacia el Ecuador, pero parten en direcciones que forman un ángulo de 90 grados. Una vez alcanzado el Ecuador, ambos giran  (90 grados) y siguen caminando cada uno hacia el otro para encontrarse en algún punto. Las trayectorias recorridas  conforman un triángulo esférico con tres ángulos rectos, dos en el Ecuador y uno en el Polo. La suma de los tres ángulos, por tanto, no es 180º, sino 270º, cuando la suma de los ángulos interiores de un triángulo (plano) tiene que ser 180º. Todavía más, la suma de los ángulos de un triángulo esférico está en función del tamaño del mismo. SI es casi plano (como si el polo estuviera muy cerca de la base, la suma será próxima a 180º, pero si es muy grande la suma puede llegar a valer 540º. Retornemos la época en que Hiparco debió enfrentarse con éste problema hace más de dos milenios, determinando que el plano de la eclíptica se situaba por encima del plano del Ecuador Celeste un ángulo de 23.4 grados, que coincide con el ángulo del eje de la Tierra con respecto al plano orbital. Hay que pensar que hoy cualquier calculadora maneja la declinación con extrema facilidad, pero antes de disponer de la tecnología del siglo XX, los cálculos había que realizarlos a mano. En 1614, Napier anunció la solución al problema con los logaritmos que introdujo en Description of the Miraculous Table of Logarithms, gracias a los cuales los complicados cálculos de los senos implicados en la declinación se expresaban en términos de sumas más manejables.

 

La trigonometría, tanto plana como esférica fue una bendición para los astrónomos. El mundo islámico la precisó para determinar aspectos ritualísticos, como era la predicción del día de comienzo del Ramadán, que se establece en términos de la emergencia de la Luna creciente del resplandor del Sol, como Luna Nueva y que determina el tiempo de entrada en la etapa de las cinco plegarias diarias, alguna de las cuales requiere el conocimiento de la altitud del Sol. Como es bien sabido, para rezar, un “tutor” tiene que encararse con la Meca, lo cual en la Edad Media fue un problema de trigonometría esférica, ya que consiste en determinar la posición en el Cielo del punto de la esfera celeste situado directamente por encima de la Meca, trazar la vertical hasta el horizonte nuestro y encarar esa dirección.

 

Una aportación significativa en el mundo marino fue debida a Sumner que en 1837  viajo desde Carolina del Sur hasta Irlanda y un tiempo atmosférico endiablado y una oscuridad provocada por las nubes, le dificultaba saber dónde se encontraba, hasta que dio con una ventana por la que pudo determinar la altura del Sol. Ideó con este dato un procedimiento ingenioso para salvar la situación. El conjunto de posiciones sobre la superficie de la Tierra en las que el Sol está situado a una altitud determinada, forman un curva cerrada (en casos un círculo) cuyo centro es la posición geográfica del Sol. En algunos lugares esta curva es extremadamente larga, tanto que se denomina línea de posición y es casi una recta. Este hecho nos permite ubicar la situación en cualquier punto de la Tierra en el que nos encontremos. Midiendo la altitud de una estrella determinamos su posición sobre la curva cerrada aludida. Así, si medimos la altitud de dos cuerpos celestes, nosotros estaremos situados en la intersección de las dos curvas cerradas proyección sobre la Tierra, que se intersectarán en dos puntos, uno de los cuales es nuestra posición. Estos dos puntos suelen estar muy alejados entre sí, con lo que identificar cuál es nuestra posición no es complicado.  Las agendas náuticas catalogan varias estrellas, planetas y el Sol, de forma que, muchos cuerpos celestes son accesibles. Durante mucho tiempo se determinó la posición de las embarcaciones de este modo, mejorando la precisión si se emplean varios cuerpos celestes. Esta es una práctica que el GPS actual ha tornado obsoleta. Como todo, si se deja de tener habilidades como para determinar posiciones de este tipo, el día que el GPS sea objeto de sabotaje o, simplemente, deje de funcionar por alguna suerte de averías programadas o accidentales, estaremos incapacitados para solucionar el problema cuando se presente, al haber abandonado el uso y la preparación en la trigonometría esférica. Podremos levantar los ojos al cielo, sin obtener demasiadas respuestas, salvo una reverencial admiración que sigue suscitando, porque, afortunadamente, los cielos no se ven contaminados por la tecnología. Simplemente, permanecen, aparentemente, tal cual se generaron y/o concibieron.

RED NEURONAL FOTÓNICA por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

Muchos creen que las redes neuronales son una representación de nuestro cerebro. Para que fuere cierto, tendríamos que conocer el funcionamiento del cerebro y no sabemos todavía lo suficiente. No es la primera vez que ocurre. La analogía en procesos, fenómenos o denominación es usual en la Historia de cualquier disciplina, incluida la social. Cuando se construyó el primer ordenador se le apellidó durante mucho tiempo “cerebro electrónico” con lo que se le otorgó una componente antropomórfica, eso sí, electrónica.  El estigma estuvo durante mucho tiempo a las espaldas de la floreciente computación y sus herramientas más genuinas. Con otras parcelas pasó algo parecido. La incorporación del concepto de dimensión en número superior a las cotidianas y asimiladas tres dimensiones de nuestro mundo aprehensible, con motivo de la época en que se transitaba de la geometría euclídea a la rienmaniana, provocó otra convulsión en la segunda mitad del siglo XIX que, entre otras cosas, alentó la corriente espiritista que manejaba con una soltura increíble la cuarta dimensión, nunca asimilada por los humanos en toda su extensión, aunque no han sido pocos los intentos de doblegarla. Ahí está el Arco de la Defense parisino que materializa un cubo en cuatro dimensiones en las tres usuales; el Cristo de Dalí en una cruz cuatridimensional, para la que tuvo la asistencia de un matemático balcánico más de seis meses para lograrlo, o la pintura cubista proyectando sus puntos de vista de más dimensiones de las usuales.

Con las redes neuronales ha ocurrido algo parecido. Muchos piensan, que pensamos tal como funcionan las redes neuronales, sin reparar que de ser así, sabríamos lo suficiente como para que el cerebro resultase un objeto asequible y sus ocultos secretos desvelados, localizados los emplazamientos de esas componentes inmateriales que, por mucho que se intenten explicar, no acaban de encontrar una certera explicación, creíble, plausible y coherente. Las redes, como tantas otras cosas, anteriormente mencionadas, son sumamente útiles, proporcionan la asistencia que requieren las personas y algunas de ellas nos han cambiado la vida y costumbres y son dignas de calificarlas como innovadoras.

Nuestras neuronas, se puede conjeturar que se comportan como compuertas lógicas. Capturan señales promediadas del entorno en el que se sitúan y en función del resultado se disparan o no lo hacen. En las redes neuronales artificiales este proceso se simula empleando multiplicación de matrices, aunque la tarea puede consumir mucho tiempo y recursos de ordenador. Soljacic y Englond, Investigadores del MIT han evidenciado que las operaciones matriciales que subyacen al cálculo que llevan a cabo las redes neuronales artificiales pueden llevarse a cabo de forma más rápida y eficiente empleando circuitos fotónicos que incluyen desdobladores de haces de fotones y modificadores de fase programables que permiten manipular las señales de entrada a una matriz de neuronas y calcular los valores de determinadas respuestas neuronales. Los guía-ondas se pueden acoplar y ajustarse para imitar las conexiones neuronales fuertes y las débiles que corresponden a procesos de aprendizaje realistas. Con estos circuitos construyen redes neuronales profundas incluyendo varias capas de neuronas artificiales que se entrenan para reconocer voces simples. Se registraron hasta 180 casos de cuatro vocales diferentes pronunciadas por unas voces diferentes y la red neuronal las clasificó correctamente acertando hasta en un 75% de los casos. Incluyendo más neuronas es de esperar que se mejoren los resultados.

Una red conceptual incluye hasta cuatro por capa en la actualidad, pero el estado del arte tecnológico permite la nano-fabricación de miles de ellas. Hay una cierta inercia en el tratamiento de las redes y  la electrónica convencional sigue empleándose en el disparo de las neuronas. Si se incorporaran disparadores ópticos con colorantes no lineales o semiconductores, por ejemplo, el empleo de la electrónica convencional quedaría limitada a la etapa de entrenamiento solamente. Una vez entrenada la red sería capaz de efectuar los cálculos hasta dos órdenes de magnitud más rápido. Láseres y fotónica revolucionan día a día las expectativas de las técnicas convencionales. Los procesos más rápidos, como los que realizan los actuales computadores, se ven enfrentados a alternativas de mejora sustancial con la incorporación de la luz a las tareas básicas de transporte y compuertas que siguen configurando a los ordenadores convencionales. El futuro se muestra esplendoroso

TRANSPORTE BIOLÓGICO por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

Es corriente que la ingesta de los fármacos se efectúe sin atender a la especificidad de su acción, ni su adecuación a la necesidad del organismo. Con o sin prescripción profesional, se ingiere. No se toman precauciones. Se piensa de forma generalizada que una sustancia ingerida sabe donde tiene que ir, como tiene que alcanzar su objetivo y, en todo caso, que su exceso o inadecuación son inocuos y que el organismo no se ve afectado por su presencia indeseable en las inmediaciones celulares, porque en todo caso, las células no implicadas no se van a ver afectadas. Nada más lejos de la realidad. Cualquier ingesta de cualquier molécula, no es ni gratuita ni inocua. Las células se ven afectadas de alguna forma y los mecanismos que se disparan dependen de muchos factores, también de los mecanismos de transporte que conviene conocer, aunque fuere someramente, para intuir cuales son las consecuencias conjeturables de la incorporación al sistema de transporte celular de cualquier molécula por recomendable que pudiera parecer. Esos conjunto de pastillas que conforman un arco iris por las coloraciones con las que se disimula su “fealdad”, una vez ingeridas, pasan a estar fuera de control y se convierten en pasto de mecanismos de reacción en los que las fuerzas operantes con potenciales  eléctricos, concentraciones en membranas celulares, entornos en los que se desenvuelven las células y una especie de pandemia generalizada en la que todas juegan con sus propias armas, unas favorables y otras de riesgo evidente. La ignorancia no es nunca buena consejera. En esta faceta, menos que en otras.

Las células son sistemas bien definidos, estables, que intercambian con el exterior materia y energía. Esa comunicación es imprescindible para los procesos básicos de nutrición y excreción, además de otros que pueden desarrollar. Las proteínas son las que constituyen los sistemas de transporte, configurando poros selectivos por los que tiene lugar el paso de sustancias e incluso intervienen facilitando la entrada y/o la salida cuando la célula lo requiere. La velocidad con la que se mueven las sustancias a nivel celular tiene que ver con funciones que ejercen las proteínas que gobiernan con su afinidad los propios procesos de acarreo que constituyen los mecanismos de funcionamiento del transporte celular.

No se conocen con demasiado detalle los procesos implicados. Una proteína, que estructuralmente es una concatenación de aminoácidos, reconoce y selecciona el paso de sustancias. Solamente se dispone de modelos conjeturados a partir de datos que conforman aspectos parciales que incitan a más y más extensos estudios, tanto teóricos como experimentales. Una fuente de información importante son las investigaciones utilizando antibióticos.  No son sistemas de transporte, pero se comportan de forma parecida. Los producen ciertos microorganismos y actúan sobre seres vivos alterando su funcionamiento e incluso provocando su muerte. La penicilina es un excelente ejemplo ya que bloquea la síntesis de la cápsula que cubre la membrana celular de muchas bacterias, con lo que carente de ella se vuelven frágiles y no son capaces de responder a la presión del contenido celular sobre la membrana, induciendo la lisis y, por ende, desencadenando la muerte celular. Aquellos antibióticos que actúan sobre bacterias y son inocuos para los humanos o, en general, los animales, resultan útiles  para tratar enfermedades provocadas por aquéllas. Otros antibióticos, en cambio, son tóxicos  y resultan inducir la muerte, no solo de las bacterias, sino de las células animales o humanas. Incluso, hay que concluir que es lógico, siendo como son los antibióticos las auténticas armas con las que unas bacterias logran predominar sobre otros seres vivos, similares o no. Son sustancias que forman parte de los mecanismos de defensa. Habría que suponer, de forma bastante aproximada, que no hay antibióticos que no sean tóxicos, en alguna medida, para los animales en general y los humanos en particular. En todo caso, unos y otros, en especial los que resultan ser tóxicos, permiten estudiar y explicar los mecanismos implicados en su toxicidad y han revelado datos interesantes sobre los mecanismos de transporte biológico.

Moore y Presman estudiaron en 1964 la valinomicina implicada en la salida de potasio de las mitocondrias de las células del hígado de rata, que suponía alteraciones severas en el funcionamiento de aquéllas. A partir de aquí se extendió el estudio a otros sistemas biológicos. El efecto tóxico se explicó a partir de que la valinomicina tenía una estructura en forma de rosca, hidrofóbica en la parte externa e hidrofílica en la interna y que justamente la luz, el diámetro del cilindro interior era, con bastante exactitud, el del íón potasio. Ahora bien, como el ión potasio está envuelto en una esfera de coordinación de moléculas de agua, no cabe y no puede atravesar la membrana. Pero la valinomicina rodea al ión potasio y como la parte de fuera es hidrofóbica desprende las moléculas de agua y el ion potasio puede atravesar la bicapa de un lado al otro.  Si las mitocondrias se encuentran en un medio en el que no hay iones potasio, como las células si lo contienen en su interior, la valinomicina lo toma del interior y lo lleva al exterior. Hace de transportador de potasio. SI el potencial eléctrico es negativo en el interior de la célula, el antibiótico introduce iones potasio y hace que la concentración de potasio en el interior supere a la del exterior. El orificio interior de la valinomicina es la que actúa selectivamente con los iones potasio y genera una afinidad muy superior a la que tiene con el sodio, por ejemplo, porque en este caso, al ser un ión de tamaño inferior, la fijación es más débil y no lo transporta con la misma eficiencia. Si fueran iones de mayor tamaño, simplemente no caben. Al disponer la capa hidrofóbica en el exterior, la valinomicina se fija a la membrana ocupando la región hidrofóbica. Esto facilita la captura de los iones potasio del exterior, los mueve en el interior de la bicapa y los suelta hacia el lado de menor concentración. Si existe una diferencia de potencial eléctrico entre las dos caras de la membrana, soltará el ion potasio en la cara de la membrana en la que el potencial es negativo, pese a que la concentración pudiera ser mayor, con lo que contribuye a acumular el ión.

Otro antibiótico estudiado fue la gramicidina. Esta molécula es una cadena lineal de aminoácidos y actúa como ionóforo. Varias moléculas de gramicidina se acomodan enroscándose y forman una especie de túnel que cruza la membrana formando un poro con un tamaño que permite el paso de iones. La nistadina o la filipina forman poros mayores y permiten el paso de sustancias mayores que los iones. Básicamente, se puede concluir que los antibióticos permiten pasar a través de la membrana celular las sustancias de pequeño tamaño, pero no las proteínas ni otras moléculas mayores.

El modelado de estos poros o canales se ha concebido como un sistema de transporte rápido que implica un flujo a través de un túnel. Habría una entrada o filtro que discrimina las sustancias a escoger. Se distingue, como hemos visto, entre ión sodio y potasio, pese a que la única diferencia es el tamaño. Se concibe también una especie de compuerta que abre o cierra el paso de los iones. La simplicidad de los modelos que inducen los experimentos con antibióticos no alcanzan la complejidad de otros mecanismos. Por ejemplo, se han diseñado modelos en los que la proteína situada en la membrana tiene un lugar capaz de reconocer las sustancias que han de transportar, algo similar al mecanismo de actuación de las enzimas que ofrecen el sitio activo en el   que el sustrato se coloca. El mecanismo es similar al de los poros, aunque el paso a través de la membrana ahora se revuelve para desplazar el ión o induce movimientos peristálticos para transportar la sustancia de un lado a otro. Son procesos más lentos que los de los poros. No se conoce tanto detalle en este tipo de transportadores.

 

Los mecanismos de transporte suponen el intercambio de materiales de la célula con el medio que le rodea. Algunas moléculas como los antibióticos, hemos visto que actúan como mecanismos de transporte y, al tiempo, pueden matar a las células. La nistatina y la filipina hacen salir todas las moléculas o iones pequeños, por ejemplo. La selectividad es decisiva e implica el reconocimiento de forma individual de las moléculas o iones necesarios. Los sistemas transportadores de fosfatos, son específicos y no lo hacen con cloruros, ni sulfatos ni otros aniones. Pero también ocurre que iones similares como los arseniatos, altamente tóxicos, puede confundir al sistema y pasar por fosfatos. Con los azúcares ocurre algo parecido en el intestino delgado, aunque la velocidad del transporte es diferente según se trate.

 

La concentración también es un factor determinante. En medios muy pobres hay microorganismos que pueden sobrevivir, cuando los sistemas de transporte son muy eficientes transportando las sustancias nutritivas que están en concentraciones escasas en el medio. A veces se dan microorganismos que disponen de varios mecanismos de transporte para la misma sustancia. Un caso es las levaduras, ya que en un medio rico en potasio el mecanismo pone en juego una afinidad relativamente baja, mientras que si el medio es pobre la afinidad que desarrolla es muy elevada, hasta tres órdenes de magnitud la del caso anterior. Incluso es posible advertir la existencia de un sistema de control en la célula capaz de decidir que el transporte que requiere mayor afinidad, solo se desarrolla si previamente ha tenido lugar una situación de escasez, por ejemplo en potasio. Los sistemas que desarrollan mayor afinidad presentan velocidades menores y viceversa. Cuando hay interacción entre la sustancia a transportar y el transportador, la velocidad aumenta con la concentración. La velocidad no es ilimitada, nunca, dado que cuando se satura el sistema, la velocidad alcanza su límite.

 

Probablemente los sistemas de transporte fueron los primeros componentes de la membrana, ya que son determinantes para la propia existencia de las células. Los primeros seres, microorganismos que poblaron el planeta debieron actuar en medios ricos en materiales. Se tuvieron que especializar cuando el transporte debiera ser de materiales escasos. Estaba la supervivencia en juego. Hay sistemas de transporte que, solamente, aparecen cuando hay materiales a trasportar. El mecanismo de control regula la síntesis del transportador de alta afinidad, para no dilapidar energía la célula.

 

La especialización de los sistemas de transporte es de tal naturaleza que al avanzar la evolución surgieron las adaptaciones que permitían afrontar funciones muy especializadas, como las transmisiones nerviosas. Los receptores no son más que sistemas de transporte con capacidades de reconocimiento de ciertas moléculas, poniendo en juego afinidad y especificidad. La secuencia pudo ser que las células modificaron los sistemas originales de transporte para crear los receptores, lograr capacidad de comunicación y a partir de ahí construir sistemas de control. Las neuronas estarían comprendidas en esta categoría. Los sentidos, gusto y olfato, son el último peldaño evolutivo, capaces de detectar moléculas, disueltas o volátiles que les hace singulares en la escala evolutiva. Pero todo comenzó en los sistemas de transporte biológico. ¡Química!, ¡Pura química! Fascinante.

SIMETRÍA HUMANA por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

El cuerpo humano permanece inalterado solamente bajo dos operaciones de simetría: la identidad y la reflexión en un plano vertical, que es la que se denomina simetría bilateral. La primera de ellas, I, deja a cualquier cuerpo inalterado cuando se le aplica y la segunda, r supone una reflexión que reproduce la otra mitad en que queda dividido, en este caso el cuerpo, cuando imaginariamente situamos un espejo que pasa de arriba abajo desde la cabeza hasta los pies. El interrogante de interés es ¿qué ocurre cuando se aplican estas transformaciones, identidad y reflexión, sucesivamente? Reflexión y después identidad, y viceversa, es lo mismo que reflexión sólo. Si se aplican dos reflexiones sucesivas obtenemos, también,  lo mismo, es decir, es equivalente a la transformación que llamamos identidad. Podemos disponer una tabla, como la de multiplicar números, que exhaustivamente contenga todas las posibles duplas de transformaciones de simetría. Así

Hemos indicado con el signo · la operación sucesiva de dos transformaciones, una tras otra (la más próxima es la primera que se aplica y la más lejana se aplica al resultado que resulta de aplicar la primera). En nuestro caso, por ejemplo

 

r · r (cuerpo humano) = I (cuerpo humano) = cuerpo humano

Podemos, fácilmente, comprobar que esta tabla de multiplicación forma un grupo, porque no hay mas que comprobar que satisface las propiedades de un grupo:

1.- Clausura (cerradura), ya que la combinación sucesiva de dos transformaciones de simetría, es una transformación de simetría.

2.- Asociatividad: Para tres operaciones de simetría, p.ej, I r y r podemos agruparlas de  cualquiera de las formas que implican los paréntesis siguientes. I·r·r = I·(r·r) = (I·r) ·r, y el resultado que obtenemos es el mismo.

3.- Hay un elemento identidad: porque la identidad es una operación de simetría.

4.- Existe el inverso: en nuestro caso, cada una de las operaciones de simetría actúa como su inversa, dado que: r·r = I¸ I·I = I

 

Así pues, el grupo de simetrías del cuerpo humano, solamente contiene dos elementos, la identidad y la reflexión en un plano. Todas las transformaciones de simetría de cualquier sistema forman un grupo, siempre.

Lo curioso del caso es que a diferencia de la mayoría de los descubrimientos matemáticos, que planificada y denodadamente se buscan, nadie buscó, nunca, la teoría de grupos, ni siquiera una teoría de la simetría. El concepto surgió, como de forma espontánea, que no azarosa. No apareció buscando alguna solución a ninguna ecuación algebraica. El concepto cristalizó en el contexto de la teoría del caos. Su historia es tumultuosa. Le precedieron casi cuatro mil años de curiosidad. Tiene aplicaciones en campos científicos muy diversos como la astrofísica, en el estudio de los quarks o la criptografía. Históricamente está relacionada con la teoría de las ecuaciones algebráicas, la de números y la geometría. Matemáticos como Euler, Gauss, Lagrange, Abel y Galois implican sus nombres en su desarrollo. Se atribuye a Galois la denominación como grupo. Otros muchos matemáticos lo trataron después. Hoy nos beneficiamos de ello. Los cálculos cuánticos se benefician, ¡de qué manera!, de las simplificaciones que implica la simetría. De no ser por ella, buena parte de los problemas serían inabordables. Sin ir más lejos, es determinante la simetría para conjeturar las propiedades físicas: si un sistema molecular tiene una propiedad vectorial, debe estar situada sobre todos los elementos de simetría que tenga, dado que es la única forma en que la magnitud física, a la que no se puede ver afectada, permanezca inalterada ante cualquier operación  de simetría. De tener dos elementos de simetría no coincidentes, imaginemos un plano y un eje perpendicular a ese plano, el momento dipolar tendría que estar sobre ambos para no verse modificado. La única solución es que no lo tenga, ante la imposibilidad de satisfacer la condición. Y esto tiene consecuencias. Simplemente analizando los elementos de simetría, se deducen propiedades posibles o se niega su existencia. Si una molécula o tuviera momento dipolar, ni se generara una asimetría de la carga como consecuencia de algún movimiento, no podría exhibir espectro infrarrojo. Y esto se deduce sin llevar a cabo ningún experimento. ¡Realmente, extraordinario!

CRIPTOEQUILIBRIO: CRISTALES DE TIEMPO por el Prof. Dr. D. Alberto Requena Rodríguez, académico numerario

El tiempo es algo especial, algo aparte. La Relatividad lo sitúa en pie de igualdad con el espacio, en un todo unificado, pero en muchos contextos sigue exigiendo una consideración especial. Una manera de apreciar este estatus singular es comparar la simetría de traslación en el tiempo con otro tipo de simetrías. A simple vista, reparemos que mientras que en la simetría espacial translacional de átomos o en la simetría rotacional de los espines y en muchas otras, la simetría se puede romper espontáneamente. Cuando esto ocurre, el sistema es menos simétrico que en su descripción inicial. Un buen ejemplo que lo ilustra es el de un sólido cristalino. Fuera de él, las interacciones entre los átomos son las mismas en cualquier posición en el espacio. Ello supone que disfruta de una invariancia translacional. No se ve alterado su efecto, aunque cambiemos su posición en el espacio, Ahora bien, un cristal en el estado energético fundamental implica unos determinados puntos de la red cristalina, que pueden desplazarse y situarse en posiciones energéticamente equivalentes como consecuencia de la aplicación de una perturbación infinitesimal. Solo permanece invariante si los desplazamientos se producen dentro de estas posiciones específicas.

 

La ruptura de la simetría es un concepto universal en la Física moderna. De hecho, una descripción intuitiva del mecanismo de Higgs implica una ruptura espontánea de la simetría para otorgar la masa a las partículas. Podríamos pensar que, en el caso del tiempo, la simetría de translación en el tiempo, no debe afectar a las ecuaciones que gobiernan el sistema, que permanecen inalteradas tanto antes como después del instante considerado. La ecuación de Schrödinger prescribe que un sistema tanto en el estado fundamental, como en cualquier otro, se debe transformar si efectuamos una traslación en el tiempo, introduciendo como consecuencia solamente un factor de fase. Los sólidos cristalinos son obviamente periódicos en el espacio. Pero la periodicidad en el tiempo, parece ilusoria cuando tratamos de aplicar simetrías.  Tras la propuesta inicial de Wilczek en 2012, Watanabe y col. en 2015 propusieron que sistemas periódicos próximos a una descripción cuántica presentan una simetría de translación en el tiempo similar a los demás tipos de simetrías. Esto plantea un reto para interpretar el papel del tiempo que nos debe ayudar a comprenderlo mejor.

 

La teoría de Floquet es la que se emplea para estudiar las propiedades de sistemas de muchas partículas periódicos que presentan interacciones fuertes, como los cristales discretos en el tiempo. Es un estado de la materia imposible porque presenta una ruptura espontánea de la simetría de translación en el tiempo en sistemas en equilibrio. Pero queda abierta la opción de que se trate de sistemas con simetría de translación en el tiempo discretos en no equilibrio. Floquet estudió las ecuaciones diferenciales ordinarias  con una dependencia periódica con el tiempo. Si se emplea una base con una rotación dependiente del tiempo, realmente se convierten en un sistema equivalente en equilibrio. Es el denominado criptoequilibrio al albergar en su interior un equilibrio oculto. La ruptura de la translación en el tiempo discreta proporciona el sello experimental de un cristal de Floquet. Después de un periodo de transición inicial, el sistema exhibe oscilaciones con un periodo cada vez más largo. Estas oscilaciones en el tiempo no generan entropía y permanecen en fase en tiempos y distancias arbitrariamente grandes.

 

Cuando hablamos de estados de la materia nos referimos implícitamente al estado fundamental  como preferido por el sistema. En los cristales de tiempo discreto no es así. Estos sistemas no tienen un estado fundamental. Un cristal de tiempo discreto es un estado de la materia superposición de estados macroscópicos distintos, como si se tratase del gato de Schrödinger. Esta superposición son estados de Floquet. Hay hechos claves que distinguen los cristales de tiempo discretos de otros sistemas que pueden exhibir oscilaciones en periodos no establecidos.

 

Una analogía utilizando metano y grafito, empleada por Yao y Nayek, nos aclarará el alcance de estos conceptos. El grafito es una variedad alotrópica del carbono y la superficie es un cristal hexagonal. Vamos a hacer uso de ella para explorar tres conceptos base: 1) la ruptura de la simetría translacional discreta; 2) el orden espacial y temporal de largo alcance y 3) la importancia de interacciones de muchos cuerpos para establecer la simetría de la ruptura. La disposición de los átomos de carbono en el grafito supone una ruptura de la simetría translacional del espacio en una simetría translacional espacial discreta de una superficie hexagonal como un panel de miel que formarían los átomos de hidrógeno (hay que incrustar los átomos de carbono en esa superficie y ya no solo son hexágonos con átomos de hidrógeno, sino que hay que situar a los carbonos. Supongamos que adsorbemos moléculas de metano sobre esa superficie. A  temperaturas por encima de 60 K el metano es un líquido bidimensional sobre la superficie del grafito y cuando lo enfriamos se solidifica. El metano solidificado no puede encajar en la red de grafito subyacente. En función de su densidad puede cristalizar  en una subred superpuesta a la del grafito. Eso afecta a la simetría de la red del metano. De forma espontánea el metano adopta una disposición de más baja simetría que la red de panel de miel del grafito. Esto supone una ruptura de la ya existente simetría translacional espacial discreta. Esto sería una descripción de los efectos sobre la simetría translacional espacial. Veamos como establecemos la análoga con el tiempo. Al igual que el patrón repetitivo de los átomos de carbono del grafito en el espacio, ahora el patrón repetitivo será en el tiempo. Esto implica, en términos cuánticos, que el Hamiltoniano vuelve a ser el mismo cada vez que se cumple un periodo. La ruptura  de esta simetría de translación en el tiempo discreta, se manifestará como si cristalizase en una subred en el tiempo, con lo que el observable será una respuesta que tiene un periodo doble que el global subyacente.

 

Respecto a la ordenación de largo alcance tomemos una instantánea de una porción de la superficie del grafito, el estado liquido o cristalino de las moléculas de metano, no es tan obvio. Por un lado puede ocurrir que las fluctuaciones del estado cristalino puedan llevar las moléculas de metano de la subred en la que están a otra y esto hará aparecer un estado líquido. Por otro lado una pequeña región del estado líquido puede, observada momentáneamente, parecer cristal, como ocurre con el agua de una piscina para cualquier que se dé un “panzazo”, que percibe que el agua a distancia corta parece sólida. Pero si contemplamos una zona grande o lo que es equivalente, durante un tiempo grande, esa cristalinidad momentánea del líquido desaparece. Grandes zonas separadas suficientemente implicarán diferentes subredes y para tiempos amplios el cluster cristalino sobre la subred, es igualmente probable que sea una subred diferente y correspondiente a un instante posterior. La esencia del largo alcance es que hay que distinguir la ruptura de simetría (cristalina) de los estados sin ruptura (líquido). Diagnosticar un estado cristalino de las moléculas de metano adsorbidas es crucial para estar seguro de que las moléculas prefieren la misma subred en regiones distantes a diferentes tiempos, es decir que tienen orden espacial y temporal de largo alcance. Lo mismo es aplicable para el cristal del tiempo.

 

Las interacciones juegan un papel decisivo. El orden de largo alcance y las características de los estados cristalinos con ruptura de simetría de las moléculas de metano adsorbidas, requieren la existencia de interacciones. Solamente como consecuencia de la repulsión entre una molécula de metano con sus vecinas y entre éstas y las siguientes el sistema completo puede garantizar que todas las moléculas prefieren la misma subred. Si una fluctuación sitúa las moléculas en alguna región de una subred equivocada, la subred resultante  crea erróneamente un dominio que supone un coste de energía. Si el sistema está suficientemente frío, esa energía provocará fluctuaciones para situar la región equivocada en la subred que debiera estar. Este realineamiento requiere la existencia de interacciones. Es de esperar que el orden cristalino en el tiempo no trivial no procederá de la dinámica de partículas individuales, sino más bien de la sincronización colectiva de muchas interacciones de muchos grados de libertad.

 

Es un área de investigación recientemente inaugurada, con fuertes implicaciones cuánticas y que promete un campo de fases de la materia en no equilibrio, ya evidenciados experimentalmente, en el que los tiempos de coherencia se requiere que sean extensos para poder evidenciar el orden temporal de largo alcance y que pueda ser observado. Los sistemas que no están en equilibrio pueden contener muchos estados que no pueden existir si los sistemas estuvieran en equilibrio. Los iones atrapados, átomos atrapados para sustentar los qubits, pueden ser el soporte para fabricar cristales de tiempo y medir la evolución del sistema. El movimiento previsto es oscilatorio, periódico, característico de los cristales de tiempo e indicador de la ruptura de la simetría temporal.