Pensándolo bien…

EL CLIMA QUE TENDREMOS, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Admitiendo que el clima es un concepto complejo, el cambio del clima supone y deriva de que los cambios de los elementos que lo configuran, de la modificación de sus valores, independientemente de la causa que origine la modificación. Precisamos establecer cuáles son los factores que configuran el clima, para poder analizar si están sufriendo o no cambios. No es fácil la definición de clima, porque pudiéramos entenderlo desde el punto de vista estadístico, como el registro del tiempo meteorológico a lo largo de un intervalo y en un determinado y concreto territorio. Tanto uno como otro factor, son susceptibles de extenderse más o menos ¿Da lo mismo el tiempo que consideremos o el área geográfica que analicemos? ¿Es igual considerar el Mediterráneo completo que España? ¿Es lo mismo el clima en Europa que el clima global?

Normalmente, se consideran la temperatura del aire y la precipitación como las variables determinantes. Hay muchas otras, como viento, radiación, etc o combinaciones de ellas que, sin duda, lo describirán de forma más completa. A su vez, estadísticamente podemos estar pensando en obtener medias en un horizonte temporal determinado: año, mes, década, etc. Pero no cabe duda, de que no solo son significativas las variaciones a lo largo del periodo considerado, sino también los fenómenos que se dan de forma extraordinaria y singular. Es corriente caracterizar el clima, sólo con la temperatura media del aire en la superficie de la Tierra, en cuyo caso, deberíamos explicar por qué la temperatura media de la Tierra es de 15 ºC. De todos modos, la importancia radica en los cambios de esta media, porque subidas significativas, implican cambio en la forma de vida de todos los seres vivos, que alberga.

La Tierra intercambia energía con el resto del Universo, buscando el equilibrio entre la energía que recibe y la que emite. Pero ese intercambio de energía solamente se puede llevar a cabo mediante mecanismos radiativos, por lo que hablaremos del balance radiativo. La Tierra recibe radiación solar de las regiones del espectro visible, infrarroja y ultravioleta. Dada la actividad actual del Sol y la distancia concreta a la que nos encontramos, la radiación media anual que incide en una superficie horizontal perpendicular es de 1367 W por metro cuadrado. Varía muy poco, por lo que se denomina constante solar. Ahora bien, no todo el flujo solar llega perpendicularmente a la Tierra y podemos considerar que, en cualquier tiempo, se expone solamente la mitad de la superficie, por lo que el valor efectivo se puede estimar en una cuarta parte de la constante solar, unos 342 W/m2. Pero, si solamente se absorbiera esta energía, la Tierra se iría calentando progresivamente. Ocurre que una fracción (albedo) se refleja al espacio, dejando de incidir en ella y calentarla. Además, según Planck, cualquier cuerpo que se encuentra a una temperatura por encima del cero absoluto emite radiación, con lo que la Tierra emite constantemente radiación, eso si, de mayor longitud de onda (infrarroja) que es la llamada radiación terrestre.

Si el clima dependiera del balance de la radiación solar neta (diferencia entre la que proviene del Sol y la reflejada) y de la radiación terrestre emitida, la temperatura sería muy distinta a la actual. Esto nos hace considerar que precisamos un segundo elemento significativo en la ecuación, que es el que proviene de que la atmósfera es un conjunto (mezcla) de gases que la envuelve, y que es lo que llamamos aire. Además, el aire mantiene partículas en suspensión, que se presentan en distinta abundancia según los sitios, y ahí tenemos las nubes y los aerosoles. Las nubes son diminutas gotas de agua líquida en suspensión o heladas si están a altura suficiente que se mantienen en el aire por su pequeño tamaño, oscilando entre 0,2 y 0.3 mm de diámetro y si alcanzan entre 1 y 5 mm entonces precipitan. Las nubes afectan el balance radiativo, porque reflejan la luz solar, de forma eficiente. El albedo con nubes, pasa a ser de un 30%. Si la radiación reflejada es mayor que la absorbida, como puede ocurrir por efecto de la presencia de las nubes, la temperatura podría descender bastantes grados por debajo del cero.

Hay otro balance a considerar. Algunos gases que constituyen el aire absorben radiación visible, ultravioleta y/o infrarroja, como ocurre con el agua, nitrógeno, oxígeno, dióxido de carbono, metano, óxidos de nitrógeno, ozono, etc. La atmósfera absorbe radiación terrestre, además de reflejar la que viene del Sol. Este es el efecto invernadero. La eficiencia de los distintos gases es diferente. Así pues, las nubes reflejan radiación solar y absorben la radiación terrestre. Algunos aerosoles reflejan radiación y otros son absorbentes eficientes de la radiación terrestre. Si tenemos en cuenta estos efectos, la temperatura media que obtendríamos sería de unos 15 ºC.

Si analizamos la evolución de las concentraciones de dióxido de carbono, metano y óxidos de nitrógeno a partir del aire ocluido en el hielo, según el informe del IPCC (Ciais et al., 2013), comopropone Josep Calbó en la revista Método, comprobaremos que, hasta el comienzo de la era industrial (1750) se mantienen las concentraciones constantes, en torno a 280 ppm (partes por millón), 600 ppb (partes por billón) y 260 ppb, respectivamente, para dióxido de carbono, metano y óxidos de nitrógeno. Pero, desde el comienzo de la era industrial hasta ahora, el crecimiento ha sido exponencial, superando las 390 ppm, 1800 ppb y 330 ppb.

El clima ha variado notablemente a lo largo de toda la existencia en la Tierra. Los cambios están íntimamente relacionados con el cambio en la radiación solar emitida por el Sol y los cambios de la composición de la atmósfera. Una vez instaurada la fotosíntesis en la Tierra, se ha restado CO2 de la atmósfera, mediante la fotosístesis, al tiempo que se ha emitido a ella el oxígeno, que se ha convertido actualmente en el segundo gas más abundante, tras el nitrógeno. Si nos limitamos a, por ejemplo, el último millón de años, en que el Sol apenas ha cambiado y la Tierra ha mantenido una distribución de tierra y agua, parecidas a las actuales y que los gases atmosféricos, se han mantenido en una composición parecida, los cambios acontecidos han sido los ciclos glaciación – interglaciación. Es decir, periodos más fríos que el actual con duración de unos 100.000 años, en los que el nivel del mar se situaba muy por debajo del actual y unos periodos más breves, de unos 20.000 años con clima parecido al presente. Estos ciclos tienen que ver con ciclos de la órbita terrestre descrita alrededor del Sol, modificando excentricidad, oblicuidad (inclinación del eje de la Tierra con respecto a la eclíptica) y la precesión de los equinocios. La combinación no modifica, de forma sustancial, la cantidad de radiación solar que llega a la Tierra, pero sí varía su distribución en los hemisferios y a lo largo del año.

 

Una disminución de la radiación incidente en los meses de verano en el hemisferio norte, puede estar en el origen del enfriamiento global, que puede acabar provocando una glaciación, aunque haya que recurrir a una superposición de varios efectos para justificar el hecho. El primer efecto a considerar es la formación del hielo y su incidencia en el albedo. Si en verano llega menos radiación a la Tierra, por cualquier circunstancia, se funde una fracción menor de la nieve caída en invierno. Mayor cantidad de nieve supone un aumento del albedo, significando que se absorbe menos radiación solar, lo que incrementa el enfriamiento. Otro efecto concomitante proviene de los gases de efecto invernadero. Por un lado, al iniciarse el enfriamiento, disminuye el contenido de vapor de agua de la atmósfera, al reducirse la evaporación y también el punto de saturación del vapor de agua en el aire, al disminuir la temperatura (recordar lo que justifica que se empeñen los parabrisas de un coche). Por otro lado, el CO2 se absorbe mejor por los océanos, tanto debido al cambio de la solubilidad (la solubilidad de un gas disminuye al aumentar la temperatura), como por el aumento de la actividad fotosintética del fitoplancton. En suma, al iniciarse un enfriamiento, acontece que disponemos de menos vapor de agua y CO2, lo que viene a implicar menor efecto invernadero y, por tanto, más enfriamiento. Es decir es un bucle que se refuerza a si mismo, el denominado bucle explosivo.

Otro elemento adicional a los considerados es la circulación oceánica, que dicen que es muy sensible a la temperatura del Atlántico Norte. Es esta circulación la que globaliza el enfriamiento que se inicia en un hemisferio, el norte. Todas estas circunstancias se invierten al final de los periodos glaciales y dan pie a los periodos interglaciares, como el actual. Aunque es cierto que el clima no se mantiene constante. Por ejemplo, al final de la última glaciación, cuando la temperatura media había aumentado a niveles similares al actual, la Tierra se volvió a enfriar de forma súbita, y aún no está clara la explicación, se apela a razonar con la circulación oceánica, debilitada por la aportación de agua dulce y fresca proveniente de la fusión del hielo en el Atlántico Norte como factor decisivo. De hecho entre los siglos XIV y XIX el enfriamiento fue de 1-2 ºC debió ser global, aunque documentado sólo en Europa. De nuevo las causas tienen que ver con la radiación solar. El denominado efecto Maunder establece la relación con las manchas solares, que justifica el llamado mínimo de Maunder, cuando transcurren unos decenios en que no se presentan (1645 a 1715), lo usual es observar entre 40.000 y 50.000 manchas y durante esos 30 años solamente se observaron 50, lo que indica disminución de actividad solar y una composición atmosférica que cuando hay actividad volcánica y se lanzan aerosoles a la atmósfera, se refleja más radiación al espacio.

Los cambios habidos en los últimos decenios han provocado la constitución del Grupo Intergubernamental de Expertos en el Cambio Climático (IPCC). La observación de la temperaturas, disponibles de manera global, revelan que en el periodo 1880-2012 la temperatura media ascendió 0,85 ºC. Es más, esta acumulación se ha concentrado en los últimos cuarenta años. Cada uno de los tres decenios anteriores ha sido más cálido que el anterior y, a su vez, todos ellos con más cálidos que el último milenio. En este caso, no ha habido cambios en la radiación solar incidente, sino sólo en la composición atmosférica, aumentando la concentración de los gases de efecto invernadero y en particular de CO2. En efecto, como señala Josep Calbó, el CO2 se ha incrementado de forma continua desde la revolución industrial, como resultado del empleo de combustibles fósiles y como demuestran las medidas directas. Los datos dicen que, recientemente, la concentración de este gas ha superado las 400 ppm que supera en mucho a los 280 ppm del año 1800 y es un nivel que no se había alcanzado jamás. Pero el CO2 no es el único gas con efecto invernadero que la actividad humana pone en la atmósfera. Hay otros que, aunque provoquen una magnitud menor, se suman al efecto provocar la absorción de más energía de la que se libera. El metano, los hidrocarburos y los óxidos de nitrógeno, son buenos ejemplos.

Al aumentar la temperatura hay otros mecanismos que inician su andadura sintonizados con los ya señalados. Incremento del vapor de agua de la atmósfera, disminución de la cubierta de hielo (menor albedo) y la aportación de propia actividad humana que provoca otras emisiones en forma de partículas (aerosoles) que, mayoritariamente, tienden a reflejar más radiación solar que la radiación terrestre que absorben. Además concurren otros mecanismos como la cantidad y tipos de nubes que podrían, también al mismo tiempo estar contribuyendo a moderar el enfriamiento. Sea como sea, no hay dudas sobre la causa entrópica del cambio climático actual, dado que la única forma de conseguir respuestas cabales de los modelos climáticos es incluyendo las emisiones de los gases de efecto invernadero y los aerosoles, porque si solamente se consideran las causas naturales no se puede simular el calentamiento actual razonablemente.

Los cambios de uso del suelo que modifican, también el albedo, provocados todos ellos por la actividad humana, están influyendo en el clima y todo indica que lo continuarán haciendo si no lo remediamos. La cuestión abierta es esta: ¿cuál es el cambio climático futuro al cual la humanidad será capaz de adaptar sus estructuras socioeconómicas y cuáles serán las medidas capaces de mitigar las emisiones que pondrán en práctica una vía para superar un calentamiento intolerable? Paris tiene la palabra. Los antecedentes no son muy halagüeños. Paris terminará proponiendo, otra cosa es que sus propuestas sean las apropiada y en el tiempo justo. Como nunca, anteriormente, en sus manos y voluntades, que son las nuestras, está el clima que tendremos.

EINSTEIN Y LA BELLEZA DE LAS ECUACIONES, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Se le atribuye a Platón la afirmación de que Dios hace geometría. Para Aristóteles la belleza radicaba en la simetría. Los sólidos platónicos representaban la perfección del Cosmos. Para los antiguos griegos, tanto la Naturaleza como la obra humana de arte exhibía la proporción aurea, que viene a concretar una idea tan simple como perfecta: el todo se divide en dos partes tal que, la proporción entre la parte menor y la mayor es igual a la proporción entre la mayor y el total. La gran profusión de ejemplos en la Naturaleza que obedecen a la proporción aurea hace pensar en la relación que debe haber con estructuras estables que concilian campos de fuerzas que operan en los sistemas naturales.

No cabe duda de que muchos descubrimientos han estado guiados por la estética. La belleza y la armonía van de la mano en las culturas conocidas. Los mandalas plasman figuras geométricas que vienen a ser una representación de las fuerzas que operan en el Universo y que se emplean para la meditación. No nos podemos sustraer a una multitud de objetos con formas geométricas bellas que se representan mediante fórmulas matemáticas. No es de extrañar que en estos escenarios las teorías científicas incluyan un sentido estético, aunque pueda parecer un tanto extraño que el factor estético haya influido en el desarrollo de la Ciencia, y máxime si nos atrevemos a afirmar que el mismo Einstein estuviera inspirado en un concepto de simetría y belleza, para proponer la teoría de la relatividad. Pero lo cierto y verdad es que Einstein utilizaba el criterio estético para seleccionar las soluciones de sus ecuaciones de campo.

La simetría en la Naturaleza es un elemento que se ha ido desvelando a los científicos al ir profundizando en el conocimiento de la misma desentrañando las leyes que la gobiernan. En el fondo hay una conexión muy profunda entre la simetría geométrica y las leyes de conservación que la Física formula. Por ejemplo, en un sistema aislado, la energía, la cantidad de movimiento y el momento angular son invariables en el tiempo. La simetría implícita en las Leyes de la Mecánica de Newton, se puso de manifiesto con la reformulación matemática posterior de Lagrange y Hamilton. Ha ocurrido en muchas ocasiones, que han sido las formulaciones matemáticas las que han puesto de relieve las simetrías. Ocurre, como si la belleza requiriera la matemática para exhibirse. Y es precisamente por ello que en la Historia de la Ciencia, han sido las ecuaciones matemáticas las que ponen la belleza de manifiesto y sirven para indicarnos que se avanza en la dirección correcta. Es como si la formulación matemática de la teoría fuera le terminación de una obra de arte.

Hay muchos ejemplos que evidencian la relación belleza-teoría. Las ecuaciones de Maxwell, fusionando las teorías de campo eléctrico y magnético, son de una belleza extraordinaria. Qué decir de la simetría de grupos de Lee que impulsaron la cromodinámica cuántica. Dirac fue realmente lejos al afirmar que “la belleza de una teoría científica es mucho más importante que el que una ecuación responda a todos los hechos experimentales” Lo hizo al socaire de la descripción cuántica relativista del electrón que predecía la existencia del positrón, una partícula semejante al electrón, pero con carga positiva, es decir, un antielectrón. La simetría de su descripción era superior a la de Schrödinger. Algunos científicos, como Heisemberg calificó la propuesta de Dirac como el capítulo más triste de la Física moderna. Finalmente, Anderson demostró experimentalmente la existencia del positrón. Hoy es sumamente útil al ser la base de la técnica no invasiva de diagnóstico denominada PET (tomografía por emisión de positrones). Dirac tenía razón.

La teoría de la relatividad general es una teoría de la gravitación que soslaya la consideración de la acción de las fuerzas a distancia, base de la teoría clásica de Newton. Einstein, predijo que los rayos de luz en un campo gravitatorio, sufrirían una deflexión. Era difícil comprobar experimentalmente la propuesta, dado que se tenía que usar el Sol y las estrellas próximas, que únicamente son visibles durante un eclipse solar total, y aún así, el brillo de la corona no deja ver los rayos que se sitúan a distancias menores de dos radios solares. Se registraba una fotografía del campo de estrellas en torno al sol cuando acontecía el eclipse y se comparaba con otra fotografía nocturna de la misma zona, cuando el Sol no se sitúa entre las estrellas que se examinan y la Tierra. El primer intento fue en 1912 y el protagonista fue el director del Observatorio Nacional de Argentina, Perrine. Las condiciones meteorológicas impidieron que estudiara la desviación de la luz en un eclipse observable en Brasil. Posteriormente, hubo otro intento en 1914 por parte de Freundlinch en el Observatorio de Berlín, pero el estallido de la primera guerra mundial impidió que se llevara a cabo el experimento previsto en Crimea, donde fueron hecho prisioneros todos los miembros de la expedición y confiscados los aparatos que portaban. En 1916 Perrine, de nuevo, lo pretendió intentar en un eclipse observable en Venezuela, pero la escasez de medios lo impidió. En 1918 el eclipse tendría lugar en Washington, Curtis no pudo experimentar dado que el equipamiento seguía en manos rusas, desde el incidente de Crimea y la calidad de la observación era muy deficiente, con lo que las imágenes de las estrellas fueron muy borrosas. Fue en el año 1919 cuando se dio la circunstancia favorable para determinar experimentalmente la predicción de la influencia de la geometría en la curvatura de la luz, aprovechando un eclipse de Sol que tuvo lugar el 29 de mayo de ese año. Para ello se montaron dos expediciones, una al Atlántico Sur dirigida por Eddington, que trabajaba en el Observatorio Real de Greenwich, como ayudante del astrónomo real Dyson y observaría un eclipse ideal que acontecía en una región del cielo repleta de estrellas brillantes que conforman el clúster de las Hyades, en la constelación de Tauro. Para evitar contratiempos como los de mal tiempo, que impidiesen la observación estelar, mientras que la expedición formada por Eddington y Cottingham, cuyo destino fue la isla del Príncipe, otra expedición, integrada por el Director del observatorio de Greenwich, Crommelin, junto a Davidson, iría a Sobral, a ochenta kilómetros de la costa de Brasil, libre de turbulencias atmosféricas, lo que permitiría efectuar tomas fotográficas útiles para la medición. El eclipse se iniciaría en el Pacífico oriental, pasaría a América del sur, luego al Atlántico sur y, finalmente, finalizaría al atardecer en Africa. El cielo se oscurecería solamente cinco minutos. El 29 de mayo amaneció con tormenta y el eclipse en Príncipe se iniciaba a las dos de la tarde. Aunque dejo de llover una hora y media antes del eclipse total, no llegó a despejar totalmente. Aun así, no dejaron de hacer fotografías, hasta un total de 16, confiando en que alguna luz se filtraría a través de las nubes. La calidad de las tomas era deficiente y solamente en dos de ellas se veían hasta cinco estrellas. Midió escrupulosamente y le pareció detectar el desvío. Por otro lado, en Sobral, el otro equipo, dirigido por Crommetin y Davidson, realizó una observación más efectiva que la de Príncipe, obteniendo hasta 24 placas, en cada una de las cuales se veían entre siete y nueve estrellas. Por otro lado en el observatorio de Lick, que no pudieron llevar a cabo una expedición, por falta de recursos, no veían de buen grado, quedarse fuera del descubrimiento, dado que habían hecho en el pasado un gran esfuerzo (recordemos la expedición a Crimea) y disponían de instrumental para poder llevar a cabo los cálculos. Las placas que había hecho Curtis en el eclipse de 1918 podían examinarse. Campbell le incentivó a efectuar las medidas. Pese a que las imágenes eran borrosas, idearon un procedimiento para efectuar las medidas. En junio de 1919 dieron a conocer los resultados en un congreso celebrado en Monte Wilson, concluyendo que el efecto predicho por Einstein, no existía. Campbell lo notificó en una reunión especial de la Real Sociedad Astronómica. Cuando estas conclusiones llegaron a oídos de Einstein, se dice que afirmó con rotundidad: “Los experimentos están equivocados, no es posible que una teoría tan bella, pueda ser falsa” .

Einstein esperaba los resultados de Edddington, que éste comunicó en un Congreso en Bournemouth, concluyendo una curvatura para la luz entre 0.9” y 1.8”, lo que era consistente con las predicciones de la teoría de la relatividad. Es por ello que fue publicada la verificación de la teoría como “la auténtica constitución del universo”. No obstante Einstein precisó en una publicación en Naturwissenschaften, que el valor que se exigía en la teoría era de 1.7” y que se requería mayor exactitud en el experimento. Las placas procedentes de Sobral daban como resultado 1.98”, afectado por un error de 0.12”. En otro conjunto de datos de Principe, Eddington obtuvo el resultado de 1.61”, que pese a la incertidumbre era el valor más aproximado al predicho por la teoría de la relatividad. En consecuencia, estrictamente hablando no se había confirmado la teoría de la relatividad general. Eddington, convencido de la corrección de la teoría, descartó los datos de Sobral y promedió los restantes, llegando a una desviación de 1.75” que encajaba perfectamente con el pronóstico de la teoría. La noticia le llegó estando en casa de Ehrenfest, contenida en una carta que Eddington le dirigía al astrónomo Hertzsprung. Einstein le escribió al que fuera su gran amigo, Max Planck, diciendo “es un regalo del destino que se me permita experimentar esto”. En una reunión conjunta de la Royal Society y la Royal Astronomical Society, su presidente Thomson comunicó el descubrimiento de la relatividad general. “No es el descubrimiento de una isla remota, sino de todo un continente de nuevas ideas científicas”.

Queda acreditado que la belleza de las ecuaciones es indiciaría de la veracidad de una teoría en la Ciencia, cuando trata de explicar los fenómenos de la Naturaleza. La estética establece como una especie de guía de búsqueda de nuevas y poderosas simetrías subyacentes en muchos de los secretos que esconde la Naturaleza. Es cierto que hay muchas teorías que han sido bellas y no por ello ciertas. Hay demasiados contraejemplos, algunos, incluso recientemente, pero esa especie de respaldo a la veracidad de una teoría derivado de su belleza, es una constante en la Historia de loa Ciencia. Seguramente se puede explicar a partir de la percepción de ambas: verdad y belleza, para las que el campo electromagnético es la interacción clave, descrito en un sistema de coordenadas de tres más una dimensión. A nivel macroscópico, ambas producen sensación de armonía al ser humano. El neurólogo Semir Zeki ha localizado la región del cerebro en la que se registran las experiencias de certeza y belleza, concluyendo que cuando son positivas, ambas coinciden en la región orbitofrontal del cortex. Nada es casual, ¡claro!

Tiempo neuronal, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

El control del tiempo es preciso en muchas actividades humanas, desde mantener una conversación, hasta ejercitarnos en tocar un instrumento musical o participar en un partido de tenis. La medida del tiempo por las neuronas y la capacidad de reproducción de los intervalos por nuestro cerebro es una actividad investigadora que forma parte de las tareas que abordan los neurocientíficos contemporáneos.

No es nuevo afirmar que el cerebro está compuesto por neuronas. Han habido muchas estimaciones del número de neuronas que componen el cerebro. Es usual adoptar la cifra de unos ochenta y seis mil millones de células nerviosas las que suponemos tener. Varía de unos animales a otros pero, en todo caso disponen de unos cuantos millones de neuronas. Otra cosa distinta es concluir en que se emplean cada una de ellas, individual, zonal o grupalmente. Probablemente se puedan catalogar las distintas funciones que el cerebro es capaz de llevar a cabo, pero concretar cómo y de qué forma y dónde se alberga la información requerida para llevar a cabo la tarea, es cosa bien diferente y vedada, en gran medida, hasta el presente, al conocimiento de la Humanidad, por mucho que se haya avanzado, especialmente en los últimos tiempos, como la identificación de rostros localizada en parte posterior del hemisferio derecho del cerebro, lo que lleva a que enfermedades neurodegenerativas como la enfermedad del Alzheimer o trastornos de autismo merman la habilidad para reconocer rostros al haber dañado esa parte del cerebro. Los científicos conocen desde hace tiempo la especificidad funcional en ciertos ámbitos. Se sabe que en el sistema motor hay un grupo de neuronas que controlan los movimientos de la mano izquierda, otros que controlan la lengua. Pero cuando se trata de funciones más complejas, las cosas no son tan meridianas: reconocer rostros, usar el lenguaje o efectuar cálculos matemáticos todavía se resisten. Hay alternativas que proponen la existencia de áreas especializadas del cerebro y otras que proponen la existencia de zonas multiuso para el desarrollo de actividades cognitivas. En el caso del lenguaje, Fedorenko del MIT ha llevado a cabo estudios mediante escaneo del cerebro empleando resonancia magnética funcional de imagen, que mide la actividad cerebral asociada a tareas cognitivas, pero sus resultados no han sido muy concluyentes. Se han llevado a cabo muchos experimentos en tareas distintas de la lingüística, como la memoria de trabajo, la música o la aritmética, que activan las mismas áreas cerebrales que el lenguaje. No está todavía claro si se trata de superposición de áreas en las actividades cognitivas o problemas asociados a las metodologías de estudio empleadas. Es posible que, finalmente se concluya en que hay áreas específicas dedicadas al lenguaje, que no se emplean en nada más.

Una cuestión importante está relacionada con el tiempo y su medida por parte del sistema neuronal. Supongamos que nos enfrentamos al experimento de apretar un botón cuando se encienda una bombilla y accionarlo antes de que se apague. Naturalmente, la dificultad se incrementa si se reduce el tiempo de permanencia de la bombilla encendida. La capacidad de estimar un intervalo de tiempo que se repite regularmente y que, por tanto, permite predecir cuando tendrá lugar el siguiente intervalo, implica una compleja actividad neuronal. La propuesta de Delgado y Gruart es que, cuando se trata de tiempos cortos, inferiores a un segundo, las neuronas de la corteza prefrontal resultan activadas por un oscilador que bate cada 100 milisegundos (10 veces por segundo), mientras que para tiempos superiores utilizan señales externas.

Jazayeri, del Instituto McGovern para la Investigación del Cerebro, dependiente del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, y Shadlen, de la Universidad Columbia en Nueva York, han identificado que en el cortex intraparietal lateral radica la función sensomotora que representa el tiempo transcurrido, donde los animales superiores miden y reproducen los intervalos temporales. De alguna forma se identifica que se efectúa una estimación del tiempo transcurrido entre dos eventos que ha vivido. Al mismo tiempo los dos primeros autores han evidenciado cómo los patrones de disparo de las neuronas de la corteza intraparietal lateral son los que coordinan los aspectos sensoriales y motores del tiempo. Es en esta zona del cortex intraparietal lateral donde, probablemente, se sitúa uno de los nodos que mide el tiempo, pero la estimación posterior de intervalos equivalentes, no se lleva a cabo como lo haría un cronómetro, sino mediante una inferencia probabilística, es decir, sacando consecuencias que conducen a resultados, mediante una evaluación mental entre alternativas formuladas como abstracciones que conducen a una implicación lógica, reteniendo la que tiene mayores probabilidades de satisfacer las condiciones, es decir de responder verazmente a los requisitos. Según Ghose, no parece que haya un reloj central que sincronice todas las tareas, sino que los circuitos responsables de cada acción producen las señales de temporización independientemente

Se trata, por tanto, de un comienzo a explicar matemáticamente lo que sucede en el cerebro cuando tienen lugar estos procesos mentales. No obstante, disponemos de un excelente despertador en la cabeza y mediante hormonas y estímulos cerebrales, como la melatonina, controlan cuando necesitamos dormir siguiendo el patrón de nuestro ritmo circadiano y cuando se altera, como ocurre cuando viajamos a otro meridiano, cambiando la hora, el cuerpo requiere un tiempo para volverlo a controlar. Se afirma que cuando se deja a una persona en la oscuridad 2-3 días, pierde totalmente la noción del tiempo, ya que sin luz no hay control de ese ritmo. El neurofisiólogo Meck propone que el control del tiempo lo realizan las neuronas espinosas, aunque la velocidad de medida es modificable y tiene que ver con la dopamina. Al incrementarse el contenido de dopamina, el tiempo parece transcurrir más deprisa. En esta percepción radica que cuando estamos aburridos, al tener menos estímulos, generamos menos dopamina y la sensación que se produce es de mayor lentitud. Ocurre lo contrario cuando estamos estimulados y producimos mayor cantidad de dopamina y nos produce la sensación de que el tiempo fluye más deprisa. Lo bueno suele durar poco

EL ESCULTOR DEL UNIVERSO, por el Pof. Dr. D. Alberto Requena, académico numerario

albertorequena

Los cúmulos cósmicos agrupan estrellas. Unas mil estrellas se observan en una noche oscura. Hay lugares en la galaxia que nos abrumarían de observarlas con detalle. Centésimas de años luz distan una estrella de otra. Los elementos de la vida se generan en las explosiones de las supernovas. La cuestión relevante es ¿por qué son importantes los cúmulos y por qué son claves para desentrañar el universo?.

 

Un ejemplo de cúmulos, las Pléyades que están constituidas por más de mil estrellas aunque a simple vista, solo se ven un puñado. Son conocidas como las siete hermanas. Solo se ven seis y con vista aguda, ocho, nueve o diez. Pudo haber una en la antigüedad que brillara más. Pueden encerrar los secretos del universo y ser la clave para desentrañar. cómo nacen, viven y mueren las estrellas. Como los demás cúmulos, se encuentran cerca de la Tierra. Todo lo que sabemos de las estrellas deriva de la luminosidad inherente. Con las estrellas del cúmulo parece como si estuvieran todas a la misma distancia, como los espectadores de un partido de fútbol visto desde un globo. Dos coches con faros que brillan por igual, ocurre que cuando están a distancias diferentes, los mas distanciados (cuadrado inverso) son menos brillantes. Pero a veces una luz que parece menos brillante realmente lo es. Una linterna al lado de un faro es menos brillante, no porque esté más lejos. Las pléyades participan de todo: iguales distancias y diferentes distancias. Un cúmulo es como una instantánea en un momento dado. Las estrellas más grandes y brillantes resultan ser las más peligrosas. Valdría el dicho: “vive a tope, muere joven”. A 80 años luz de la Tierra, la Osa Mayor, tiene cinco estrellas centrales, el gran “cucharón”. Se movían juntas por el cielo. Aunque formen parte de la misma constelación no tienen nada que ver unas con otras. En la Osa Mayor las estrellas se formaron al mismo tiempo y se mueven juntas. ¿Por qué unas están más separadas que otras? Son los denominados cúmulos abiertos: formación libre, se forman en los brazos en espiral de una galaxias en espiral, Todas las estrellas nacen en los cúmulos, pero los brazos se van abriendo por el efecto de otras estrellas. La gravedad dispersa los cúmulos como cuando soplamos sobre un puñado de confeti. En los cúmulos siempre hay algunas estrellas que parecen más importantes. La densidad de estrellas se concreta en una por cada cincuenta años luz cúbicos. En un cúmulo pueden haber 500 estrellas en el mismo espacio. ¿Cómo sería el Sol cuando formaba parte de un cumulo? En 500 años luz, la nebulosa de Orion, parece como un jardín de infancia. Hay un montón de estrellas y en el centro hay cuatro, formando el denominado trapecio y otras que flotan alrededor. Las del trapecio, las más brillantes, está formado por miles de estrellas que están en proceso en formación, pero el cúmulo impone una especie de control de natalidad en el, porque sólo una parte pequeña de la nube se convierte en estrellas. Son pocas las que se forman a partir del gas, viento y radiación ultravioleta, y se mantienen dispersas.

 

Las nebulosas son como los jardines del Cosmos. No todos los cúmulos son iguales. Cuando hablamos de cúmulos estelares, el más grande es similar a observar una gran ciudad, con los sitios más conocidos y característicos. Si nos adentramos en el Cosmos a 1000 años luz, nos situamos en el record de 100.000 estrellas, que observamos con infrarrojos. Tiene estrellas supergigantes, del amarillo al rojo. Supergigantes azules, que se convierten luego en rojas según evolucionan. En medio se sitúan las amarillas. El Sol es diminuto comparado con las supergigantes, que son enormes comparadas con nuestro sol y éste también lo es con respecto a la Tierra. Aquellas acaban explotando como supernovas, con lo que se ven a grandes distancias. Pueden provocar deformación en el espacio y el tiempo perceptibles. Los detectores de ondas gravitacionales lo detectarán en el futuro. La Astronomía se configura en torno a las ondas gravitacionales.

 

Nuestro Sol irá evolucionando a gigante roja. Pero no llegará a alcanzar Júpiter ni explotará como una supernova. Las estrellas grandes viven solo 5-6 millones de años. Y explotan. Los cúmulos extremadamente masivos tendrían esa edad. Hace 10 años no se conocían. Hoy solamente conocemos una docena de cúmulos masivos. Un cúmulo quíntuple tiene hasta 5 de ellos. En 2006 se estudiaron desde las instalaciones astronómicas de Hawai. Dos de ellos están rodeadas por espirales. Hay varias estrellas envueltas, colisionando y son poco comunes. No tardarán mucho en explotar como supernovas, destruyendo sus planetas. El cumulo Arcus es uno de los más destacados próximos a nuestra Galaxia. Situado a unos 25.000 años luz. Aquí se ha visto el tamaño que puede alcanzar una estrella. La Naturaleza ha puesto limite al tamaño de las estrellas en unas 130-140 veces la masa solar.

 

Los cúmulos globulares llegan a tener un millón de estrellas. Retienen las más viejas de la galaxia. La edad los hace fascinantes. Son tan viejos como el propio Universo. ¿Cuál es la edad de la galaxia? 13.700 millones de años y los cúmulos globulares tienen sobre 13.000 millones de años, luego son del tiempo de nuestra Galaxia, situando su origen en los mil primeros millones de años. Es un misterio como se formaron. Deben tener algo que ver con la formación de la Galaxia. Se formaron más o menos al mismo tiempo que la Galaxia.

 

El halo galáctico es una envoltura de nuestra galaxia donde “viven” los cúmulos globulares. Hay 160 conocidos. Pero, pudo haber más, fuera de la influencia del disco galáctico. Hay un cumulo fuera del halo que ha perdido el 80% de las estrellas, cuando se formó M12. No orbita fuera sino que paso por en medio y la interacciòn fue tan fuerte que arrastro a estrellas del interior del cúmulo. Con el tiempo la Via Láctea lo devorara por completo. Son como los planetas para una estrella o lunas para un planeta.

 

El M87 esta en el centro de un cumulo de galaxias. La gravedad es como el escultor del universo. Provoca que las galaxias se agrupen a escala de millones de años luz. El proceso comienza en nuestro patio astronómico. El cúmulo en que se encuentra nuestra Galaxia es el Grupo Local. En los próximos 4000 – 5000 millones de años nuestra Galaxia se unirá a Andromeda. A partir de dos espirales se originara una elíptica. Ya existen algunas de ellas. Es la gravedad la que opera.

 

¿Por qué hay galaxias en las que las estrellas forman cúmulos y otras no? La clave es el gas. Si un cúmulo le quita el gas a otro, al privarle del gas a no podrá formar mas estrellas. Hay muchas preguntas todavía sin respuesta. Teóricamente encierran muchos problemas sin resolver. Planea el problema de los n cuerpos. Se requieren cálculos de mucha entidad para describir las leyes de la gravedad que hacen que se muevan en el espacio. Se requieren 300 años de superordenador para describir lo que ocurre en un solo segundo. Los problemas reales son de millones de cuerpos. El Universo es complejo. Los conceptos, relativamente simples. Se llegan a comprender. Eso pensamos. Otra cosa es describirlo. Ahí, en los detalles radica el conocimiento profundo. De momento fuera del alcance. El talento no se compadece con la arrogancia, sobre todo cuando admiramos, con estupor, el tallado del Universo del que formamos parte.

Memoria cuántica en fotones, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

La transmisión veloz de información ha sido una constante en la historia de la Ciencia y la Tecnología. Ciertamente la evolución ha sido de vértigo. No hace tanto que la transmisión se efectuaba empleando la misma tecnología que la voz a través del par telefónico. Si la temperatura ambiente es de 15 °C, el sonido se propaga a 340 m/s (1224 km/h ), lo que se denomina 1 MACH. La voz humana, de la misma naturaleza que las ondas acústicas, era susceptible de transformarla en otro tipo de ondas que se podían transmitir a través de un conductor metálico. En este caso la velocidad de propagación es la de la luz, aproximadamente 300.000 kn/s. En la escala humana, instantáneamente.

A mediados del XIX la idea era convertir las ondas acústicas en ondas eléctricas y poder transmitirlas a grandes distancias, empleando conductores metálicos. Se requería un dispositivo que efectuara la transformación: el micrófono. Como la voz humana se extiende entre 20Hz y 20kHz, el micrófono tenía que capturar ese rango de frecuencias. Hoy sabemos que no es preciso transmitir todas las frecuencias y con un rango menor es suficiente, de forma que se reduce a capturar y transmitir entre 400 Hz y 4 kHz. La voz se distorsiona un poco, pero se entiende y caracteriza bien. No nos extrañe que cuando oímos la voz de alguien por teléfono, percibamos diferencias con respecto a la percepción en directo.

El gran paso aconteció cuando se abordó la conversión analógica en digital. Es decir, una señal continua (analógica) se convertía en una discontinua (digital) Valores continuos se transformaban en valores numéricos procesables en un ordenador, que empleaba y emplea un sistema binario, por tanto ceros y unos, exclusivamente. La telefonía normal emplea señales analógicas, pero la telefonía IP, actual, requiere un formato digital. Había que digitalizar la voz. Pero si tenemos en cuenta que nuestro oído es analógico, con un sistema de detección que es una membrana que vibra en el estado que corresponde a la fuente que origina la transmisión, precisamos tras esta una nueva conversión, ahora digital analógica, para percibirla. Estos procesos combinados se denominan Procesado digital de señales. (DSP). Esta conversión analógico digital requiere completar dos procesos, el muestreo, mediante el que se capta la señal analógica, teniendo en cuenta que cuantas más muestras se consideren más fidedigna será la señal que obtendremos y tras el muestreo tiene lugar la codificación, consistente en darle un valor a las muestras, ocurriendo, también que, cuanto mayor número de bits le otorguemos, más parecida será la señal a la analógica. Cuando tenga la señal que alcanzar de nuevo el oído, hay que convertir la señal digital en analógica. Si tenemos en cuenta que la máxima frecuencia audible es de 20kHz, una frecuencia de muestreo del doble, por ejemplo, 40 kHz, es suficiente para digitalizar la voz. El estándar del CD se fijó en 44.1 kHz. Como la voz humana no alcanza nunca los 20kHz, ya que la de un bajo está en torno a unos 350 Hz y la de una soprana en torno a los 1000 Hz y la voz humano entre 70 y 1000 Hz, una frecuencia de 44.1 KHz es demasiado y requiere demasiado espacio para el almacenamiento, pudiendo reducirse drásticamente. El teorema de Nyquist que establece que para reproducir una señal que sea matemáticamente reversible la frecuencia de muestreo debe ser superior al doble de la frecuencia máxima a muestrear.. Así que, en el caso referido establece una frecuencia apropiada en 2100 Hz, aunque hoy la mayor parte de software y hardware permiten seleccionarla a voluntad. También el estándar de audio (CD) en sistemas domésticos se sitúa entre 11Hz y 22 Hz, redundando en la calidad, evidentemente. En audio profesional se emplean frecuencias en torno a 48 kHz o más, para registrar bien las altas frecuencias.

Hoy día la transmisión se efectúa empleando la luz para el transporte de la información. Ya es tan cotidiano como la fibra óptica, que transporta señales luminosas, aunque hoy día hay guía-ondas que no precisan de equipos de comunicaciones. Usualmente los transmisores son láseres de diodo (incluso leds) que operan en la zona infrarroja, que presenta menor atenuación y dispersión. Generalmente se modula la intensidad, aunque se han ensayado modulaciones de fase y de frecuencia. Situando amplificadores que aportan una señal periódica regenerativa se alcanzan grandes distancias a costes moderados. Cuando los fotones llegan al punto de destino, se transforman en electricidad que se convierte en radiación de nuevo para volver al cableado.

Pero los fotones solo se han podido emplear para transmitir información y no para almacenarla. Ahora se propone una memoria que utiliza fotones individuales para almacenar datos, como ha comunicado Dong-Sheng Ding de la University of Science and Technology of China. La tecnología consiste en producir un fotón único y almacenarlo en una nube cilíndrica de átomos de rubidio durante un tiempo de 400 nanosegundos. Tras ello se libera el fotón, cosa que no se había logrado hasta ahora. Los fotones representan la información de forma distinta a como se hace convencionalmente con los bits. Como es sabido, este solo puede tener dos estados, que denominamos 0 y 1. en cambio, un fotón tiene una estructura, ya que su momento angular orbital, que mide su helicidad, se puede manipular. Quiere decir que, en lugar de transmitir como una onda plana ordinaria, el fotón puede verse como una hélice con giro a derecha o a izquierda y a su vez con diferentes grados de giro.

Haciendo uso de esta propiedad (momento angular) se pueden codificar datos en la propia estructura del fotón. Esto tiene una gran ventaja sobre la explotación que actualmente se efectúa de los fotones. La forma convencional de utilización de los fotones ha sido a través de la polarización. Un fotón puede tener dos estados distintos de polarización: horizontal o vertical. Lo más inmediato es crear fotones en uno u otro estado y usar esta propiedad para codificar datos. La enorme ventaja de usar el momento angular es que el fotón puede producir un número infinito de estados diferentes de giro. Un solo fotón puede transportar una cantidad de información arbitrariamente elevada.

 

Desde hace mucho que se investiga la creación y detección de fotones con estructuras espaciales diferentes que puedan transportar información. Pero lo que faltaba es almacenar esos fotones incluyendo su forma y estructura detallada y liberándola en un momento posterior. Eso es lo que han logrado en la Universidad de Ciencia y Tecnología de china en Hefel. Por vez primera se han generado fotones únicos (simples) con una estructura espacial compleja, se han almacenado en una nube de átomos de rubidio y se han liberado 400 nanosegundos después, afirmando que la estructura espacial de los fotones se preserva. Y esto es un avance significativo, porque, hasta ahora se habían realizado intentos similares, usando haces láser tan débiles que probablemente contenían un solo fotón en cada instante. Sin embargo no había forma de tener certeza de que los experimentos implicaban fotones únicos. Ahora se ha empleado una técnica denominada mezclado espontáneo de cuatro ondas para generar fotones únicos y se han almacenado en un conjunto atómico frío.

El almacenamiento y liberación de fotones únicos es una de las tecnologías que pueden posibilitar el Internet Cuántico, porque son la clave de los routers cuánticos. Las memorias que pueden preservar la estructura espacial de los fotones son las que pueden permitir construir este tipo de routers. Hay muchos otros factores concomitantes, desde luego, pero este puede ser el punto de partida cabal para las comunicaciones cuánticas del futuro.

Moléculas ultrafrías, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Las moléculas ultra-frías ofrecen muchas posibilidades para la investigación, dado que al tener muchos más grados de libertad que los átomos y las interacciones entre ellas y con los campos eléctricos aplicados, son mucho más fuertes. Si enfriamos moléculas hasta temperaturas de micro-Kelvin y las atrapamos durante unos minutos y disponemos de las herramientas requeridas para efectuar un control completo a nivel cuántico de todos los grados de libertad podemos realizar unas medidas con precisión exquisita, dado que las moléculas a baja temperatura se mueven muy lentamente. Se puede medir el momento eléctrico dipolar y analizar la variación con el tiempo de las constantes fundamentales, con lo que podemos acceder a efectuar un test de las teorías físicas que pretenden ir más allá del modelo estándar de la física de partículas. Con la construcción de matriz de moléculas ultra frías se puede aprender a controlar el movimiento, la orientación y las interacciones de las moléculas en la matriz. Sin duda, esto es una nueva herramienta para comprender la física cuántica de las interacciones fuertes en sistemas de muchos cuerpos y tiene mucho interés en el procesado cuántico de la información.

El problema de conseguir enfriar moléculas a temperaturas muy próximas al cero absoluto es que las moléculas se mueven a cientos de kilómetros por hora, rotando, girando y generalmente con apariencia desordenada. Al enfriar las moléculas el orden disminuye y nos encontramos con una especie de nuevo escenario físico y químico. Se ha logrado enfriar átomos a muy baja temperatura con un láser. Se consigue bombardeando los átomos con fotones láser y cada fotón imprime un pequeño momento en la dirección opuesta al movimiento de los átomos (como si le diera un empujón o una patada). Tras millones de choques de este tipo, los átomos están casi quietos. Sin embargo esto que funciona tan bien con los átomos, no funciona igual con las moléculas, ya que a diferencia de los átomos, las moléculas vibran y rotan. Cada molécula tras la colisión con el fotón, comienza a vibrar y este cambio de su energía interna puede hacer que no interactúe mucho con el láser. De forma que, el láser para enfriar moléculas directamente, se debe reemplazar por átomos ultrafríos que vengan a ser como un lago de enfriamiento en miniatura, donde sumergimos las moléculas calientes para enfriarlas.

Otro elemento clave es asegurar que las moléculas permanecen en el lago de enfriamiento aplicando las fuerzas necesarias para atrapar las moléculas. Esto se puede hacer empleando campos eléctricos, dado que la mayoría de las moléculas no son perfectamente simétricas, sino más bien tienen una carga positiva localizada en un punto y una negativa localizada en otro. Un punto con carga positiva en un campo eléctrico se ve empujado en un sentido y un punto negativo en el sentido contrario. Si el campo es uniforme, la fuerza neta que se ejerza sobre la molécula será nula, por compensación, al ejercer la misma fuerza en ambos sentidos. Si el campo no es uniforme las fuerzas no estarán balanceadas y la molécula se moverá. De esta forma, con campos eléctricos no uniformes se pueden confinar moléculas en el lago de enfriamiento.

Las aplicaciones de las moléculas ultrafrías se dan en muchos campos. Una de ellas es la relativa a la simetría. Alcanzando temperaturas por debajo de 100 miliKelvin, es decir, 0.1 C por encima del cero absoluto, casi todas las moléculas están en sus estados cuánticos de vibración y rotación más bajos y son suficientemente lentas para quedar atrapadas por siempre. En este grado de control, es posible encarar alguno de los interrogantes fundamentales de la simetría en la Naturaleza: ¿por qué está hecho el Universo de materia y no de antimateria? ¿cambian las leyes de la Naturaleza si cambiamos el sentido del tiempo? ¿son realmente invariables las constantes fundamentales o tienen valores que cambian en una escala de tiempo cosmológica? ¿cómo puede ser sensible una molécula a estas cosas? Una vez que controlamos las moléculas son válidas todas las herramientas de medida desarrolladas para estudiar los átomos. Si hacemos que salgan moléculas podemos medir los finísimos cambios que se provocan en la energía, bien variando una de las constantes fundamentales o bien la asimetría entre materia y antimateria. Estos efectos son pequeños, pero pueden ser mucho mayores en moléculas que en átomos, dado que la molécula tiene múltiples grados de libertad (electrónicos, vibracionales y rotacionales) cada uno de los cuales se puede usar para construir un reloj. Con una sola molécula tenemos múltiples relojes que operan a muy diversas frecuencias y si una constante fundamental cambia, se observará cuando se comparen las frecuencias de esos relojes. Otra diferencia importante con los átomos es que las moléculas tienen cargas residuales y es fácil alinearlas aplicando un campo eléctrico. Se puede medir si depende la frecuencia de un reloj molecular de la alineación con un campo magnético, que sería una señal clara de que las leyes de la Naturaleza dependen del sentido del tiempo. Por último, en Química, supone un control sin precedente sobre las reacciones químicas, ya que podemos elegir los estados cuánticos, la energía y la orientación de la reacción y podemos aplicar campos eléctricos y magnéticos para provocar el on o el off de las reacciones o variar sus velocidades.

 

También se puede tener el mismo grado de control en las moléculas biológicas. Esto permite poder desentrañar las propiedades con mayor detalle, obteniendo una mejor comprensión de las moléculas que constituyen los bloques de la vida. Un escenario fascinante, también en el ámbito de la simetría, es el de la arbitrariedad de la simetría de las moléculas. Decimos que una molécula difiere, cuando no es la misma que su imagen especular. Cuando se sintetizan aminoácidos en el laboratorio, al final se obtiene una mezcla balanceada de variantes levógiras y dextrógiras, pero en la Naturaleza los aminoácidos son levógiros. No se comprende bien cuál es la razón, pero las medidas precisas de la energía de las moléculas con simetría especular a baja temperatura pueden resolver la incógnita.

Cuando nos situamos a miliKelvin del cero absoluto, es decir a milésimas, el movimiento de las moléculas se parece al de unas bolas de billar. La naturaleza totalmente cuántica de las moléculas solamente se pone de relieve cuando su temperatura se sitúa a microKelvin o menos, es decir a unos 0.000001 grados por encima del cero absoluto. Es entonces cuando las moléculas del gas se comportan cooperativamente y son capaces de construir estructuras ordenadas. Las interacciones son del tipo dipolo-dipolo, es decir, la parte final de una molécula, cargada positivamente se repele con otra parte positiva de otra molécula. Estas interacciones son de largo alcance, de forma que cada molécula es sensible a la posición y orientación de todas las demás moléculas del gas. Esta es una situación muy especial, que permite al gas que se establezca un orden de largo alcance y así se pueden estudiar los denominados fenómenos exóticos, como la superfluidez, la superconductividad y las transiciones de fase cuánticas. Hay una enorme cantidad de retos de desarrollo tecnológico a superar antes de que se logre el potencial que suponen las moléculas frías. Buena parte de ellos son fascinantes, aunque no cabe duda de que son las aplicaciones las que más motivan el trabajo en este campo.

LA NATURALEZA AMA LA DOBLE NEGACIÓN, por el Prof. Dr. Alberto Requena, académico numerario

albertorequena

Cómo se generan las formas en los seres vivos es una incógnita científica que desvelará, cuando se logre explicar, una de las intimidades más espectaculares de la vida. Cuando miramos un olivo, observamos una forma determinada, reconocible sea joven o centenario. Nuestra nariz crece de forma típica para cada uno de nosotros y no sobrepasa unos límites. Durante toda la vida mantiene un patrón característico. El denominado auto-ensamblamiento, es el recurso del que se valen ciertas subunidades celulares y ciertos virus en su construcción. Cuando pasamos a estructuras macroscópicas, más complejas, desde un mosquito a un rinoceronte, ocurre algo parecido. Podemos, incluso, formular interrogantes todavía más complicados, ¿cómo se construirán los instintos de orientación en el cerebro de un pájaro? ¿cómo se forjarán los instintos de caza en los perros? Seguiríamos así formulando un sinfín de interrogantes, todavía sin explicación cabal.

 

Si ahondamos algo más en los interrogantes y descendemos hasta el ADN de los seres vivos, nos encontramos con que el dictado de qué proteínas han de producir las células, ejercido por el ADN, es una forma de ejercer el control sobre la estructura y la función de todos los agregados celulares macroscópicos vivos. ¡Espectacular! Pero aquí debemos precisar dos cuestiones de distinta índole: diferenciación celular y morfogénesis. La primera de ellas introduce el interrogante de cómo es que células diferentes, que comparten el mismo ADN cumplen distintas funciones, ya que células originalmente iguales, acaban haciendo funcionar al riñón, al cerebro o a la médula espinal. El otro aspecto, la morfogénesis (cuyo significado es “nacimiento de la forma”) viene a enfrentarnos con los intrincados mecanismos que dan lugar a la comunicación intercelular de nivel zonal o regional a estructuras u organizaciones globales, de gran escala, como son cualquiera de los órganos de un ser vivo: forma del rostro, sub-órganos del cerebro, extremidades, etc.

 

Los dos procesos, diferenciación y morfogénesis, son conocidos todavía escasamente. Todo parece indicar que los mecanismos de retroalimentación y de pre-alimentación, vigentes en el interior de las células, son los que indican a la célula, cuando tienen que iniciar y cuando tienen que finalizar con la producción de determinadas proteínas. La retroalimentación se da cuando una sustancia necesaria se encuentra en una cantidad excesiva o insuficiente en una célula, en cuyo caso, ésta tiene que equilibrar la producción de dicha sustancia. La pre alimentación, también es un mecanismo de regulación, pero no como consecuencia de evaluar el producto final, sino algún precursor. Hay dos formas diferentes de tener una retroalimentación o pre alimentación negativas, que se concretan en que, bien se evita que actúen las enzimas pertinentes, es decir, se bloquean los lugares activos de la enzima, con lo que se paraliza el proceso íntegro de síntesis y esto se denomina inhibición, o bien se evita que se fabriquen las enzimas pertinentes, lo que se denomina represión y es más compleja, porque implica que una célula interrumpe la expresión de un gen. Esto último implica que hay que evitar la tarea de parte de la polimerasa ARN, lo que supone que hay que implantar un obstáculo a lo largo del ADN justo delante del gen que la célula no quiere que se transcriba. Estos obstáculos son los que se denominan represores, que son proteínas y que se unen a sitios específicos de fijación que se llaman operadores. Los operadores son los lugares de control de genes, exactamente de los que vienen a continuación y que se denomina operón.

 

En cambio la retroalimentación y pre-alimentación positivas suponen, bien el desbloqueo de las enzimas bloqueadas o el cese de la represión que ejercen los operones pertinentes. Aunque puede que no haya ninguna razón para ello, la Naturaleza ama la doble negación. El mecanismo por el cual se reprime la represión, implica a unas moléculas llamadas inductoras, cuya función es combinarse con una proteína represora, antes de que haya tenido oportunidad de unirse a un operador, en una molécula de ADN. El compuesto represor-inductor ya no tiene capacidad para unirse a un operador, lo que trae como consecuencia que se pueda transcribir el operón asociado a ARNm y a continuación se traduce en proteína.

HIERRO EN LA SANGRE, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Berzelius, es considerado el padre de la Química sueca y también de la Química moderna, junto a Dalton, Lavoisier y Boyle. Estudió medicina, y después Química en Upsala, aunque se dedicó a la investigación Química y Física. Logró la cátedra de química de Estocolmo en 1815. A él se debe el codificar a los elementos con la primera letra de su nombre latino, a la que se agregaba una letra cuando era necesario diferenciar, como Carbono (C), Calcio (Ca) y Cadmio (Cd), por ejemplo. Tardó tiempo en ser mundialmente aceptada, pero triunfó porque hasta ese momento la nomenclatura química era un caos.

 

En cierta ocasión agitó un tubo de ensayo ante la mirada inquisitiva de su alumno y le agregó un par de gotas de una disolución de ferroprusiato, anunciando que si había hierro, se produciría una coloración azul intensa. Así fue. Pero lo sorprendente es que lo que el tubo contenía al comenzar el experimento era sangre. El alumno era Wöhler, con 24 años entonces, químico alemán que se haría famoso por descubrir la urea en 1828, lo que le convirtió en pionero de la Química Orgánica. Su descubrimiento supuso una convulsión en el mundo científico y en el filosófico, por cuanto logró sintetizar un compuesto orgánico a partir de uno inorgánico, y como la urea era un producto elaborado por los seres vivos (hombre y muchos animales e incluso algunos vegetales) , le asestó un duro golpe a la teoría vitalista, precisamente debida a uno de sus maestros: Berzelius.

 

En realidad ya se sabía, por cuanto Engelhart en Göttingen, incluso otros antes, habían analizado la sangre con anterioridad, aunque no en busca de hierro, encontrando un poco de todo y, a veces, incluso trazas de hierro. Pero dado que las cantidades que se detectaron eran tan exiguas, se pensaba que eran impurezas procedentes de los aparatos de experimentación. Un tal Thompson aproximó un imán a cenizas de sangre y no encontró ninguna partícula en el imán. Fue Engelhart el que aisló, la que denominó hematina, e investigó este pigmento y encontró en él hasta un 50% de óxido férrico. Como Berzelius diría, reduciendo el óxido se obtiene hierro metálico, que se deja atraer por un imán. Pero para ello era necesario pasar por Estocolmo.

 

Whöler aprendió con Berzelius, lo más valioso que se puede adquirir con un maestro: el razonamiento químico. Había conocido opiniones y teorías, ensayado experimentos, repitiendo centenares de veces. Allí conoció la propuesta de Oërstedt, sobre las leyes naturales de la Química, que concretaba en dos fuerzas naturales que rigen en la materia: la de combustión y la de inflamación. La primera actuaba en los cuerpos combustibles y en los álcalis y la segunda en el oxígeno y en los ácidos. Conoció las teorías de Davy, que admitía que los átomos se electrizaban por contacto recíproco, como las láminas de las pilas de Volta. Y aprendió las propuestas de Berzelius, para quien los átomos estaban, de forma natural, cargados eléctricamente, poseyendo un polo positivo y uno negativo. Todas las reacciones eran debidas a esto. Whöler le evidenció a Berzelius que pensaba que la teoría de éste era infalible, a lo que Berzelius contestó sonriendo y le narró lo que ocurre con las teorías, cuya mayoría resultan ser falsas y, precisamente, aquellas que parecen infalibles, conducen, con el paso del tiempo, a contradicciones. La dinámica de la Ciencia es así. Los adversarios de una teoría presentan oposición y llevan a cabo experimentos y cálculos intentando apoyar su oposición, buscando falsar la teoría, demostrar que es falsa y con ello, plantean una nueva forma de verlo, una nueva teoría, que se acerca un poco más a la verdad que se pretende describir. Un auténtico maestro, Berzelius. Sobre todo un maestro.

GUERRA ESPACIAL, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

El laser viaja a la velocidad de la luz. Las armas convencionales usan la energía cinética. El poder de destrucción se basa en eso. Cuanto mayor sea el peso, más energía cinética tiene el proyectil. La masa se multiplica por el cuadrado de la velocidad. Algo que viaja a doble velocidad, tiene una energía cuatro veces mayor. A mayor energía cinética mayor daño al impactar. Sólo con la aceleración de la gravedad se puede generar un efecto superior al de una bomba atómica.

 

Un arma para contrarrestar un láser puede ser una nave que se haga invisible. No está a nuestro alcance todavía, aunque ya hay ensayos bastantes convincentes. La primera guerra espacial que se puede dar, será con los satélites, incluyendo: comunicaciones, información geográfica, señales, además de las posiciones en Tierra que proporciona el GPS con mucha precisión. Vuelan a 27 000 km hora y a unos cientos de metros sobre la tierra. Alcanzar una pelota de tenis lanzada por otro jugador, con otra lanzada por nosotros, es difícil, pero si la nuestra fuera inteligente, corrigiendo la posición, tal como hace un misil, es más probable que lo logremos. Se estima que es preciso consumir 100 litros de combustible para poner un kilogramo en órbita. Por tanto, los materiales que se incorporan a los satélites son livianos. Pero cada vez más, dependemos de los satélites. Si los misiles llevan cabezas nucleares, con una gran explosión, son capaces de dejar fuera de juego a cualquiera de los satélites que circulan en la actualidad y que conforman esa tupida red que ya resulta imprescindible.

 

Se han concebido como armas para aniquilar objetivos a las bombas atómicas. Como en el espacio no hay atmósfera, en el caso de lanzar una contra un satélite, no se produciría ninguna nube en forma de hongo, como es usual. Sería como la explosión de una supernova: rayos gamma en todas direcciones y la onda expansiva no se produciría, al no haber atmósfera. Pero la radiación tiene mayor alcance que en la Tierra, dado que los rayos gamma ionizan a la atmosfera. Una de las últimas pruebas realizadas en 1965 en el aire, produjo un efecto perceptible desde Australia hasta Hawai. Tras una docena de pruebas, se clausuraron las explosiones y pruebas.

 

Una pistola dispara porque la pólvora lleva el oxidante que producirá la combustión. Pero en el espacio acabará atascándose por falta de lubricación de las partes de la pistola. Por otro lado, las armas se pueden montar sobre raíles, algo parecido al tren bala, impulsadas por imanes y que se aceleran hasta alcanzar casi la velocidad de la luz, por tanto, millones de km por hora. La energía cinética es tremenda. Un proyectil de 3 kilogramos a mas de 8000 km por hora, produce un impacto 7 veces superior a si llevara la velocidad del sonido y eso produce mucho daño. Un coche acelerado al 10% de la velocidad de la luz es capaz de destruir una ciudad en el impacto. Se puede concebir un cohete montado sobre un raíl y aprovechar la gravedad para que aumente la aceleración. Los lanzamientos de piedras con catapultas Trebuchet, propias del siglo XII al XV, hasta la aparición de la pólvora, que lanzaban proyectiles hasta de 160 kilogramos contra las fortificaciones enemigas, ya lo hacían lanzando a lo más alto posible, de forma que se le daba opción a la gravedad para que hiciera su papel.

 

Nada de todo ello compite con un láser. La velocidad a la que se desplaza es la de la luz. Son las armas favoritas de la ciencia ficción. Son linternas de alta tecnología. Todas las ondas están sincronizadas. La luz del sol es incoherente y las distintas ondas se destruyen y lo que vemos es lo que queda. Con un láser se pueden deshacer átomos, arrancar los electrones o romper los materiales. Su efecto es muy similar a los truenos y los rayos. Cuando no hay partículas de polvo no se ve el haz del laser. Utilizado como arma, no hay ninguna otra más rápida. Los cañones convencionales necesitan cargar balas. Un láser con suministro eléctrico, tan sólo, es suficiente, no tiene que cargar balas. Es continuo. Estados Unidos ya ha probado sistemas láser aéreos que disparan contra misiles. Sin atmósfera un avión da la vuelta instantáneamente para disparar. Con atmósfera, como aquí, los aviones tienen alas porque hay que levantar vuelo en base a la sustentación. Para girar, también. En ausencia de atmósfera se pueden dar movimientos bruscos, no lentamente como aquí. Surge un interrogante ¿a qué velocidad se deshacen, peligra, la identidad de los átomos humanos?. Los átomos son estables a cualquier velocidad, sus puntos de referencia se mantienen hasta unas 18 g, que provoca la descomposición de los elementos humanos, porque los pulmones se comprimen y los órganos internos comienzan a desgarrarse (16 g mantenida 1 minuto, puede resultar mortal). La gravedad y la aceleración son equivalentes. Si te mueves muy deprisa en el espacio tu cerebro puede matarte con la brusquedad.

 

Sin atmosfera no hay reducción de la luz láser como ocurre en la atmósfera, dado que ésta está compuesta por moléculas, con las que colisiona. Ahora bien, se requiere mucha potencia para que el láser sea peligroso. Una pistola en la mano no tiene, ni puede tener potencia para generar un laser suficientemente potente, salvo en las películas de ciencia ficción. En el vacio del espacio, un agujero en el traje espacial es suficiente como para matarte. El poder destructivo natural del universo va mucho más allá que lo que pueda creer el hombre. Redirigir un asteroide para que impacte en Marte, eso es más destructivo. Algún día es posible que superemos el conflicto. Desde luego NO lo hemos hecho aquí y no es previsible que lo hagamos en el espacio. Armas ya hay, o pueden haberlas.

LA MAGIA DE LOS NUMEROS, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

LA MAGIA DE LOS NUMEROS

Los griegos solamente usaban los números naturales (1,2,3,…). Esto implica que no pudieron expresar todo cociente entre la diagonal y el lado de un cuadrado. Cuando el cuadrado tiene lado unidad, la raíz de dos, que es la diagonal, no se podía expresar y lo denominaron irracional. Esto tuvo la trascendencia de que se abandonó la teoría de la proporción de Pitágoras y hubo que elaborar otra nueva teoría.

 

Los números racionales, constituidos por los números naturales, los enteros, los decimales exactos, los periódicos puros y los periódicos mixtos, todos ellos se pueden expresar mediante fracciones. Si un número decimal no lo podemos expresar como periódico, sino que tiene infinitas cifras decimales, no se puede escribir como una fracción. Se les llama irracionales. Pero no demos por sentado que el mundo de los números está exclusivamente limitado a la razón. Cabe pensar que los sentimientos, las emociones y las religiones forman parte de ellos.

 

En la edad de piedra se dejó constancia en las cavernas de calendarios (entraña cálculos) relacionando estaciones con aparición de rebaños de animales. Era rudimentario, la relación con el cielo del calor del sol, la lluvia y el rayo era lo único que podía apreciar. Todo, bueno o malo, provenía del cielo: firmamento y calendario, objetos de culto y una relación entre el destino y la voluntad de los cielos. Las ofrendas y conjuros eran para influir en los dioses. Las calamidades eran debido a contrariedades de los dioses.

 

En Sumeria, Egipto y Babilonia se aportaron relaciones entre religiones y cálculo: administración, calendario, astronomía y astrología implicaban a matemáticos y sacerdotes. De aquí deriva el carácter sagrado sobrevenido a las cifras. El misterioso sistema sexagesimal de numeración de los babilonios tiene un trasfondo mitológico y práctico, ya que para establecer el planisferio se dividía el firmamento en secciones. El número 10 tiene el inconveniente de que los divisores son solamente el 2 y el 5. En cambio los divisores de 60 son 2,3,4,5,6,10,12,15,20 y 30, que permitía una descomposición en sectores del mismo tamaño mucho más amplia que el 10 y era más fácil hacer compatible la marcha de los astros. La división del año en el calendario babilónico en 360 días, también implicaba al número 60. Permanece, como sabemos en la actualidad, en las medidas trigonométricas y la división del tiempo.

 

Muy al contrario, surge la devoción por el número 7, indivisible y difícilmente adaptable al cálculo. Pero eran siete los cuerpos celestes observables a simple vista y representaban el orden cósmico divino. Ciertamente no es casual que los siete cuerpos tengan nombres de divinidades: Sol, Luna, Mercurio, Venus, Marte, Júpiter y Saturno. Dios bendice, según el Génesis, el séptimo día, en que descansó. En la Biblia también aparecen las cifras 10 y 12: diez mandamientos, diez plagas de Egipto, doce en Israel, doce Apóstoles, etc. Al 7 le dedica siete pecados capitales, las siete maravillas del mundo, los siete sacramentos, los siete mares, el sermón de las siete palabras,

 

Fue Tales el que comenzó a no anteponer una visión mística del mundo a los cálculos. Así surgieron los conceptos de materia, fuerza o energía. Pero también es cierto que se le otorgó a las cifras una componente sobrenatural y mitológica: la veneración de las cifras. El número 1 es el creador de los demás, las relaciones sencillas entre los números concretaban la proporción armoniosa de los sonidos producidos con cuerdas y de aquí se infirió que toda la armonía de la naturaleza provenía de una relación numérica, incluidas las órbitas de los planetas. La ironía fue que el propio teorema de Pitágoras fue el que cuestionó toda la teoría pitagórica. No consiguieron hallar una cifra o fracción que multiplicada por ella misma diera por valor 2. Se toparon con la cifra irracional. El pacto de no revelarlo los pitagóricos, bajo amenaza de muerte está detrás de la muerte en naufragio de Hiparco, que osó revelarlo. La parte mitológica la asumió el cristianismo y la significativa matemática se perdió poco a poco. Se eclipsó la Ciencia durante siglos. Solo cuando Kepler miró los cielos más allá de la religión, se despertó del terrible sueño y se pudo establecer que los planetas describen órbitas elípticas alrededor del Sol. Se inicio la pérdida de la magia de los números.