CALOR, TIEMPO, IGNORANCIA Y AZAR por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La Ciencia tiene varios apartados, zonas, áreas o como queramos llamarlas. No son otra cosa que partes dedicadas al estudio y adquisición de conocimiento. Una de ellas se ocupa de las cosas graves, las profundas, las que condicionan a las demás, por su alcance. La relatividad, la teoría de los cuantos, las partículas elementales, el Cosmos, etc. son algunas de ellas. Sorprendentemente otras, las categorizamos en otro capítulo, como más cotidianas, más cercanas, pero ello no implica que no sean tan profundas o más que algunas de las divas señaladas. Todo el mundo parece saber qué es el calor. A fuerza de usarlo, se nos hace próximo. Pero la cosa no es tan así. Encierra uno de los aspectos fundamentales de la Naturaleza. Veamos.

Hasta el siglo XIX se pensaba, asociado quizás a la idea subyacente en la teoría de la gravedad clásica en la que Newton, nunca desveló, pero supuso que la transmisión de la fuerza entre dos masas se efectuaba desde ese campo gravitatorio supuesto y nunca explicitado. En el caso del calor se suponía una especie de fluido, denominado calórico. Hasta Maxwell y Boltzmann no se entendió la entraña del calor. La intimidad del calor no se reduce a una sustancia que contiene el fluido calórico sino una sustancia cuyos átomos o moléculas se mueven más deprisa. La estructura energética interna de moléculas supone que se desplazan, rotan y vibran y sus electrones se sitúan en distintos niveles energéticos. En el caso de los átomos solamente se desplazan y los electrones ocupan sus estados posibles. Fría la materia implica que sus componentes, átomos o moléculas, se mueven despacio y cuando se les caliente lo hacen más deprisa. Una excelente y bella teoría que además permite un tratamiento cuantitativo.

Pero la pregunta fundamental en la esfera del calor es la constatación empírica de que el calor siempre va del cuerpo caliente al frío. La comida que elaboramos al fuego, dejada al ambiente va cediendo calor hasta que se acomoda al del entorno. Nunca ha ocurrido que dejada la olla encima de la mesa, con los ingredientes crudos, tome calor del medio y se cueza. ¿por qué ocurre así? ¿por qué el calor va desde el objeto caliente al más frío? Rovelli introduce ahora un aspecto audaz y de alcance: es una pregunta crucial, porque afecta a la naturaleza del tiempo. Nos hace reparar en que en todos los casos en que NO se intercambia calor, o cuando es insignificante, el futuro y el pasado se comportan de igual forma. Pone ejemplos, en el movimiento de los planetas del sistema solar la cantidad de calor puesta en juego es insignificante. Y el movimiento podría producirse al revés y no se violaría ninguna ley física. Pero cuando hay calor, el futuro difiere del pasado. En un péndulo se ejemplifica extraordinariamente bien. Si no hay fricción, la oscilación es por tiempo indefinido; si hay fricción, se produce calor y el péndulo se calienta, pierde energía, se ralentiza y detiene. El futuro, en este caso, no coincide con el pasado. No se le puede hacer girar al revés; nunca ha ocurrido que un péndulo parta del reposo e inicie la oscilación. El calor que fluye del cuerpo caliente al más frío es el que nos hace distinguir el pasado del futuro.

La cuestión es ¿Cuál es la razón de que esto sea así? Aquí viene la aportación genial de Boltzmann: el azar. Es una forma de expresarlo, porque podríamos haberlo formulado diciendo que es nuestra ignorancia. Veamos: Boltzmann introduce la idea de probabilidad (que no tiene nada que ver con la derivada de la Cuántica). Boltzmann matiza el enunciado empírico de que el calor fluye de los cuerpos calientes s los fríos al proponer que esto obedece a una ley absoluta cuyo enunciado correcto sería que este fluir del caliente al frio es con una gran probabilidad. Esto implica que no se niega que pueda el calor fluir del cuerpo frio al caliente, pero que su probabilidad es muy baja.

La clave la tiene el proceso de colisiones que tienen lugar entre átomos y moléculas comportándose al azar y desplazándose libremente por el espacio. En las colisiones hay cesión de energía. No es imposible que un cuerpo adquiera calor en una colisión con uno más frio, otra cosa es que sea muy poco probable. La probabilidad que introduce Boltzmann está, en cierta medida relacionada con nuestra ignorancia, dado que asignamos probabilidad de ocurrencia cuando no sabemos muy bien de qué se trata. La lluvia pronosticada para mañana con un 10% indica eso, ignorancia que impide afirmar con certeza. Ocurre con muchas cuestiones físicas y químicas, naturales. Al nivel en el que estamos ahora, no conocemos los detalles de la posición de las moléculas de un gas desplazándose en el interior de un recinto y eso nos impide predecir con certeza qué ocurrirá y cómo. Pero si puedo asignar una probabilidad y si calculo la probabilidad de ceder calor del cuerpo caliente al frío, veo que es muy superior a la del proceso contrario.

Cabría matizar la cuestión de nuestra ignorancia, ya que los procesos ocurren al margen de lo que podamos o no conocer de ellos. Los cuerpos siguen las leyes de la Naturaleza. Nosotros solamente conocemos determinadas partes o facetas de su comportamiento. Por ello, la probabilidad no afecta a la evolución de los cuerpos en sí, sino a la evolución de los valores de determinadas subclases de propiedades de los cuerpos cuando interaccionan con otros. Rovelli, muy agudamente ejemplifica esta parte con el ejemplo de la cucharilla que se caliente en contacto con el café caliente. La interacción del sistema que componen ambas con nosotros se limita a un pequeño número de variables, entre las numerosas que caracterizan ese sistema, en el caso que nos ocupa, apreciamos la temperatura. Pero el valor de esta variable no es suficiente para poder predecir el comportamiento futuro de tal sistema, aunque si es suficiente como para predecir que hay una probabilidad elevada de que la cucharilla se caliente. La ignorancia, también juega su papel. ¡No iba a ser menos!

LA GENIALIDAD RESIDE EN EL CEREBRO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Nació Hawking en Oxford, en 1942 y falleció en Cambridge en 1918. Nada menos que 76 años alcanzó esta figura señera de la Física teórica británica y universal. Obtuvo la Licenciatura en Física en 1962, con solo 20 años, en el University College de Oxford. En 1963 cae practicando patinaje sobre hielo y le detectan la enfermedad degenerativa ELA, que arrastraría el resto de su vida, aunque le diagnosticaron que duraría muy poco tiempo. Su brillante inteligencia y su dedicación a la Ciencia no sufrió merma alguna y sus imitaciones físicas no le afectarían a la actividad intelectual. Pretendió trabajar con el autor de la Teoría del Estado estacionario, Fred Hoyle, que no lo aceptó, lo que supuso un impulso en otra dirección y no en la de Hoyle que se demostró con el descubrimiento de la radiación de fondo del Universo, que era equivocada. El 15 de Octubre de 1965 presentó su Tesis doctoral y centró sus investigaciones en la teoría de la relatividad general y particularmente en los agujeros negros que iniciara Oppenheimer en 1939.

Contemplo su Tesis doctoral y siento la emoción de estar frente a un documento excepcional de un científico extraordinario. Dice en el preámbulo que examina algunas implicaciones y consecuencias de la expansión del universo. Ya desde el comienzo señala que esta expansión le crea graves dificultades a la teoría de la gravitación de Hoyle-Narlikar. Introduce haciendo uso de la teoría de perturbaciones, la expansión isotrópica del Universo, concluyendo que las Galaxias no puedes ser el resultado del crecimiento de perturbaciones, que originalmente fueron pequeñas. También investiga la propagación y absorción de radiación gravitacional. Emplea el método de la expansión asintótica para estudiar la radiación gravitacional en un Universo en expansión. Analiza la aparición de singularidades en los modelos cosmológicos, demostrando que la singularidad es inevitable, cuando se satisfacen ciertas condiciones generales.

Es emocionante recorrer visualmente el ejemplar de la Tesis, escrita con máquina de escribir, y las copias se obtendrían con papel carbón, La máquina que debió usar es anterior a la de cabezales que fabricó IBM, que tenía diferentes tipos de letra que se cambiaba con facilidad. Para que algunos que vivieron la época se sitúen en la escena, la maquina debió ser un tipo de Lexicon, incluso Pluma, de Olivetti. Las ´fórmulas están escritas a mano en los huecos que deja en la escritura. Son los sesenta del siglo pasado. Gratos recuerdos de los que participamos en gestas de calibre parecido. No éramos conscientes de que luchábamos contra los elementos. Poca información, pocos medios, mucha voluntad y mucho trabajo. Todo esto me rememora la Tesis de Hawking.

La idea de que el Universo está en expansión tenía un origen reciente. Las Cosmologías que se habían formulado participaban todas de una componente esencialmente estacionaria e incluso Einstein en la teoría de la relatividad, que fue la base de lo modernos desarrollos en Cosmología, aceptó de forma natural sugerir un modelo estático del Universo. Pero presentaba muchas dificultades un Universo estacionario que venía desde tiempo infinito. Si las estrellas hubieran estado irradiando energía desde el infinito hasta entonces, hubieran requerido suministro de energía para ello. El flujo de radiación sería infinito. Si el suministro solamente fuera limitado, el Universo habría alcanzado el equilibrio térmico, que no era el caso. Dice Hawking que esto ya lo planteó Olbers, pero que no fue capaz de sugerir la solución. E descubrimiento de Hubble de la recesión de las nebulosas hizo abandonar el modelo estático en favor del modelo en expansión. Las alternativas que analiza Hawking son: que el universo se expande desde un estado de alta densidad hace un tiempo finito, que es el denominado modelo Big-Bang o que la expansión presente, puede haber ido precedida de una contracción, que a su vez pudo haber ido precedida de otra expansión, que es el denominado modelo oscilante o modelo rebotador o de rebote. Sin embargo, éste ultimo modelo adolece de las mismas dificultades desde el punto de vista de la entropía, que el modelo estático. Otra alternativa es que la expansión pudo haber tenido lugar a la misma velocidad durante un tiempo infinito, lo que implica considerar una creación continua de materia en orden a evitar que la expansión reduzca la densidad a cero.  Esto es lo que da lugar al modelo del estado estacionario que, aunque se expande, presenta la misma apariencia siempre.

Las primeras cosmologías sitúan al hombre en el centro del universo, pero desde el tiempo de Copérnico, ya sabemos que habitamos un planeta de tamaño medio que orbita alrededor de una estrella de tamaño medio situada cerca del borde de una galaxia de tamaño medio. En estos momentos como ahora, no podemos pretender ocupar una posición especial. Sin embargo, las observaciones parecen indicar que, dentro del error experimental, que las Galaxias tienen una distribución isotrópica en torno a nosotros. Persuadidos de que no ocupamos ninguna posición especial, la distribución debe ser isotrópica en cualquier punto, lo que conlleva homogeneidad espacial, también. Naturalmente hablamos de homogeneidad espacial a gran escala, porque localmente habrán desviaciones de ambas. Utiliza la ecuación de Robertson y Walker para la métrica de este modelo y con ella, evidencia que el modelo de Hoyle-Narlikar es incompatible con una métrica de este tipo. Considera una perturbación con una aproximación linealizada y la radiación gravitacional la considera en un modelo que es compatible con la ecuación de Robertson-Walker.

Ciertos modelos de Robertson-Walker poseen horizontes, que son de dos tipos: horizontes de partículas y horizontes de eventos. Se denomina horizonte de partículas existe, cuando el cono de luz pasado del observador no intersecta la línea del mundo de ninguna partícula del universo o la línea del mundo extendida en el caso de las partículas creadas. El modelo de Einstein – De Sitter es un ejemplo de este caso. Este es el modelo del Big-Bang que cumple con la ecuación de Einstein y contiene materia cuya presión es mayor que menos un tercio la densidad. Por otro lado, existe un horizonte de eventos cuando hay eventos que un observador dado, nunca verá. El modelo del estado estacionario es un ejemplo de horizonte de eventos. Los trató Hawking con la ocurrencia de singularidades del espacio-tiempo, conectadas con la topología.

Una enfermedad atroz pudo con su cuerpo, bueno es un supuesto, porque falleció a una edad a la que muchos otros, por procesos naturales llegan. Fue diagnosticado con un tiempo limitado de vida en 1963. Menos mal que los pronósticos médicos son así. Nos legó ideas profundas y poderosas que contribuyeron a poner en escena aspectos decisivos para comprender algo más el Universo. La genialidad reside en el cerebro, está claro y, a veces, ni las más dramáticas condiciones corporales son capaces de doblegarlo. Un buen ejemplo.

CATALINA LA GRANDE: TODO MENOS NEGACIONISTA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Nació en 1729 hija de un príncipe prusiano sin patrimonio apenas, pero vinculada con familias alemanas influyentes. Bautizada como Sofía Federica Augusta von Anhalt-Zerbst y educada de forma exquisita en su propia familia. Muy pronto, a los 10 años conoció a un primo segundo llamado Carlos Pedro Ulrico de Schleswig-Holstein-Gottorp, que fue nombrado futuro Zar por su tía Isabel, emperatriz rusa, sin casar y sin descendencia y aquél accedería al poder con el nombre de Pedro III. A Sofía no le gustaba demasiado, pero el matrimonio neutralizó la influencia austríaca en la corona rusa y ella estuvo a la altura de las circunstancias, estudiando ruso, incorporándose a la Iglesia ortodoxa y adoptando el nombre de Ykaterina. La boda tuvo lugar en 1745, con solo 16 años y tras 17 años, su marido se convirtió en el Zar de Rusia. En 1762, aprovechando la ausencia de su marido, se proclamó gobernante única de Rusia. Su marido murió al poco tiempo. Se debate sobre las causas y el papel de Catalina en ello.

No anduvo pacífica Catalina y expandió las fronteras anexionándose Crimea, Ucrania, Lituania, Polonia entre otros territorios, llegando a duplicar la población rusa. Modernizó el gobierno y la legislación, aunque la nobleza se opuso a sus propuestas impregnadas de los ideales de la ilustración. Falleció tras 34 años de reinado en 1796. Ganó el prestigio suficiente, como para ser apellidada “La Grande”, con un explícito y decidido apoyo a la cultura y las Artes. La concepción de fondo que asumió fue que “El hombre era maleable como la arcilla y se le podían dar muchas formas, de aquí que la educación podría hacer la transformación”. Voltaire y Diderot transmitían a Catalina la Grande estas ideas, que asumió e incorporó a su acervo personal y que concreto y exteriorizó en San Petersburgo donde artículo el espíritu de la ilustración. Desde los 6 años iban los niños a la escuela y vivían con los profesores, en un alarde de educación con todas las pretensiones de eficacia y profundidad. Todo parece indicar que el programa no ha cambiado en la Academia Rusia de Bellas Artes, no ha cambiado nada. No quería planos sino maquetas, cosas en tres dimensiones, palpables, concretas, visibles.

Hay una faceta de Catalina la Grande, poco conocido y no por ello importante y destacable, en especial, en estos momentos de tribulaciones, no solo por lo que implica la pandemia que atravesamos, sino por las negativas formas que adoptan algunos en conductas errática, inadmisibles, irrazonables e impropias de personas formadas con una cierta entidad en un mundo en el que la Ciencia ha evidenciado que es una alternativa apropiada para abordar los problemas, por intricados que sean. Catalina La Grande, obvió las supersticiones propias de su época y apostó por la Ciencia haciendo alarde personal, incluso, y apostando decididamente por la vacuna, en aquél caso, contra la viruela, que no hizo pocos estragos en la época, acabando con la vida de 56 millones de personas. Tras la Peste negra, entre 75 y 200 millones de muertes estimadas, la viruela es la pandemia de más envergadura de la Historia de la Humanidad. Le sigue de cerca la denominada gripe española con 50 millones de muertes.

Ahora estamos esperando y deseando que aparezca la vacuna contra el COVID_19, salvo algunos incalificables, como hemos señalado anteriormente. No siempre ha sido así. Veneno de víboras, ajo, amuletos, y cualquier cosa imaginable aplacaría la ira de Dios. La falta de higiene y el poco conocimiento de las propuestas que pudieran calificarse de científicas en orden a hacer frente a una pandemia, sin saber muy bien Pedro III de Rusia había pasado la enfermedad y en Rusia acabó con la vida de unos dos millones de personas. Dado el carácter Ilustrado de Catalina, direccionado para rechazar cualquier superstición y disponerse en sintonía con la Ciencia, cuando dispuso hacer lo posible por evitar la enfermedad y, en su caso, soslayar que afectara a su heredero, que no podía resultar marcado en la cara, lo que dificultaría su aceptación social y, sobre todo, podría generar problemas para encontrar esposa, Catalina quiso investigar para encontrar una cura. Conoció la fama que le precedió al galeno inglés Thomas Dimsdale, que había logrado algún avance en el tratamiento de la viruela. Había descubierto que gracias a la variolación, las personas sanas e inoculadas con el virus resultaban ser inmunes. Catalina lo hizo ir a su lado. Tras explicarle el método, Catalina II se brindó a recibir la primera dosis. Dando ejemplo, un par de centenares de miembros de la Corte le siguieron. Los resultados fueron favorables. Catalina propagó la indicación a todo el país incluso incidió más allá de las fronteras rusas. Voltaire celebró la gallardía, el arrojo y la audacia

Catalina II apostó por la Ciencia y salvó muchas vidas. Fe en a Ciencia, aun cuando estaba en los albores. Audacia en la decisión. Resolución en la aplicación. Todo un ejemplo, que ahora se hace grande, cuando se observan las miserias que arrastran algunos, todavía. Todo menos negacionista.

COMO PARA NO SOÑAR por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

El sueño ocupa, al menos, un tercio de nuestra vida. Ocupamos casi un cuarto de siglo en dormir y se estima que cuatro años de la vida los pasamos soñando, aunque no recordemos casi nada al despertar.  Una verdadera lástima. En estos términos, expresamos como un lamento de que es un tiempo perdido el que dedicamos a este menester. Pero, nada más lejos de la realidad. En todo caso, se trata de una actividad compleja con distinto grado de profundidad, según circunstancias.

Está generalizada la idea de que dormir y soñar son sinónimos. Hay dos aproximaciones que las concretan. En una de ellas se atiende el ciclo dia-noche y en la otra se atiende al equilibrio homeostático que incluye aspectos químicos y hormonales y donde es muy visible la componente eléctrica. Las teorías que atienden al ciclo dia-noche, inciden en que el sueño es una consecuencia de una programación que nos hace dormir por la noche, con independencia de lo que acontezca durante el periodo de vigilia diurno. Genéricamente, son las conocidas teorías circadianas del sueño que contempla ciclos de aproximadamente 24 horas. Es como un reloj biológico, situado en el núcleo supraquiasmático del hipotálamo anterior y conectado con el sistema neuronal que dispone de centros que regulan el sueño y la vigilia. Los denominados cronobiólogos dedican su atención a estudiar estos relojes internos, que son personales e intransferibles.

Por otro lado, las que se basan en la necesidad de recuperación atienden a que el estar despierto, modifica el equilibrio fisiológico interno, que denominaos homeostasis y hay que restablecerlo, mediante el sueño. Cuando el equilibrio se ha restablecido, nos despertamos.

El sueño es concebido por gran cantidad de gente como un estado de conciencia y no como una conducta. De este modo, quedan descartados los procesos en que se sueña con control del sujeto durmiente sobre el proceso. Esto tiene mucho que ver con que se considere que se puede recordar lo que se sueña o no. En todo caso, el tiempo de sueño estando relacionado tanto con la mejor recuperación, en el caso de prolongar el estado, como, por el contrario, asumir que es un tiempo que restamos a la actividad, en cuyo caso, cuanto menos durmamos, mejor, nos llevaría a los casos extremos que no son razonables. Precisamos de un tiempo mínimo, en el supuesto de ser un proceso de recuperación, y tenemos que formir en determinados momentos y un mínimo si atendemos a las imposiciones de los relojes internos. Ambas posiciones no admiten extremos.

La neurociencia nos va aclarando las funciones del sueño y las concreta en  que las neuronas se reordenan y los recuerdos se distribuyen apropiadamente para poder acceder a ellos. Pero esto se lleva a cabo en varios escenarios simultáneamente. Desde el punto de vista biológico y fisiológico el sistema inmunitario se reequilibra y sanea las toxinas que han podido alcanzar el cerebro en el periodo de vigilia. Desde el punto de vista endocrino se regula el sistema hormonal equilibrándolo de nuevo. Desde el punto de vista psicológico tanto el aspecto emocional como la salud mental se suavizan y ponen distancias relativizando las implicaciones, se reequilibra también. Finalmente, desde el punto de vista cognitivo tano la memoria como el engarce de conceptos encuentran el sosiego para el establecimiento y restablecimiento  de nuevos nexos y corrección de otros que pasan a formar parte de los conceptos a borrar mediante el olvido del sistema cognitivo. Hay muchas alteraciones del sueño, que lo hacen alejarse de las cómodas implicaciones y devienen en trastornos de conducta, unas veces episódicos y otras con mañas consistencia.

Los alimentos influyen, también, en la vigilia y en el sueño. Ciertamente hoy no comemos solamente cuando tenemos hambre. Los hábitos sociales, los aspectos laborales y muchos otros rasgos inciden en la calidad del sueño. Por otro lado, la calidad del sueño incide, a su vez, en el equilibrio de la saciedad y el apetito, de forma que puede convertirse el proceso en una espiral explosiva. Desde estos puntos de vista, parece razonable coadyuvar a que los equilibrios orgánicos y funcionales se restablezcan lo mejor y mas intensamente posible. Si favorecemos la síntesis de hormonas que facilitan el sueño (por la tarde, por ejemplo) y procuramos alimentos calóricos y estimulantes en el desayuno para iniciar la actividad diaria, iremos en la buena dirección y con justificación de hacerlo en esos momentos. Muchas veces, la sabiduría popular nos encamina en sentido o dirección contraria. Los hidratos de carbono facilitan el sueño, junto con los vegetales que propician la formación de serotonina, mientras que los ricos en proteínas la limitan y no contribuirán a favorecer el descanso. Serotonina, calcio, melatonina, magnesio y vitaminas del grupo B, inciden en la actividad neuronal facilitando las conexiones neuronales. La formación de melatonina y serotonina se favorece con los componentes de plátanos, piña, aguacate, leche, carne, huevos, frutos secos, por ejemplo. La leche, siempre se ha dicho, favorece el sueño. En efecto aporta triptófano, calcio y vitamina B12, entre otras sustancias que contribuyen a regular el sueño. Por el contrario, las bebidas estimulantes, las productoras de dispepsias, los alimentos ricos en tirosina como las frutas ricas en vitamina C

Es muy frecuente que las personas que tienen dificultades para conciliar el sueño, tomen medicamentos para facilitar el sueño. Recientemente se ha efectuado una publicación en una revista acreditada que desvela los resultados de un reciente estudio de un centro de California dedicado a aspectos clínicos del sueño. Trataron las fichas clínicas de 34.000 pacientes, por lo que el valor estadístico es significativo. La conclusión es dramática: los que toman pastillas para dormir, contraen un riesgo cuatro veces superior de morir, independientemente de la edad, sexo y estado de salud. Ahondando en las especulaciones podría deberse a que las personas que toman pastillas, siguen durmiendo mal y dormir mal, la falta de sueño, acorta la vida. De nuevo sale a relucir la importancia del sueño, como hemos relatado anteriormente.

La importancia del sueño es central y todo lo que sea mejorar la higiene del sueño, antes de tomar la decisión de acudir a los fármacos Drogas para no soñar no son admisibles, por cuanto hemos relatado. Podrán quitarnos las ideas, incluso castigarnos indebidamente, pero no pueden quitarnos el sueño, salvo por la violencia que desemboca en un fatal desenlace. Nosotros deberemos cuidarnos: ni televisión ni alcohol próximo a acostarnos y sanear nuestras costumbres para aliviar la carga excesiva a nuestro sistema neuronal que tiene que restablecer su equilibrio. Palabra mágica: equilibrio. Pero ¡eficaz!

CIENCIA, TÉCNICA Y USUARIOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

El mundo contemporáneo confunde muchas cosas, a veces fundamentales. A base de mal usar términos, los dejamos vacíos de contenido. Un ejemplo palmario es el término innovación. Pareciera que todos nacemos innovando. No falta razón, por cuanto algo nuevo viene al mundo con nosotros. Algo, que antes no estaba, otra cosa es que, además, aporte algo significativo a la Sociedad en la que aparecemos o, simplemente, nos limitemos a pasar el tiempo, sobre el que habría mucho que discutir, por aquello de que la relatividad ha puesto en escena nuevos conceptos y referencias, y esa clásica división en pasado, presente y futuro, no necesariamente obedece a lo que en realidad se da. Pues, conjetura, idea, invento, novedad, prototipo, desarrollo e innovación es una larga escala, en la que, en los tiempos actuales, usualmente, faltan todos los peldaños, salvo el último, si atendemos al lenguaje cotidiano y menos cotidiano, diríamos también.

Para que se dé la innovación, la sociedad ha de bautizarlo de esta forma y la Sociedad solamente otorga esa distinción, tras la asimilación de que lo aportado supone una mejora en las condiciones de vida, un progreso con respecto a la situación anterior. El largo recorrido de los vehículos, hoy denominados coches, para aportar un cambio sustancial en el concepto de desplazamiento, que haya sacudido la forma de vida y haya supuesto una organización de la sociedad de forma diferente y ventajosa, se fue dando progresivamente. No logró ser innovación hasta que adquirió una personalidad propia, separadamente del carro del que procede y la sociedad lo asumió. Trastocó, situación de los hogares, hábitats, transporte, intercambio de productos, comercio, cultura, construcción, etc. Ha sido una innovación de alcance

En otros campos, la situación es parecida. Es decir, no solo es la Ciencia que escudriña, la que justifica los procesos de la Naturaleza y descubre su intimidad ni la Técnica, que viene detrás acomodando la Naturaleza para nuestro propósito, facilitando el acceso a la misma, es que después vienen los usuarios, que dictaminan si aceptan como ventajosa o no la aportación. ¡Cuantas novedades y prototipos y desarrollos no han visto nunca el mercado! IBM daba una cifra, escalofriante, en la década de los ochenta: de cada 2000 prototipos solamente uno veía el mercado. Los que no llegaban nunca al mercado ¿pudieron ser innovaciones, alguna vez? Está claro que no. Intentos fallidos. Ideas no concretadas, novedades que no progresaron. Inventos que no cuajaron. Cualquier cosa, menos innovación. Es posible que hoy, la cifra pueda ser la misma. Tan solo un producto de cada dos mil conjeturados, pudiera llegar a ser provocador de una innovación.

Las aplicaciones, la técnica, que como diría Ortega: “sin la técnica el hombre no hubiera vivido ni viviría jamás” van encaminadas a propiciar las innovaciones. Son constantes las aportaciones, se tornan obsoletas con el tiempo, algunas muy rápidamente.  Cuando nuevas propuestas aventajan a las existentes,  implican al usuario para que dictamine. En la Revista de Telégrafos del año 1892 N. 295, que se puede encontrar en el archivo del foro de las telecomunicaciones, queda recogida esta reseña que evidencia como se preocupaba la Técnica de la satisfacción de necesidades, haciendo referencia, textualmente, a que la “Compañía newyorkina Stronger automatic telephone, para lograr, no solo la rapidez en el establecimiento de la comunicación entre abonado y abonado, sino también para disminuir en grande escala el personal de las Estaciones centrales, utilizando en lugar de este unos instrumentos que automáticamente ponen al abonado en comunicación con otro. Estos instrumentos contienen cinco teclas colocadas sobre uno de los lados del teléfono, y corresponden a las unidades, decenas, centenas y millares de los números que forman los de los suscriptores. Cuando uno de éstos desea comunicar con el núm. 131, por ejemplo, oprime una vez la tecla de las unidades, tres veces la de las decenas y una vez la de las centenas, y el aparato de la Central le coloca en comunicación con el teléfono de dicho número. La quinta tecla sirve, una vez oprimida, para volver el mecanismo a su estado normal. Si este sistema funciona bien, desaparecerán las demoras por descuido o cansancio de los empleados de las Centrales telefónicas.” Claramente, se expone la ventaja presunta que se aporta con la propuesta técnica que se ofrece. No se debió generalizar su uso, por aquello de que los avances lo debieron sobrepasar. Era una novedad que pretendía, tras la idea que la sustentaba, aportar un desarrollo que mejorara la vida y aportara progreso. De momento fue novedad. No llegó a ser innovación.

Muchas veces, el interés de la industria, no solamente era aportar novedades sino que su preocupación se enfocaba, también al buen uso, sin duda para que fuera no solo novedad, sino que aportara ventajas sustantivas en la buena dirección. En la citada Revista de Telégrafos de 1892, n 297 se publica una reseña en la que se dice “La nueva tarifa establecida en Suiza para los abonados de la Telefonía, que redujo de 180 pesetas al año a 80, el precio de suscripción, ha producido en el número de aquéllos un aumento del 81 por 100, pues antes de regir la indicada tarifa, los abonados eran 6.944 y ahora ascienden a 12.595. La suma de longitud de todas las líneas telefónicas es de 5.200 kilómetros con un desarrollo en los conductores de 21.450. Las principales redes son:; la de Ginebra, con 2.176 abonados, Zurich, con 1.712; Basilea, con 1.522; Lausana, con 806; Berna, con 753 y San Galo, con 596. El número de conversaciones en el último año en las líneas urbanas, ha sido de seis millones y pico. Este exceso de locuacidad ha parecido excesivo, y para restringirla se ha introducido una cláusula en la nueva ley, previniendo que a cada abonado solamente se le concede derecho a 800 conversaciones al año, y por las que pasen de este número deberán pagar cinco céntimos por cada una. Los ingresos han alcanzado la suma de 1.625.000 pesetas, siendo escasos los beneficios porque los han absorbido la construcción de nuevas líneas.

Queda claro que se pretende un objetivo, además de técnico, con incidencia social, mezclado con las restricciones técnicas, ante la aceptación de la sociedad de las novedades aportadas. El final lo conocemos: la innovación que hoy disfrutamos, en gran medida se debe a que aquella aportación de novedades de las telecomunicaciones, han desencadenado muchas otras novedades, avanzando progresivamente en la dirección de desencadenar innovaciones que han cambiado nuestra vida, han mejorado sustancialmente la comunicación interpersonal, han potenciado la actividad de las empresas, de los viajes, etc. En suma, han aportado innovación que ha traído de la mano progreso. Pero ha sido la sociedad con su veredicto la que ha calificado la innovación, cuando corresponde, nunca antes. Muchas ofertas quedaron en el camino. No innova quien quiere, es la sociedad la que puede, ella tiene la palabra.

DESCONCERTANTE ENTRELAZAMIENTO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

El fenómeno cuántico más desconcertante es el entrelazamiento cuántico. Mediante él, dos o más partículas se hacen interdependientes, formando un sistema único en el que el estado de cada una de ellas no se puede describir independientemente. Esto significa que cuando se somete a una de las partículas a un proceso, se incide al mismo tiempo sobre ella y se correlaciona con las demás partículas con las que está entrelazada. Científicos chinos dicen haber conseguido transmitir fotones entrelazados desde un satélite a tres estaciones situadas en la superficie terrestre, donde las partículas mantienen el entrelazamiento cuántico pese a que la distancia que las separa es de 1.200 kilómetros. Hasta ese momento (2017) el record estaba en 100 kilómetros.

Esta relación de interdependencia que se establece en el entrelazamiento cuántico, se puede mantener aun cuando estén separadas grandes distancias, incluso podría ocurrir que se mantuviera a años luz de separación. La actuación sobre una de ellas, como es el hecho de efectuar una medida, implica efectos cuánticos sobre las partículas que están implicadas en el entrelazamiento, de forma que, si la medida, como se postula, supone un colapso a un estado estacionario, al estar entrelazada con otra u otras, colapsa esta segunda u otras más, también.

En los cálculos que se llevan a cabo en los ordenadores cuánticos, se emplean los qubits, en lugar de los bits y aquéllos son la versión cuántica de éstos últimos, y como los qubits están entrelazados, hay una correlación entre ellos y midiendo el estado de un qubit, obtenemos información de otro qubit, lo que resulta muy interesante y es la base del procesamiento de los datos con un ordenador cuántico. La servidumbre es, que los algoritmos desarrollados para resolver los problemas convencionales, no son válidos para la computación cuántica; hay que desarrollar nuevos algoritmos para aprovechar las potencialidades que ofrece la representación de los datos, mediante superposición de estados (qubits), lo que conlleva una potencia de cálculo realmente desproporcionada para lo que conocemos hoy que pueden ofrecer los ordenadores convencionales. Eso significa, mayor capacidad y mayor velocidad de cálculo.

Para concretar alguna de las ideas vertidas anteriormente, pensemos que los ordenadores clásicos procesan la información en forma de bits. Los estados posibles de un bit son dos; 0 y 1.  Con dos de ellos solamente podemos almacenar la información de alguna cosa que solamente tenga dos opciones: si o no. Tendremos que asociar varios bits (por cierto proviene de binary digit, de forma que, en cálculo, dada la equivalencia de los sistemas de numeración si tenemos en cuenta que un dígito decimal requiere cuatro dígitos binarios, pues si queremos un número real con una precisión de 25 cifras decimales, requeriremos, al menos hasta 100 dígitos binarios para representarlo. Para representar los caracteres requeriremos unos 25-30 (salvo el katakana japonés que consigna 46) , mayúsculas y minúsculas y unos 20 caracteres especiales (punto y coma, coma, paréntesis, etc.) y se adoptó el convenio de dedicarle 8 bits, con lo que se dispone de hasta 256 combinaciones para este efecto. Si a cada una de las combinaciones las concebimos como un estado con 8 bits tendríamos hasta 256 estados para representar hasta 256 cosas diferentes. Pero si formulamos una combinación lineal de todos ellos en la que los 0 y 1 pueden ser cualquiera de los comprendidos entre ellos. La alternativa es que si bien, por ejemplo, con dos bits tenemos cuatro posibles estados: 00, 01, 10 y 11, pero solo cuatro y uno de ellos solamente cada vez. Si los superponemos, por ejemplo dos qubits, cada qubit podrá ser 1 o 0, o ambos, de forma que podremos representar los cuatro valores simultáneamente. Con tres qubits representaremos ocho variables, con cuatro 16 y así sucesivamente.

Según sea la configuración, un qubit tendrá una cierta probabilidad de colapsar al 0 o al 1. La probabilidad de colapsar un qubit está determinada por la interferencia cuántica. Recordemos la analogía con caminar hacia la derecha o hacia la izquierda. Supongamos que tomamos una foto del itinerario. Si la máquina de fotos lleva un filtro 70/30 (izquierda/derecha) el 70% de las que tomemos será yendo a la izquierda y el 30% hacia la derecha. Pero lo que esto significa es: el filtro ha interferido con el estado de la cámara de fotos, de manera que ha sido determinante para reflejar la probabilidad de su uso (comportamiento). Del mismo modo la interferencia cuántica interfiere el estado de los qubits influyendo en la probabilidad para los resultados que vamos a obtener al efectuar una medida y el estado más probable será aquél que tenga mayor probabilidad. Realmente una cultura nueva. Ánimo que esto no para aquí.

DE SUPERPOSICIÓN EN SUPERPOSICIÓN por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La Computación Cuántica emplea los principios de la Mecánica Cuántica para procesar la información (en realidad, los datos). Las hipótesis de partida no tienen mucho que ver con las que fundamentan la Mecánica Clásica. Los procesadores cuánticos no tienen mucho que ver con los clásicos, aunque funcionalmente los recuerden, pero lejanos en los principios y en la forma de operar. Los chips basados en el silicio, que posibilitaron la computación convencional, tienen sus alternativas cuánticas en átomos, electrones, fotones o iones. Junto a ello, emergen las cuestiones de fondo, que son: probabilidad, superposición, medida, entrelazamiento. Los algoritmos para resolver los problemas en computación cuántica no tienen mucho que ver con los convencionales. Es una gran servidumbre, por cuanto hay que desarrollarlos de nuevo: mismos problemas con distintas formas de resolverlos.

La superposición es una propiedad genuinamente cuántica. Es contraintuitiva. No es fácil comprenderla, desde nuestras posiciones, culturalmente clásicas. Supongamos que estamos en un recinto haciendo ejercicio físico. Caminamos hacia la izquierda y después giramos y lo hacemos hacia la derecha. De nuevo, supongamos que cambiamos de patrón y giramos a la izquierda y giramos al mismo tiempo hacia la derecha. No podremos hacerlo, salvo que nos dividamos en dos. No podemos estar, al mismo tiempo caminando en ambos sentidos. Nuestro cuerpo macroscópico no parece encontrar solución para esta ubicuidad. Lo ha pretendido desde hace mucho, pero se resiste. Pero si fuéramos partículas cuánticas tendríamos una cierta probabilidad de hacerlo. La propiedad implicada es la denominada coherencia y la forma es la denominada superposición de estados. Los electrones, como es sabido, están dotados de espín, que los asimilamos con giro a izquierda o a derecha sobre ellos mismos, arriba o abajo, en notación simbólica y con 1 o 0 como bits para computación que, estrictamente hablando no es el dispositivo físico el que denominamos bit, sino a la información que soporta algo que puede tener dos estados, como es el caso del espín electrónico. Cuando una partícula es cuántica, se encuentra en una superposición de estados, expresada matemáticamente como combinación lineal de un número infinito de estados que incluyen al 1 y al 0 pero, a diferencia del tratamiento clásico, ahora no sabemos en cuál de ellos está en un momento dado, si lo observamos, es decir, si pretendemos medirlo. Pero eso tiene consecuencias.

La medida, a diferencia del proceso propio de la mecánica clásica, en que la medida es una forma de controlar el sistema, conocer sus propiedades, cuánticamente, la interacción con el sistema, imprescindible para llevar a cabo la medida, no es un proceso, ni gratuito ni neutro. En nuestro ejemplo, si queremos registrar nuestro itinerario con giros a derecha e izquierda, obtendremos como mucho, una foto borrosa, girando hacia la derecha y hacia la izquierda. Pero si fuéramos una partícula cuántica, no habrá duda de dónde estamos cuanto registramos la foto y nos mostrará bien que caminamos a la izquierda o a la derecha, nada más. Ocurre esto que describimos, porque el acto de observar, de medir una partícula cuántica, dado el estado de superposición que lo describe, como consecuencia del proceso de medida, colapsa, o lo que es sinónimo, se convierte en decoherente y la partícula adopta la descripción de los estados clásica, pasando a estar en el estado 0 o el 1. Ese es el resultado de la observación. Claro, que esto introduce algo con lo que no contábamos en la Mecánica Clásica que es que el sistema, al observarlo lo alteramos, ya no es el mismo. Nosotros intervenimos en el sistema al medirlo y eso tiene consecuencias. El precio a pagar por la medida es la decoherencia. Pasa de estar descrito por un estado expresado mediante una combinación lineal de todos los posibles con unos coeficientes cuyo módulo al cuadrado responde a la probabilidad de estar descrito por cada uno de los estados que componen la combinación lineal, a estar descrito solamente por uno de ellos que hará visible al más probable, lo que no quiere decir que los demás no los obtengamos nunca, pero sí que con una frecuencia que coincide con la probabilidad que se le asigna. Una vez que una partícula cuántica se ha sometido a una medida, ya queda por siempre en el estado que lo describe, en nuestro caso 0 o 1, y siempre permanecerá ahí, salvo que se le active, nuevamente, para situarla en otra superposición. En el fondo, un estado estacionario, es decir, con tiempo de vida infinito, es una combinación lineal en la que un solo coeficiente tiene valor unidad y el resto cero.

MULTIFERROICOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Las imágenes estereotipadas abundan. La mayor parte de las veces, están tan arraigadas que parece inevitable su apelación. Han calado tanto en la conciencia colectiva e individual, que no hay lugar para la duda. Lo hemos referido en múltiples ocasiones, cuando citamos que la Ciencia no da por finalizado nada, nunca. Todo está en periodo de construcción, aun cuando pueda parecer que sea definitivo, para algunos.

Uno de esos mantras que la sociedad construye es el de La “energía mueve al mundo”. Es la imagen que nos deja Newton con su inabarcable obra. Es tan gigantesca su aportación que imágenes derivadas de ella se han asentado, hasta tal punto que forma parte, casi genéticamente, de los humanos. Derivado de ella es la flecha del tiempo, que posteriormente acuñó Clausius, daño lugar al pasado, presente y futuro, que todos los humanos interiorizamos de forma incontrovertible. Al coincidir con la experiencia vital macroscópica que disfrutamos los humanos, la apariencia coincide con la expectación y se ha asimilado de forma total, Con la energía ocurre otro tanto de lo mismo. Pero la flecha la impone la entropía, que es la que mueve el mundo. Todos los procesos acontecen en virtud de un incremento de entropía. La relatividad y la gravedad cuántica lo aclaran meridianamente, pero sus abstracciones son de cierta envergadura y contraintuitivas, en muchos aspectos, por lo que sigue primando la visión energética del mundo.

El magnetismo y la ferroelectricidad son las propiedades más comunes en los dispositivos electrónicos actuales, desde los ordenadores hasta cualquier dispositivo electrónico. El magnetismo orienta la aguja magnética hacia el polo norte, como bien es sabido, al alinear los momentos magnéticos de los electrones que conforman el material. Por su parte, los materiales ferroeléctricos mantienen la polarización eléctrica, incluso cuando cesa el campo eléctrico que lo genera. No es fácil reunir ambas propiedades, que no se da de forma natural. Al precisar un material aislante se han empleado óxidos magnéticos aislantes, empleados en forma de sándwich, como en el caso del osmato de litio. El objetivo es frenar el movimiento de los electrones del otro componente y esto genera la aparición de propiedades ferromagnéticas y ferroeléctricas a temperatura ambiente.

Ahora, investigadores británicos, franceses y alemanes han ideado un material que presenta un magnetismo singular, que resulta muy útil a temperatura ambiente. A la propiedad que exhibe se le denomina “multiferroica”, que puede albergar carga eléctrica (ferroeléctrica) y magnética (ferromagnética). La electricidad controla la componente magnética. El material de partida es el titanato de bario al que se incorporaron las propiedades aludidas en forma de delgadas películas, construidas gracias al procedimiento de nuevo cuño de dispersión magnética resonante de rayos X blandos. Al ser el titanato de bario ferromagnético, sí posee momento magnético y mediante un campo eléctrico se puede controlar. De esta forma, es fácil entender que, si se aplica una diferencia de potencial al material ferroeléctrico y se invierte la polarización ferroeléctrica, se verá afectada la magnetización de la película de Titanato de bario que tiene encima. De esta forma se puede registrar un bit, solamente mediante la aplicación de diferencia de potencial, lo que supone un mecanismo energéticamente ventajoso sobre los actuales procedimientos para grabar información.

La aportación es significativa, por cuanto se trata de obtener estos materiales a temperatura ambiente, lo que supone una ventaja sustancial con respecto a los materiales multiferroicos actuales. No es usual manejar materiales con propiedades ferromagnéticas y ferroeléctricas simultáneamente. Actualmente los materiales que presentan ambas propiedades operan a temperaturas muy bajas y, si hay que descender hasta unos 270 grados centígrados bajo cero, es no solo complicado, sino caro. Topamos con la energía.

Las aplicaciones de estos materiales es muy directa en la construcción de unidades centrales de proceso (CPU), memorias de almacenamiento de datos, al permitir grabar bits usando un campo eléctrico en lugar de un campo magnético, como ahora, y desde las primeras ferritas que emplearon bobinados para, en función del sentido de circulación de la corriente eléctrica (Ley de Lenz) generaban magnetismo permanente en un sentido u otro, posibilitando tano la escritura de un bit, como la lectura del mismo. Usar un campo eléctrico, en lugar de uno magnético, supone un ahorro de energía. El ahorro de energía parece guiar el devenir de las mejoras, aunque en realidad, sea la entropía la que nos dirige.

RENDIJAS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Preciosa denominación la asignada a la abertura estrecha y alargada entre dos cosas o partes de la misma cosa frecuentes en muchos materiales. No desvela del todo lo que está oculto, pero lo insinúa, lo deja entreabierto y es el cerebro el que tiene que responder con menos información que la habitual para configurar lo que la a percepción visual le suministra. Una rendija, muchas veces es la esperanza de llegar a alguna parte o escapar de algún confinamiento, voluntario u obligado.

Pero si el término es bello, en el ámbito científico lo supera. En 1801 Thomas Young realizó el experimento de la doble rendija, con el que comprobó la naturaleza ondulatoria de la radiación (luz) al difractarse por dos rejillas. Hasta ese momento prevaleció la interpretación corpuscular de Newton, según la cual la luz eran partículas que se propagaban en línea recta. Al acumular hechos experimentales enmarcados en ambas teorías, corpuscular y ondulatoria, se acabó aceptando la interpretación dual de ambas para la radiación,  a comienzos del siglo XX, que posteriormente se extendería a todas las partículas microscópicas, electrones, protones, neutrones, etc. Los patrones de interferencia que se producen son inequívocos para la interpretación ondulatoria.

Originalmente, Young, en una sesión de la Royal Society utilizó un haz estrecho que penetraba en una cámara y que resultaba dividido por una tarjeta que situaba a la entrada de aquella que tenía un espesor de 0,2 milímetros y situada paralela al haz de luz incidente que tenía una anchura algo superior a esa anchura de la tarjeta. Cuando la posición de la tarjeta era apropiada, dividía el haz en dos que pasaban por ambas partes de la tarjeta y al proyectar e resultado en una pared de un recinto oscurecido se observaba un patrón de interferencias producido por ambos haces tras ser divididos por la tarjeta y esto ponía en evidencia la naturaleza ondulatoria de la luz

Modernamente el experimento se ha mejorado sensiblemente incorporando dos rejillas, en lugar de una, como proponía Young. La consecuencia es que a incidir la luz y pasar por dos rendijas y proyectarse sobre una pantalla posterior que incluye una placa fotográfica, se registra la interferencia. Cuando una de las rejillas se cubre, solo se registra un pico, procedente de la rejilla que queda abierta, pero si ambas están abiertas en lugar de la imagen ser una superposición de las que se obtienen para cada rendija por separado, se obtiene una imagen con zonas oscuras y otras brillantes. Son las interferencias constructivas y destructivas en función de la coincidencia o situación opuesta de las fases de ambas ondas. Lo mismo que ocurre con las ondas de la superficie del mar o propagándose a través de cualquier medio material. El resultado es cretas y valles producidos por la interferencia.

Pero el experimento da más de sí. La descripción cuántica de la materia concibe una descripción de una onda física, con sus valles y crestas indicando niveles de probabilidad de que acontezcan los fenómenos que se estudian. Así pues, se trata de interpretar que hay una onda de probabilidad que se mueve en el espacio, al depender del tiempo cuantitativamente. No hay una ubicación concreta de ninguna partícula y hay que detectarlo para poder concretar la ubicación. Un patrón de interferencia consiste en que se emitan partículas que acceden a la pantalla de registro, por caminos diferentes. En los experimentos se abstienen de observar nada desde la emisión hasta la llegada a la pantalla de registro. Se registra el resultado final que es la interferencia.

La paradoja surge cuando Feynman desarrolla una interpretación teórica del experimento de Young. Si la fuente de luz lanza fotones individuales, uno a uno, se sigue produciendo la interferencia que detectó Young. Si una de las rendijas se cubre, los fotones deberían solamente producir un pico en el registro, mientras que si las dos están abiertas, se debería producir la interferencia con esas zonas brillantes y oscuras. En la pantalla se registra la llegada de la misma cantidad de energía. No es nada fácil entender cómo es posible que se produzca la interferencia cuando solamente llega un fotón. En el marco de la Mecánica Cuántica se postula que son las ondas de probabilidad las que determinan la probabilidad de encontrar en cada punto del espacio a la partícula y son estas ondas las que producen la interferencia. Finalmente, si pretendemos detectar por que rendija ha pasado el fotón, se destruye la imagen de interferencia, colapsa la función de onda, en la interpretación de Copenhague de la Mecánica Cuántica. La observación de la realidad colapsa la función de onda.

La condición para que se produzca la interferencia es que las ondas producidas en la difracción que provoca la rendija deben ser coherentes, es decir que mantengan la misma fase y que se mantenga en el tiempo la diferencia de fase entre los dos haces y que sus polarizaciones no sean perpendiculares y que, finalmente, las dos rendijas se han de situar como mucho a una distancia de unas 1000 veces la longitud de onda del haz incidente y que la anchura de las rendijas sea menor que la longitud de onda

Recientemente, Shina, del Instituto de investigación Raman en Bangalore, ha llevado a cabo el experimento, con tres rendijas en lugar de dos. El principio de superposición que permite interpretar que las partículas se encuentran en diversos estados al mismo tiempo, ahora permite construir qutrits en lugar de qubits que tiene importantes consecuencias para la computación cuántica, que pretende disponer de gran cantidad de estados para llevar a cabo los cálculos de manera mucho más eficiente y rápida, como exigen determinados grandes problemas a resolver que hoy todavía no se pueden abordar por falta de capacidad y rapidez en las operaciones. La computación cuántica no es una conjetura, solo necesita de sistemas físicos capaces de realizar las operaciones con la seguridad y estabilidad que requieren los cálculos y las operaciones computacionales. El experimento de la triple rendija no vuelve a poner frente al espejo en el que visualizamos las propiedades básicas de la materia que desde sus entrañas más recónditas colabora para el avance científico. No hay innovación más potencial que la que la luz sigue ofreciendo más de doscientos años después de que nos sorprendiera con sus inextricables propiedades. El camino es largo, pero promete ser fructífero.

CICLOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

No somos capaces de imaginar cómo podría ser la vida sin la existencia de ciclos. Cumplimos el ciclo de la vida, anualmente nos renovamos repitiendo una y otra vez, todos los días comenzamos de nuevo un ciclo diario, nos hablan de la existencia de ciclos económicos, algunos tienen denominación específica: ciclo del agua, pasando ésta de líquido a gas o a sólido en función de las condiciones ambientales; Ciclo del nitrógeno, que incluye los procesos biológicos y abióticos en los que se suministra el nitrógeno; Ciclo del carbono, incluyendo los procesos en los que interviene el carbono, en la biosfera, atmósfera, hidrosfera y litosfera; Ciclo del azufre en que interviene en sus distintos grados de oxidación; Ciclo del calcio        que recorre por el interior de los seres vivos o por el exterior, de forma recurrente. Ciclo del fósforo, desde su reserva en la superficie de la Tierra y a través de los seres vivos, en litosfera, hidrosfera y atmósfera; Ciclo del oxígeno a través de ciclos biológicos y geológicos. Estamos inmersos en procesos cíclicos.

Los procesos cíclicos son repetitivos y ha habido incluso, propuestas de entender la Historia como uno de ellos, frente al progreso histórico de otros, como si la humanidad constantemente retornara al punto de partida. Son varias las formulaciones de ciclicidad de la historia. Los ciclos económicos incluyen expansión, crisis, depresión, recesión y recuperación, con lo que vuelta a comenzar. Se le asignan muchas causas y se dan muchos tipos de ellos. La atmósfera no está exenta de sus propios ciclos; el año meteorológico tiene una repetición confirmada. La ciclogénesis es el proceso de creación de un ciclón, depresión, borrasca donde el viento gira contra las agujas del reloj en el hemisferio norte y al contrario en el sur.

Un proceso cíclico tiene la ventaja de la repetición. Es previsible (hasta cierto punto). Todas las civilizaciones han concebido el tiempo cíclico al observar lo en los procesos naturales: estaciones, grandes sequías, lluvias, etc. En Oriente se desarrolló la cultura cíclica, que las culturas occidentales asumieron e incorporaron y las culturas americanas y politeístas, también referenciaron un concepto circular del tiempo. Con que prevean las fases que conponen la repetición, se ha resuelto el problema. En los motores de explosión, por ejemplo, concebidos los ciclos, el desplazamiento puede ser ilimitado, mientras energéticamente sea posible.

No es concebible la vida y sus procesos de no ser cíclicos. El tiempo se ha concebido respondiendo a una linealidad, con pasado presente y futuro, aun cuando desde principios del siglo XX, es una concepción dudosa, que no responde al condicionamiento desde la teoría relativista que evidencia que la concepción del presente deja de tener sentido. Está muy arraigado entender el tiempo linealmente, desde que Newton introdujo, subrepticiamente esta concepción, aun cuando son los procesos, los cambios, los que se consignan y los que tienen visos de realidad. Los ciclos, precisamente, concretan los cambios y la repetición de los mismos establece la frecuencia con que acontecen globalmente. Todo viene a ser vibración, todo parece disponerse para que detectemos la frecuencia del cambio. Y todas las frecuencias son reducibles a la escala musical. De este modo, cualquier proceso es convertible en una melodía que se interpreta a partir de las oscilaciones que lo conforman. Tomemos la Tierra, por ejemplo, en el movimiento de traslación alrededor del Sol en el que emplea 365.26 dias = 8766,15 horas = 525.969,15 minutos = 31.558.149,54 segundos y, por tanto su frecuencia es de 1/ 31.558.149,54 hercios (s-1) = 3.168 x 108 Hz. Queda muy alejada del campo de audición humano, situado entre 20 y 20.000 Hz. Como la frecuencia se duplica en una octava, para escalar la frecuencia obtenida para la Tierra, multiplicaremos por 2, tantas veces, como sea necesario, hasta encajarla en una octava audible de la escala musical. Así, si multiplicamos por 232, por tanto 32 octavas por encima, obtendremos una frecuencia de 136,11 Hz que corresponde a la nota DO sostenido de la tercera octava (DO central) , en la que el La vibra a 440 Hz.

De igual forma la molécula de CO, cuya frecuencia de vibración es de 6.42 1013 Hz = 467.116 Hz que se corresponde con el La# o SI B de la tercera octava (central del pìano).  En el fondo, ciclos, es música, oscilación audible.Es cuestión de saber y poder escuchar.