CEREBRO CUÁNTICO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Se está introduciendo un perfil, que se denomina cerebro cuántico, refiriéndose a un ordenador que funciona con capacidad para aprender, aparentemente imitando a los humanos. Nuestro cerebro cambia, como rasgo fundamental del aprendizaje y la experiencia acumulada. La pretensión de la técnica es imitar ese proceso y lograr que los ordenadores se comporten de forma autónoma, siguiendo esa pauta. Pero no nos referimos a este perfil, que no deja de ser importante, claro está y tiene su propio itinerario. Nos ha parecido necesario puntualizar desde el primer momento que la orientación de este texto es bien otra. Nos ocupamos del cerebro genuino, el único hasta ahora conocido, aunque es un decir el término que acabamos de emplear, porque probablemente es la incógnita mayor que se cierne sobre la Ciencia que, desde siempre, ha pretendido desentrañar su intimidad, que se sigue resistiendo a desvelar los secretos que guarda.

Ya hace tiempo que se propuso la existencia de efectos cuánticos en proteínas del cerebro. Se denominan microtúbulos y juegan un papel central en la naturaleza de la conciencia. Penrose dedicó mucha atención a ellos, concluyendo de forma lapidaria que “El reto de la física es explicar cómo funciona la conciencia”. Durante mucho tiempo, las teorías que sustentan el comportamiento cuántico en los sistemas biológicos, han sido puestas en entredicho, aduciendo que era muy improbable que acontecieran procesos regidos por la cuántica en sistemas que tienen una temperatura como la ambiental, lejos de las bajas temperaturas que parecía que requerían los sistemas para que pudieran apreciarse los efectos cuánticos. Lo que la temperatura suscita es que la superposición de estados en las que se mantienen los sistemas cuánticos, en los que la propiedad esencial es la coherencia, no podía cumplirse y los sistemas estaban sujetos, en estas condiciones, a la decoherencia. De esta forma, se excluía la opción, durante mucho tiempo, de que los sistemas biológicos pudieran exhibir comportamientos cuánticos.

La decoherencia explica como un estado cuántico entrelazado, es decir descrito por una combinación lineal de estados cuánticos, pero no identificándose con ninguno de ellos, puede desencadenar un estado descrito por la Física clásica, por tanto, no entrelazado, sino un estado individual, De esta forma, deja de exhibir características cuánticas y pasa a tener un comportamiento clásico, ajeno a los efectos que caracterizan a la mecánica cuántica, que son contraintuitivos, por ser ajenos a la evidencia empírica vital de los humanos. La razón técnica de esta denominación radica en que, matemáticamente, las combinaciones lineales que representan al estado entrelazado, pierden la coherencia de la fase compleja. El hecho es muy central en la Física contemporánea, dado que, esta pérdida de coherencia en ciertas condiciones, es la que explica por qué la Física Clásica es una buena aproximación-descripción del mundo macroscópico en que nos desenvolvemos con mayor comodidad. Si recordamos al gato más famoso conocido, el de Schrodinger, las interacciones del gato con el entorno son las que producen la decoherencia y provocan que la combinación lineal de gato vivo y gato muerto vaya a parar a un estado clásico, abandonando la superposición de estados en un tiempo tan pequeño que se hace imperceptible. En un tiempo en torno a 10-65 s, se rompe la superposición y pasa a tener un comportamiento muy diferente al que tendría en aquella condición. Básicamente, la temperatura o un proceso de medida suponen una reducción de la incertidumbre en el estado de un sistema, compensada por un aumento de incertidumbre del entorno (Universo). Así, se interpreta la medida como un proceso irreversible que modifica la entropía del sistema y el entorno del mismo.

En las décadas anteriores, se postulaba que los sistemas biológicos estaban sometidos a decoherencia. Pero estudios, investigaciones y descubrimientos recientes han ido acumulando experiencia en otra dirección. Los efectos cuánticos se han identificado en los sistemas fotosintéticos, fundamentales en el proceso de la vida. Se han propuesto intervención de procesos cuánticos en sistemas tan diferentes como la migración aviar o la olfacción. También se ha incorporado a estos escenarios el mecanismo de los microtúbulos de la conciencia cuántica que postula la cognición cuántica.

Una de las aportaciones del comportamiento cuántico del cerebro se centra en la interpretación de la anestesia general que conecta y desconecta la conciencia. Se postula que ocurre mediante procesos cuánticos, y se concreta a través de las medidas del espín electrónico. Se ha propuesto una hipótesis que implica el efecto túnel, en el contexto del mecanismo de la olfacción como explicación plausible de la acción de los neurotransmisores. Recientemente, se propone un mecanismo acerca de cómo el entrelazamiento cuántico entre núcleos de fósforo podría ser el que provoca el disparo de las neuronas.

Lo señalado y otras teorías, contribuyen a generar un campo de investigación sobre los mecanismos mediante los que los efectos cuánticos podrían contribuir a los procesos neuronales. La evidencia experimental, cada vez más, supone una evidencia de las predicciones de la teoría. El avance simultáneo en campos tan diversos como el mundo vegetal y el cerebro humano, va clarificando, poco a poco, que los materiales biológicos pueden sustentar efectos cuánticos, que pueden ser relevantes a la hora de dilucidar aspectos fundamentales del funcionamiento del cerebro.

COMUNICACIÓN Y COMPRESIÓN por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Shannon formuló en 1948, año de auténtica reserva, lo que se dio en denominar, “teoría de la información” que proporcionó un marco matemático riguroso para cuantificar la cantidad de información necesaria para enviar y recibir un mensaje. Su concreción consistió en determinar el grado de imprecisión asociado al mensaje emitido.

Veamos con un ejemplo la precisión de la idea. Disponemos de una moneda que tiene dos caras iguales y la lanzamos al aire un par de veces, ¿cuánta información nos comunica el lanzamiento? La respuesta solo puede ser una: nada, ya que antes del lanzamiento ya tenemos la seguridad de conocer el resultado con certeza, dado que solo tiene dos caras iguales. En cambio, si lanzamos un par de veces una moneda normal, con su cara y su cruz reglamentarias, el resultado ya no está previsto. Si utilizamos números binarios para codificar los resultados, adoptando 0 para cara y 1 para cruz, encontramos que hay cuatro resultados posibles: 00,11, 01 y 10. Reparemos que cada resultado ha requerido dos dígitos binarios para poder representarlo. En el primer escenario, teníamos certidumbre del resultado, por tanto, en el contenido del mensaje. En el segundo escenario, por el contrario, la probabilidad es de 1 en 4 (25%) de acertar la respuesta correcta y, no solo eso, sino que ahora precisamos dos bits para expresar el resultado sin ambigüedad. Podemos generalizar la situación diciendo que, cuando menos sepamos de un mensaje, más información se requiere para expresarlo. Shannon hizo esto, expresar matemáticamente de forma precisa el mínimo número de bits que requiere la comunicación de un mensaje. A este umbral se le denominó entropía de Shannon. Implícitamente conlleva, algo que también demostró Shannon, que es que, si el emisor del mensaje utiliza unos bits menos que el mínimo, el mensaje inevitablemente resultará distorsionado.

En el mundo de la educación, no reparamos, con frecuencia en los mecanismos de trasiego de la información. El marco que estableció Shannon partía de un hecho cotidiano, muy frecuentemente saboreado en las aulas, cual es que la información se maximiza cuando algo nos sorprende. Eso es, justamente, lo que debiera acontecer en cada instante en las aulas, concretando que el aprendizaje es un itinerario de máximos de información.

La conexión del concepto introducido por Shannon con la entropía es inmediata. Como es bien sabido el vapor de agua tiene una entropía mayor que el agua sólida que forma el hielo, que es una estructura cristalina, rígida, mientras que el vapor de agua tiene muchas formas de disponer las moléculas que lo constituyen. El estado cristalino es más ordenado que el gas, y el líquido, claro. Análogamente, un mensaje construido al azar tendrá una entropía de Shannon elevada, dado que hay muchas opciones para disponer la información, y no hay más que compararla con el patrón que tenga la menor entropía. Esta analogía se plasma en la forma de calcularla, que al igual que en el ámbito de la Física en que la entropía es una función logarítmica de los posibles estados y en el ámbito de la teoría de la información la función logarítmica se aplica a los posibles resultados del evento. Forma elegante, simplicidad exuberante, que lleva a que la entropía es como el número de preguntas necesarias para responder con un sí o un no, que por término medio permiten confirmar un mensaje. Cuantas menos preguntas haya que responder sobre el contenido del mensaje, más incertidumbre habrá para determinar la respuesta.

Si lo pensamos bien, la formulación de las preguntas es clave. Por ejemplo, si imaginamos que el universo está constituido por las letras del alfabeto español, 27 letras y pretendemos adivinar la primera letra de una palabra desconocida, podemos hacerlo generando una letra al azar, lo que nos llevaría a un número determinado de preguntas para localizar cual es. Podemos, alternativamente seguir alguna estrategia más refinada, como es la búsqueda dicotómica, muy útil cuando los elementos están ordenados, pues disminuye exponencialmente el número de iteraciones necesarias, que es log2 n +1. En nuestro caso, con 27 elementos, sería 5,75, pero si se tratara de 50.000.000 de elementos, bastaría con 26,575 comparaciones. ¡Espectacular! Podemos escoger la estrategia de analizar las opciones que nos da la frecuencia de aparición de una letra tras una dada, que en cada lengua tendrá una frecuencia determinada. En suma, las estrategias diferentes nos llevarán a unos patrones que reducen la incertidumbre y permitirán usar cantidades de información pequeñas para comunicar. Shannon soslayó esta dificultad apelando al número mínimo absoluto de bits, o preguntas de respuesta sí o no, necesarias para expresar un mensaje. Es un principio fundamental que establece el grado en que podemos comprimir un mensaje sin que sufra deterioro.

Una aplicación de la propuesta de Shannon se plasma en las tecnologías de compresión de información, tan usual en nuestros tiempos, en especial en el trasiego de imágenes. De forma similar a lo comentado con las letras del alfabeto, ocurre con los colores, que responden a patrones estadísticos. Se han formulado modelos probabilísticos de patrones de color para deducir el color de un pixel en función de los anteriores o próximos. La técnica consiste en asignar ponderaciones a los patrones (debidamente calculadas) y tomar el logaritmo del peso para todas las formas de ordenación posibles en las que aparecen. Este valor establecerá el límite de compresión máximo, que será el valor de compresión que se puede lograr antes de iniciarse la pérdida de información de su contenido. Los algoritmos se comparan con este límite. En función de lo cercano que esté el resultado con ese límite se estará al límite de lo posible a conseguir.

Cuanto menor estructura tenga un mensaje, mayor cantidad de información se requiere. El elemento de comparación es la medida de la entropía de Shannon. La calidad de una comunicación es establece en función de ella. La ignorancia cabalga sobre todo ello.

CERCA…, LEJOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Hace muchos años, en Barrio Sésamo, Archibaldo jugaba a cerca…lejos. Una forma muy visual de aprender conceptos. Cerca, es un adverbio que se refiere a un lugar o tiempo próximo a otro que se toma como referencia. Por el contrario, el adverbio lejos, se refiere a un lugar o tiempo muy distante de otro tomado como referencia.  Cuentos, canciones, juegos han articulado respuestas. También la Ciencia. Conforme hemos avanzado tecnológicamente, hemos multiplicado nuestra capacidad para acercar lo lejano, mediante prótesis, cuando se trata de espacio y la Historia y el recuerdo han venido haciendo lo propio con el tiempo y la Ciencia.

La capacidad de medida de tamaños, ha sido decisiva en el avance científico. Tener acceso al tamaño molecular, ha posibilitado estudiar el mundo microscópico en el que los átomos se desenvuelven y generan las propiedades que percibimos a nivel macroscópico. Disponer de relojes sumamente precisos capaces de medir tiempos muy diminutos, ha posibilitado poder observar los procesos moleculares en directo, no en diferido, como viene siendo habitual desde que la Ciencia se puso en marcha. Láseres de femtosegundo permiten acceder a los tiempos moleculares y láseres de attosegundo permiten el acceso en directo a nivel atómico. También, gracias al láser, dada su direccionalidad y coherencia, lo que le confiere una mínima dispersión, se ha profundizado en distancia y precisión, como nunca antes se había logrado.

Nos hemos familiarizado con la velocidad de la luz. La referimos con harta frecuencia, aunque sin ser muy conscientes de lo que conlleva. Si nos ponemos en marcha a una velocidad próxima a la de la luz, por aquello de no vulnerar postulados bien establecidos, en un solo día transcurrirían ante nosotros en torno a 1000 años de existencia. Es que esa tal velocidad implica que la distancia de la Terra a la Luna se completa en un segundo y medio. A estas velocidades los conceptos de cerca…lejos tienen otra entidad, por cuanto la rapidez de cambio en la clasificación de uno a otro, son casi instantáneas.

El concepto lejos parece ser más atractivo, quizás por la pequeñez nuestra que evidencia. A nivel astronómico, todo parece indicar que nuestra Galaxia podría tener muchos planetas similares al nuestro. Hasta ahora se han confirmado unos 4.000 y solamente un tercio de ellos son rocosos. Hace poco se ha descubierto un exoplaneta, OGLE-2018-BLG-0677b, situado a esa distancia apropiada para recibir la cantidad de calor que se requiere para que pueda existir agua líquida, que son los requisitos más exigentes para la posibilidad de que haya vida. En lo que respecta a nuestro hilo argumental, está situado a 24.722,65 años luz, lo que implica que es uno de los más lejanos visualizado. Para valorar la distancia a la que se encuentra, recordemos que en un día a esa velocidad pasarían ante nosotros 1000 años de existencia en la Tierra. Una detección como ésta requiere avances tecnológicos de importancia, capaces de detectar variaciones en la luz de la estrella mínimas, al verse modificada al pasar el planeta por delante de aquélla. Más todavía, si el método aplicado es el denominado de bamboleo, en el que se trata de detectar movimientos mínimos, derivados de la gravedad de los exoplanetas en las estrellas que los mantienen. La tecnología hoy, permite utilizar un método similar al que empleó Eddington, en 1929, cuando viajó a la isla del Príncipe, en África, para observar el eclipse solar y testificó, como anticipaba la Teoría de la Relatividad, que las estrellas cercanas al Sol deberían estar un poco desplazadas, porque la luz resulta curvada por el campo gravitatorio solar. El brillo del Sol impide que se pueda observar, salvo en un eclipse. Confirmó la Teoría de Einstein, que dicen que comentó en aquel momento que habían tres personas que comprendían la Teoría de la Relatividad y Eddington, con esa sorna británica tan característica, replicó ¿y quién es la tercera? La técnica, hoy, consiste en que, si hay dos estrellas en línea y el observador está en la misma línea, pero alejado, la luz de la estrella que está situada detrás, cuando pase cerca de la estrella situada delante, se curvará, debido a la acción de la gravedad de la segunda. Esto, traerá como consecuencia una distorsión y una magnificación de la luz de la primera fuente, al modo en que actuara una lupa, por lo que se le denomina lente gravitacional. Teniendo en cuenta que se estima un número de estrellas en el Universo de 1024 y en nuestra Via Láctea se estiman entre 200 y 400 mil millones y en algunos cálculos podría alcanzar el billón, con lo que si, además, agregamos los exoplanetas con las perturbaciones que incluirán, disponemos de un procedimiento sofisticado que detecta la presencia de planetas a los que determinar su masa, tamaño, composición etc. El OGLE-2018-BLG-0677b, se ha determinado de esa forma. Una masa de 3,96 la de la Tierra, con una estrella en torno a 0,12 veces nuestro Sol, de la que está separado unas 0,70 unidades astronómicas (similar a la separación entre Venus y nuestro Sol) y emplea 617 días en girar en órbita alrededor de aquél. Por el momento, nada respecto a si es habitable, entre otras cosas por no haber podido determinar con la tecnología actual, la temperatura y la actividad que pudiera haber. Este es el exoplaneta descubierto más lejano en nuestra Galaxia, a unos 25.000 años luz.

La cuestión de cuál es el objeto estelar más lejano en términos absolutos, también hay que actualizar los datos, pues recientemente un equipo internacional de astrónomos ha descubierto la galaxia, rotulada como HDI situada a 13.500 millones de años luz Existía poco después del Big Bang. El Telescopio espacial Webb ha sido la herramienta que lo ha hecho posible.

Gracias al descomunal tamaño del Universo, es posible que radiación que se emitió hace 13.500 millones de años esté llegando ahora a nosotros. Hasta ahora la galaxia líder era la rotulada GN-z11 descubierta por el Telescopio Espacial Hubble, situada a 13.400 millones de años luz. La nueva, HDI, se discriminó entre 700.000 objetos detectados por los telescopios Subaru VISTA, el infrarrojo del Reino Unido y el espacial Spitzer, así como el conjunto milimétrico y submilimétrico ALMA, implantado en el desierto de Atacama. Hay una cuestión residual del grado de significación estadística de las mediciones, que se exige estar situado al 99,999% y solo se alcanza, por el momento un 99,99%.

Lo lejos que se sitúan estas observaciones está tan cerca como a 300 millones de años tras el Big Bang. Los modelos de formación de las Galaxias están al límite de sus posibilidades. Falta por conocer detalles que perfilen el descubrimiento como si se trata de una Galaxia formadora de estrellas o un agujero negro. De momento es la mejor candidata a ser la Galaxia más distante jamás registrada.

De cerca ¡que grandes somos! De lejos, ¡que minúsculos!  Pero, como Humanidad, ¡qué cosas tan grandes protagonizamos!  ¡qué lejanas resultan las Galaxias y los planetas que se investigan!  Lo lejano se torna cercano. Es lo que tienen las cosas definidas de forma relativa. Ya lo enseñaba Archibaldo a los pequeños. ¡Que bendición seguir siendo pequeños!

MEMORIA INORGÁNICA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La obsesión por la vida ocupa nuestras preocupaciones cada vez de forma más intensa. En un tiempo hubo una transición de no vivo a vivo. A partir de los fósiles de rocas antiguas se ha concluido que la vida probablemente comenzó hace unos 4 billones de años, cuando la Tierra era muy joven. Muchos de los científicos piensan que se originó en el agua líquida. En realidad, nadie sabe cómo comenzó la vida en nuestro planeta. Ahora, estamos en el proceso contrario, de vivo a no vivo. La dependencia de los humanos de los objetos no vivos, limita lo que en forma natural debió darse de forma espontánea: el autoensamblaje de las sustancias que dieron origen a la vida. La investigación del proceso de generación de la vida es uno de los tópicos que más tiempo y dedicación investigadora ocupan. Tanto a nivel microscópico, molecular, como desde el punto de vista de posibilidades fisicoquímicas que propicien el autoensamblaje, enormes esfuerzos mantienen una investigación que se extiende en el tiempo. Mientras, se avanza en conocimientos que afianzan los elementos conceptuales para poder explicar el proceso más intrigante en todos los tiempos. A nivel más rudimentario, se ensayan modelos, métodos, conceptos, que pudieran dar una explicación convincente. El agua y el aceite no son miscibles, pero al mezclarlos se obliga a que las gotas de aceite se hagan más grandes. Las gotitas de aceite “socializan” con señales químicas. Con información hereditaria se completaría el proceso. Reacciones químicas en un sustrato burbujeante originaron la vida. Se han vuelto cada vez más complejas. Pero, se intenta encontrar una vía a partir de componentes elementales que se piensa que pudieran dar la clave de la explicación.

Pero, si la capacidad de autoreplicación es central en la explicación de la vida, no lo es menos la memoria y la capacidad de aprendizaje. Investigadores de la Escuela Politécnica de Lausana han descubierto un material que puede aprender como lo hace el cerebro. La base es el dióxido de vanadio, que registra el historial de estímulos externos que le han acaecido. El dióxido de vanadio se usa en electrónica. Por el momento, es el único material que soporta esta propiedad de memorizar. Las transiciones de fase en el dióxido de vanadio son la clave. Una de ellas es aislante, cuando está relajado a temperatura ambiente. Sufre una transición de aislante a metal a 68ºC, en que cambia la estructura reticular. La memoria que se le atribuye se denomina volátil, por cuanto al suprimir la excitación vuelve de nuevo al estado aislante. Pero el trabajo desarrollado en la institución referida, permitió observar un efecto memoria en la estructura del material. La corriente eléctrica circulaba a través del material recorriendo un itinerario dado hasta que salía. A medida que la muestra se calentaba, el dióxido de vanadio iba cambiando de estado. Y cuando la corriente ya había salido, el material volvía al estado inicial. El descubrimiento consistió en que, además de este comportamiento, cuando se inyectaba un segundo pulso al material, se observó que el tiempo que tardaba en cambiar de estado dependía de la historia del material. Todo indicaba que “recordaba” la primera transición de fase y anticipaba la siguiente. Es una propiedad que no tiene nada que ver con los estados electrónicos implicados, sino con la estructura física del material. Los Investigadores de la Escuela Politécnica de Lausana llegaron a determinar que la capacidad de recuerdo del estímulo externo llega a alcanzar hasta las tres horas. Es posible que con detectores de mayor sensibilidad se llegue a observar una permanencia de mayor duración.

La memoria en el equipamiento electrónico es imprescindible y, en este caso, se trata de una capacidad innata en el propio material. Capacidad, velocidad y miniaturización han sido los leiv motiv de los avances en electrónica. Todo parece indicar que el dióxido de vanadio cumple con los tres requisitos. El hecho de que sea una propiedad continua y estructural lo pone en ventaja sobre los materiales convencionales dedicados al almacenamiento de datos, donde lo que se manejan son los estados electrónicos de los materiales empleados.

El hecho novedoso consiste en que esta forma de actuar implica unos interruptores muy similares a los que actúan, aparentemente, en el cerebro humano, donde las neuronas ejercen de cambiadores de estado y mantenimiento del recuerdo, como de sobra es conocido. Es reconfortante la identificación de procesos que responden a patrones de comportamiento que forman parte de procesos fundamentales. La memoria juega un papel extraordinariamente imprescindible en los humanos. Por razones fáciles de comprender, el avance en los procesos cerebrales, a nivel molecular, que es lo que interesa en mayor grado, son muy lentos, pero alguna idea tenemos, obtenida de forma indirecta. Las evidencias observacionales nos hacen conocer algunos aspectos que, ahora, reconocemos en materiales inertes. El avance del conocimiento nos enfrenta casi de forma constante con aspectos ignorados, poco conocidos y, la mayor parte de las veces, desconocidos, lo que nos ha hecho instaurar creencias, en realidad poco fundamentadas. Estos avances del conocimiento nos alerten de que aquí queda mucho por conocer. Y eso no se logra con grandes pronunciamientos elocuentes, sino con trabajo. La poca humildad, de muchos investigadores, nos lleva a escenas en las que se publicita cualquier cosa, mientras que las brillantes ideas que empujan con fuerza y hacen avanzar sensiblemente, emergen con sencillez, en trabajos que, desde la humildad nos hacen progresar. Brillante descubrimiento que dará que hablar y sobre todo dará para hacer en los próximos tiempos.

SERES ARTIFICIALES III: VALLE MISTERIOSO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Mucho se ha escrito y dicho sobre los seres artificiales, como podemos ver, mucho antes de que el término robot hiciera su aparición en la escena, que tiene tan solo un siglo de vida, derivando de la palabra checa robota o roboti (en plural), que significa servidumbre o trabajo forzado. El término se usó por vez primera en la obra de teatro R.U.R (Robots Universales Rossum), debida al autor checo Karel Čapek. Antes y después, se ha escrito mucho sobre el tema, y se sigue escribiendo y filmando en multitud de obras. En el siglo XIX Hoffman, autor que generaba inquietud con sus historias, escribió sobre autómatas con una historia en la que interviene un personaje que se dedica a robar los globos oculares de los niños. Hace participar a Olimpia, que pasa por ser hija de un profesor, pero después se revela que es un autómata, del que se enamora el protagonista, hasta el punto de pedirle matrimonio. No desvelamos el final, que resulta de una crueldad manifiesta. Otros, como Mori, acuñaron el término “valle misterioso” con el que describía la respuesta emocional de las personas ante los robots reales, constatando que cuanto más fotorrealista es un robot, más inquietud provoca. Según él, otorgarle a un robot voz y algo de inteligencia, deriva en una aberración de lo real.

Este concepto de “valle misterioso” es aplicable a muchos escenarios, tanto a la IA como a representaciones de ella. El ordenador HAL 9000 de 2001 una odisea en el espacio, es un ordenador, pero provoca una sensación de temor cuando da una respuesta lógica a una situación ilógica, cuando HAL leía en los labios de la tripulación, cuando hablaban de desconectarlo. Auténticos escalofríos, provocaba en las salas de proyección, si recordamos el momento. Muchas otras obras destacan las imperfecciones o fallos de funcionamiento de los sistemas. Y hay que destacar la obra de Shelley en 1818 cuando creó Frankenstein, haciendo hincapié en el subtítulo “El Prometeo moderno”, que ha desaparecido de las ediciones posteriores. Paso repaso a la ética que subyace en la creación de seres artificiales. Frankenstein desarrolla sentimientos de alineación, cuando se percata de que es diferente. Su creador, no consiente la creación de una versión femenina y la criatura asesina a su novia. Se lamenta que tiene sensibilidad como ser vivo y derecho a felicidad, de la que ha sido privado por voluntad de su creador. La idea de Mori, se manifiesta con crudeza cuando podemos observar que son los aspectos mecánicos y de computación que conlleva la IA, los que provocan el temor de las personas. Cada vez estamos más rodeados de autómatas que toman decisiones desde la lógica, hasta la solución más probable, tras bucear por grandes colecciones de datos en los que se encuentran problemas similares, que pueden ilustrar con cierta probabilidad de la salida más frecuente. Pero, es la apariencia la que nos hace sentir temor, quizás por presumir que no tienen por qué ser dóciles seres sometidos a nuestra voluntad. Probablemente, las cuestiones éticas son más importantes de lo que las consideramos. Al final, la importancia de los valores y los mecanismos para establecerlos, pasan a ser cuestiones fundamentales, que hemos olvidado con demasiada ligereza. No sería un acto defensivo, sino de actitud racional desde una visión del mundo que contemple con ecuanimidad y equilibrio el papel de los seres vivos e inanimados, movientes o aparentemente pasivos que nos rodean, tanto naturales como artificiales.

La Federación Internacional de Robótica informó en 2021 que se había alcanzado la cifra de 3 millones de robots operando en fábricas de todo el mundo. España ocupa el puesto 10 a nivel mundial. El aumento de la tasa de robots respecto al 2020 fue del 10%, pese a que Europa retrocedió un 8%. Las ventas anuales de robots, en todo el mundo, se pronostican para 2022 en 583.520 unidades, lo que supone un crecimiento de un 12% anual de media entre 2020 y 2022. ¡Increíble!

Los seis tipos más usuales de robots son: los móviles autónomos (AMR), los vehículos de guiado automático (AGV), los articulados, los humanoides, los cobots (diseñados para colaborar con humanos) y los híbridos. En todo caso se emplean industrialmente para propiciar la eficiencia, acelerar los procesos, garantizar mejor la seguridad en cualquier sector de actividad. Empresas de tecnología informática han reconvertido su oferta de hardware para aportar elementos que permiten que los robots puedan percibir y comprender el mundo que les rodea.

Uno de los tipos más prometedores es el de los cobots, diseñados para trabajar con personas, de programación sencilla, previa o en tiempo real, con la que se les da a conocer las etapas a seguir. En todo caso, cada vez con mayor intensidad se trabaja en lograr que los robots perciban el mundo que les rodea, siendo el MIT un excelente ejemplo de liderazgo. Su modelo genera un mapa 3D del entorno, en el que incluye objetos y etiquetas semánticas, por ejemplo, dándole significado a la posición de una silla (frente a una mesa, pongamos por caso) y del mismo modo sitúa a personas, paredes, disposición de los recintos y las estructuras detectables. Técnicamente implica que los pixeles que se detectan en una cámara se ven transformados en apreciaciones que implican una especie de comprensión o idea del mundo que los rodea

Se está dando una auténtica revolución pacífica, como se advierte echando un vistazo a las noticas tecnológicas sobre robótica. Algunos intentos se perciben como propios de la ciencia ficción, pero van abriendo interrogantes sobre los cambios que las máquinas de nuestro tiempo desde el ámbito inteligente, van introduciendo en las relaciones sociales y en concreto en el mundo laboral. En suma, lo que parecía ciencia ficción hace no tanto tiempo, se va convirtiendo en realidad. Robots en los servicios públicos, en los quirófanos y en nuestros hogares, por ejemplo. No se despacha esto con una simple apreciación de que así son las cosas. La Ciencia lo ha desencadenado, la técnica lo ha desarrollado y los miembros de una y otra (algunos) no son conscientes de la incidencia social del logro. ¡Mejor, nos lo tomamos en serio!

SERES ARTIFICIALES II: JUEGOS DE AJEDREZ por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La fascinación por la inteligencia artificial se ha mantenido a lo largo de la Historia. Se tenía capacidad para usar la mecánica y simular movimiento, alejándose poco a poco de la mecánica pura e incorporando la energía hidroeléctrica. Descartes reflexionó que, si un autómata se podía incentivar a que se moviera, mediante un flujo de agua, por ejemplo, un humano podría ser incentivado por la existencia de una mente como sustancia. El concepto de alma se introdujo después, como “el fantasma de la máquina”. El cuerpo pasó a concebirse como una carcasa, limitado a una naturaleza mecánica e impulsado por la mente, de naturaleza inmaterial, separada incluso, del cerebro material.

En el siglo XVIII, Europa, sumida en tiempo de guerra, tenía una aristocracia que se entretenía con artefactos mecánicos prodigiosos, androides, que aun hoy causan asombro. El Escritor, el Dibujante y la Pianista revividos recientemente por la marca de relojes Swatch, son piezas creadas por un relojero helvético que se conservan en el Museo de Arte e Historia en Neuchâtel. Por ejemplo, la Pianista ejecuta hasta cinco composiciones musicales distintas en un órgano proporcionado con las dimensiones del autómata. Por si fuera poco, en la interpretación, la elegante señora, escrutaba con la mirada el desplazamiento de las manos, se movía en su silla como lo haría una organista e incluso transmitía el ritmo de la respiración con un vaivén del pecho. Cuando finalizaba la interpretación hacía una reverencia de agradecimiento al público que la observaba.

La pasión por jugar, en especial al ajedrez, se personalizó en múltiples ocasiones con un autómata, en especial en el siglo XVIII. En 1770, Wolfgang Ritter von Kempelen, jugador de ajedrez, inventor y erudito, que jugaba al ajedrez con la emperatriz María Teresa de Austria, aportó el denominado “el Turco”. Kempelen tenía una larga experiencia en la ayuda a ciegos, intentando imitar el habla artificial en una máquina, que denominó “Mecanismo de la Palabra Humana”. En su honor se instituyó el premio Wolfgang von Kempelen de Ciencias. Poco después de su muerte, se descubrió que el autómata del ajedrez, consistía en un experto (a lo largo del tiempo fueron hasta unos 15) que se escondía en el interior, con lo que no había juego autónomo. Su realización fue una obra maestra de la ingeniería, pero no un autómata. Tras él, se construyeron otros posteriormente. Se cuenta que “El Turco” recorrió media Europa enfrentándose, incluso, a Napoleón en 1809, aunque no llegó a jugar contra el Rey Federico el Grande de Prusia, en guerra casi permanente con Austria. Un fraude más, como tantos otros.

Otro de los autómatas construidos, Mephisto, creado por Gümpel, tarea en la que invirtió 7 años y también el más especial, ya que no tenía posibilidad de esconder a nadie. Sigue siendo un misterio cómo funcionaba, aunque detrás de ello había un gran maestro, uno de los cuales fue Isidor Gunsberg, uno de los mejores jugadores del mundo en ese momento y que retó a Steinitz en el campeonato mundial de 1890, que no ganó por muy poco. El creador de Mephisto hablaba de impulsos eléctricos a distancia. La última aparición de Mephisto fue en la Exposición Universal de París en 1889 y después, ya no hubo nunca más noticia ni de él, ni de ningún otro autómata que jugara al ajedrez, manejado por un humano.

Leonardo Torres Quevedo construyó en 1903 Telekino, que movía un barquito de juguete por control remoto. Fue pionero en el ámbito del control a distancia. Estableció los principios operativos del moderno sistema de control remoto inalámbrico. Tras presentarlo en las Academias de Ciencias de Paris, Londres y Estados Unidos, a principios del año 1906, realizó varias pruebas, tanto en Madrid como en el puerto de Bilbao,  ésta en presencia del rey Alfonso XIII y con gran asistencia, haciendo una demostración del Telekino maniobrando un bote a distancia.

En 1914, Torres Quevedo presentó “El ajedrecista”, más de treinta años antes del nacimiento de la aparición de los ordenadores. Torres Quevedo publicó en la «Revista de la Academia de Ciencias de Madrid» un ensayo sobre autómatas, que puede considerarse profético y llevaba por título «La automática. Su definición. Extensión teórica de sus aplicaciones”, en el que expuso un proyecto de sistema para realizar operaciones aritméticas mediante procesos digitales; concibió los circuitos de conmutación empleando relés y presentó la idea de un autómata que empleaba sistemas electromecánicos. Torres Quevedo pensó que en estas ideas radicaba el futuro. En sus escritos enunció los fundamentos teóricos de la automática, expuso un proyecto de sistemas para realizar operaciones aritméticas por procesos digitales, introduciendo la idea de los circuitos de conmutación mediante relés y presentó la idea de un autómata sencillo usando sistemas electromecánicos en los que, según él, radicaba el futuro. En su opinión, los autómatas llegarían a tener sentido y conectarían con el ámbito externo, dispondrían de miembros, ejecutarían operaciones, disponiendo de energía y lograrían tener capacidad de discernir, pudiendo elegir entre opciones diferentes. Afirmó que “El ajedrecista” lo construyó para demostrar su idea de que había que aumentar la capacidad intelectual de las máquinas, para que sustituyan al hombre en trabajos reservados a la inteligencia humana, con lo que se lograría una liberación de algunas servidumbres. Todo un ideario en favor de erradicar la rutina, al menos.

En tiempo más reciente, a partir de la segunda mitad del siglo pasado, se han desarrollado muchos sistemas capaces de jugar con humanos al ajedrez,  desde el primero de ellos,  MANIAC (1956), que ya ganó a un novato en 23 movimientos, pasando por Mac Hack VI (1966–1968), Chess X.X (1968 –1978),  Cray Blitz (1981),  HiTech (1988),  The Aegon Man-Machine Tournaments (1986–1997)  Deep Thought (1989;  Chess Genius (1994), las ediciones de Kasparov – Deep Blue (1996–1997), 1996 y 1997 y posteriores; Anand – REBEL (1998),  Deep Junior at Dortmund (2000);  Kramnik – Deep Fritz (2002); Kasparov – Deep Junior (2003);  Kasparov – X3D Fritz (2003);  Man vs Machine World Team Championship (2004–2005), 2004, 2005;  Hydra – Adams (2005);  Kramnik – Deep Fritz (2006),  Rybka odds matches (2007–2008);  Pocket Fritz 4 (2009); a  Partidos Komodo handicap (2015).

La cuestión destacable de esta serie de competiciones, que se repiten sistemáticamente a lo largo del tiempo, es que, el 10 de febrero de 1996, el superordenador de IBM Deep Blue se impuso al entonces campeón, Garry Kaspárov, en la primera partida de un encuentro pactado a seis en Filadelfia. Tras el fracaso humano inicial, el gran maestro ruso dominó con tres victorias, y finalmente, el marcador quedó en un 4 a 2 a favor del humano. Pero la traducción de esto es que, si bien el ordenador se mantenía por detrás del humano, nada indicaba que aquello era definitivo. IBM encontró un elemento publicitario de primer nivel y preparó la revancha que tuvo lugar en Nueva York en 1997 en el mes de mayo. Ahora, la máquina empató con el humano por el ajustado resultado de 3.5 a 3.5. Pero esto indicaba que la supremacía intelectual del ser humano estaba en cuestión.  Ahí seguimos, con una convicción cada vez más generalizada de que la supremacía intelectual está a punto de caer.

SERES ARTIFICIALES I: ANTIGÜEDAD REMOTA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La idea de los robots no es nada nuevo. De siempre, parece que el hombre pretendió tener a su servicio a un ser artificial a quien daría órdenes, en especial las que él mismo tendría muchas dificultades en cumplir. Antigüedad supuesta para la idea y, hasta cierto punto comprobada, al menos en el periodo histórico. En todo caso fue una idea que emergió mucho antes que los ordenadores hicieran su aparición.

Mitos griegos lo atestiguan, como Talos, autómata de bronce. encargado de defender a la Creta minoica de piratas e invasores. Lo hacía efectivo rodeando las costas de la isla tres veces al día. Apolonio, en las Areonáuticas, relata como el broncíneo Talos “…desgajando peñascos del recio acantilado, les impedía amarrar sus cables a tierra. Él, entre los semidioses había quedado de la estirpe de los hombres que nacieron de los fresnos; el Crónida se lo donó a Europa para que fuese guardián de su isla, y él por tres veces daba a Creta la vuelta con sus broncíneos pies. Pero si bien estaba formado de bronce y sin fractura posible, por debajo del tendón, en el tobillo, tenía una vena llena de sangre, y la membrana sutil que la encerraba, era su límite entre la vida y la muerte…”.

Se considera que Talos fue hijo de Crea y de Hefesto, en unas lecturas, lo que le invalidaría como autómata forjado por Hefesto con la ayuda de los Cíclopes. En otras lecturas se le hace pertenecer a una estirpe de gigantes de bronce y en unas terceras, fue resultado de la forja de Dédalo, a quien se atribuye dotes de arquitecto y artesano hábil, constructor del laberinto de Creta y con dos hijos bien conocidos: Ícaro y Yápige. En todo caso, Talos era el guardián de Creta, bien proporcionado por Zeus a Europa o por Hefesto al rey Minos. Destruía barcos de extranjeros e impedía salir a quienes no tuvieran permiso del rey Minos. El método que empleaba era contundente, pues cuando sorprendía a algún extranjero, se sumergía en el fuego hasta ponerse al rojo vivo e iba abrazando a quien alcanzaba, hasta quitarles la vida.  A Talos solo le recorría una única vena desde el cuello hasta el tobillo, donde estaba remachada por un clavo que le impedía desangrarse, al tiempo que era su flaqueza o punto débil, al estilo de Aquiles. Se narraba que, cuando Jasón y los argonautas arribaron a Creta, una vez conquistado el vellocino de oro, no le permitió desembarcar de la nave Argo, con la que había ido a la conquista,

La hija de Aietes, Medea, la hechicera que se enamoró de Jasón, le ayudó a superar las pruebas para lograr el vellocino de oro, con la condición de que se casara con ella. Al volver a Grecia reclamó el trono de su padre, pero la paz fue efímera, dado que los habitantes de Iokos no aceptaban la magia de Medea y se levantaron para expulsarlos. Se instalaron en Corinto, cuyo rey ofreció su hija a Jasón, lo que irritó a Medea, que presa de la ira mató a la mujer de Jasón y a los hijos de ambos y marchó hacia el Monte Olimpo para olvidar a Jasón y se casó con Aquiles. Pero no terminó ahí la historia, por cuanto Jasón regreso a su tierra Iolkos, pretendiendo vivir en su barco, el Argo; pero un buen dia, estando sentado y llorando la pena, cayó un rayo sobre el barco, destrozándolo por completo y haciéndolo saltar por los aires y como consecuencia del golpe, perdió la vida. Bien pudiera atribuirse a Medea tan dramático final. Medea, nieta del dios Helios, es el prototipo de bruja. Cuando los argonautas llegan a Creta tras la purificación de Medea por el asesinato de Apsirto, atravesar el estrecho de Caridbia y superar el dominio de las sirenas, no pudieron tomar tierra, ya que estaba custodiada por Talos. La única vena que tenía Talos remachada por un clavo en el tobillo fue objeto de un mal de ojo de Medea y un peñasco que cayó le rozó el tobillo y lo desangró. De esta manera acabó el gigante Talos y Medea pudo alcanzar la costa. Como vemos, triste historia mítica la de Talos, victima inapelable como ser artificial. mediante le hechicería o brujería de los humanos.

Otro caso notable es el de Hefestos en la Iliada, que fabricó unas sirvientas en oro para que lo ayudaran en su atención personal. Solo se mencionan en una ocasión en que Hefestos está trabajando y acude a la llamada de la diosa Tetis, que pretende que le fabrique unas armas especiales para su hijo Aquiles, justamente las mismas armas con las que matará, posteriormente, a Héctor. Narra que estaban al servicio de su dueño y señor, en suma, sirviendo a su creador. También, dice que parecían tener vida, que comprendían y tenían cierta autonomía de acción.  Añade que tenían fuerza y voz, con lo que podían realizar tanto trabajos físicos como intelectuales.

Otra notable referencia es la que relata Ovidio en las metamorfosis, la historia de Pigmalión, rey de Chipre, que buscó durante mucho tiempo una mujer con la que casarse. Pero era exigente y pretendía que fuera una mujer perfecta. Tan complicada era su búsqueda que decidió no casarse y dedicarse a crear esculturas que, por su belleza, compensaran su falta de compañía. Una de esas esculturas fue Galatea, que resultó ser tan bella que se enamoró de ella. Gracias a Afrodita, Pigmalión soñó que Galatea cobraba vida. Cuando despertó Afrodita, que había quedado conmovida, le dijo «mereces la felicidad, una felicidad que tú mismo has plasmado. Aquí tienes a la reina que has buscado. Ámala y defiéndela del mal». Fuse de esta forma que Galatea se transformó en humana.

En la época medieval destacamos la aportación del inventor musulmán Ismail al Yazari, que nació en la actual Turquía y vivió en una época de agitación como fue el tiempo de las cruzadas. En el siglo XII, sentó las bases de la ingeniería moderna, la hidráulica y, ¡cómo no!, la robótica. Construyó mecanismos que se emplearon como juegos por los más ricos, junto a máquinas prácticas que ayudaban a las personas o a la extracción de agua o fuentes programadas para conectarse y apagarse. Es notable la realización de un conductor indio (mahout) que iba tocando, hasta media hora, la cabeza de un elefante para provocarle que caminara y autómatas en forma de sirvientes que ofrecían toallas en los baños. Afortunadamente para nosotros, Al Yazari, documentó sus trabajos explicando cómo diseñaba las máquinas que luego construía. En 1206 presentó el catálogo de “máquinas incomparables” que hoy se denomina “El libro del conocimiento de Dispositivos Mecánicos ingeniosos”. Han llegado hasta nuestros días varias copias incompletas muy apreciadas.

Las referencias a ingenios, bien mecánicos o biológicos son muy numerosas. Paracelso, que vivió entre 1493 y 1551 se ocupó de los homúnculos en sus libros prohibidos. Son hombres en miniatura, no una criatura inacabada sino un hombre orgánico con todas sus cualidades y características humanas, salvo que era  creado de forma artificial en el marco de la alquimia. Parecen ser una versión del Golem de los mitos hebreos: un ser animado fabricado a partir de materia inanimada, como barro, arcilla o similar y esta denominación se da  en la Biblia (Salmos 139:16) y en la literatura talmúdica, refiriéndose a una sustancia embrionaria o incompleta. Normalmente es un coloso de piedra. Es famosa la leyenda de Praga, según la cual un rabino creó un Golem de arcilla para defender de la persecución a los judíos. Homúnculo y Golem coinciden en ser una idea metafórica de la subcreación: Dios crea al hombre a su imagen y semejanza y éste, a su vez, puede crear, también, vida.

DANZARINOS ELECTRONES por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La carga es una propiedad intrínseca de la materia, radicada en partículas subatómicas que se manifiestan a través del conocido campo electromagnético. La interacción entre la carga y el campo electromagnético es una de las cuatro interacciones fundamentales. La carga genera el campo y éste influye en aquélla. Hay evidencias experimentales de la naturaleza discreta de la carga y convencionalmente se asigna valor negativo a la de los electrones. Otras partículas tienen carga fraccionaria.

El tiempo es determinante en la observación de determinados procesos intra o intermoleculares. Zewail ejemplificó muy acertadamente la femtoquímica, cuando hizo ver que el tiempo genuino en química es el femtosegundo, ya que la visibilidad de los procesos químicos para observarlos en directo y no en diferido, como ocurre usualmente, consiste en disponer de un reloj capaz de medir tiempos por debajo del significativo, A comienzos del siglo XX el ricachón norteamericano de turno, instauró un permio para quien fuera capaz de responder, con evidencias, si un caballo en carrera mantenía las cuatro patas en el aire, en algún momento. Hubo que esperar hasta la década de los años treinta, cuando se desarrolló un diafragma que obturaba por debajo de la milésima de segundo, para evidenciar que, en efecto, en un instante dado, las cuatro patas están en el aire. Solo se requería un reloj, capaz de disparar en tiempo inferiores al que emplea el caballo en mostrar la circunstancia. En química, ese tiempo es el femtosegundo (10-15 s.), con cuyo reloj podemos ver las reacciones químicas en directo, evolucionar los productos reaccionantes recorriendo la superficie de potencial para desembocar en los productos de reacción. Cualquier otro reloj, solo permite ver el pasado, ver las cosas que ya han ocurrido, en diferido.

En una publicación en la revista Science Advances, el investigador Learmann como líder del grupo de investigadores (el Imperial College de Londres, la Universidad Charles de Praga, la Universidad de Hamburgo, la Universidad de Kassel, la Universidad Helmut Schmidt de Hamburgo, el Instituto Helmholtz de Jena, el Centro Helmholtz de Investigación de Iones Pesados (GSI) de Darmstadt, la Universidad Friedrich-Schiller de Jena y el Centro Helmholtz de Berlín para Materiales y Energía) describe la monitorización de la distribución de carga de los electrones en la molécula de glicina, medida en tiempo real. El interés de los resultados radica en el hecho de que las consecuencias de la aplicación de radiaciones ionizantes, empleadas, por ejemplo, en los tratamientos de radioterapia, muy usuales en el tratamiento del cáncer. Conocer el movimiento de los electrones a nivel molecular permite conocer la dinámica del comportamiento a nivel molecular de los electrones, en especial cuando se utilizan mecanismos de ionización empleando pulsos de rayos X de alta intensidad, bajo la forma de radiación láser de electrones libres. Cuando se aplica esta radiación y se hace incidir sobre la molécula de glicina, que se ioniza, se induce un movimiento correlacionado de los electrones de valencia y de los huecos, observándose que tras un retardo  de unos femtosegundos el pulso de la sonda muestrea el estado del ión glicina y el movimiento de los electrones.

La glicina es un aminoácido muy representativo de la membrana celular y participa en la mayoría de las enzimas a las que aporta flexibilidad derivada en su capacidad para formar puentes de hidrógeno, con lo que aporta capacidad de plegamiento de las proteínas, lo que es muy significativo en las reacciones en las que intervienen. Por otro lado, es reconocida su capacidad como neurotransmisor inhibidor en el sistema nervioso central. Aún más, es la molécula presente en el espacio y puede identificarse como la señal propia de la presencia de vida. La dinámica de esta molécula en el espacio exterior es de mucho interés, por cuanto es significativo su comportamiento en presencia de radiación ionizante propia de las experiencias astroquímicas.

Cuando incide una radiación sobre la molécula de glicina se ioniza, expulsando un electrón del entrono molecular. La carga de la molécula de glicina se redistribuye, generando una oscilación de la densidad de carga dependiente del tiempo. El registro de este proceso en tiempo real, permitió realizar mediciones directas de la dinámica de los electrones tras la ionización y cómo afecta al movimiento nuclear. En resumen, concluyen los autores que al iniciarse el proceso de expulsión de los electrones, se genera una carga positiva en un átomo concreto de la molécula de glicina, y la oscilación de carga que se induce genera un campo de fuerza que provoca que los núcleos también se muevan. Desde el punto de vista cuántico, al arrancar el electrón, el ion glicina queda en una superposición de estados, que incide en la forma en que la molécula reacciona. Lo cierto y verdad es que esto pone de manifiesto que dado que las reacciones responden a las propiedades estructurales de los reactantes y al llevar la molécula a una situación fuera del equilibrio, donde la estructura electrónica dependiente del tiempo, perfila la superficie de energía potencial en la que se mueven los núcleos. La superposición coherente de estados propios en que queda el ion molecular, en este caso de glicina, incide en la forma en que la molécula reacciona y abre un camino para pretender una actuación concreta en las biomoléculas que se trate. Así pues, esta investigación respalda el hecho de la existencia de una coherencia electrónica de larga duración en biomoléculas fotoionizadas y un potencial e mucho interés en la posibilidad de encauzar, enrutar  las reacciones químicas que puedan darse tras el estado ionizado, inicialmente provocado. Una propuesta muy prometedora y con aplicaciones evidentes.

METALES PARA VIVIR por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Los metales forman parte de nuestro organismo y es un error considerarlos, sin más,  perjudiciales para la salud. La idea común es suponer que los metales pesados tienen que ver con envenenamiento y efectos tóxicos. Algo hay de ello, ya que todo es cuestión de la dosis. Lo cierto y verdad es que el cuerpo precisa incorporar oligoelementos y metales para que su funcionamiento sea correcto. Los elementos químicos se clasifican en esenciales y no esenciales en relación a su aportación a la nutrición y por ende a la salud humana. Los metales en forma iónica, esenciales son hierro, calcio, cinc, cromo, cobalto, manganeso, selenio, yodo y molibdeno. El hierro es un componente central en la molécula de hemoglobina que conforma la sangre. El cobalto está implicado en la producción de enzimas que interviene en la síntesis de la hemoglobina. El selenio interviene en la producción de diversas proteínas. El calcio está presente en la armadura ósea. Los elementos no esenciales, como el litio, se usan en el tratamiento de enfermedades mentales como la depresión. Son más conocidos los asociados a las dificultades o agresiones que provocan, como el arsénico, níquel y cadmio. Los oligoelementos forman parte de organismos sanos y se requieren dosis por debajo de 100 miligramos por día. Más resultan tóxicos, incluso la muerte, y la mayoría tienen un efecto acumulativo y menos pueden dar lugar a enfermedades crónicas, porque son necesarios.

El escenario actual contempla la robótica considerada como elementos externos e independientes y autónomos en su grado de desarrollo máximo o la visión del transhumanismo, que valora que la evolución darwiniana puede considerarse que ha llegado al límite, concurriendo la circunstancia de que el desarrollo exponencial de la inteligencia artificial plantea un escenario que no deja otra alternativa que no sea integrarnos en la tecnología. Indirectamente, esta última visión asume la posición de que los humanos estamos en el soporte adecuado y que las mejoras vendrán a partir de ello. Unas y otras requieren el desarrollo de dispositivos que requieren aporte energético para su funcionamiento. Exactamente, la misma necesidad de los humanos que es necesario que se alimenten para estar vivos.

Los humanos, en el mejor de los casos, siempre han buscado inspiración en esa fuente inagotable de ideas que es la Naturaleza. Su parsimonia le ha hecho ensayar todas las alternativas posibles. Es una excelente maestra.  De hecho cuando la Naturaleza ha sido nuestro propio cuerpo, hemos imitado, aunque no necesariamente para bien siempre, y hemos construido lo que denominamos ordenador o computador, según la filosofía subyacente, constituido por un procesador o unidad central de proceso (cerebro) una memoria (como archivo pasado y almacenamiento de los datos), y unas unidades externas, como son los brazos las piernas, la voz, etc., que en los aparatos electrónicos se materializan en impresoras, pantallas, y un sinfín de dispositivos conectados externamente al ordenador. Y es en esta parcela en la que ahora se incide, especialmente. Por otro lado, ambos, humano y máquina, hay que alimentarlos con energía que les permita el funcionamiento, que en el humano representa el corazón que recarga a partir de la ingesta de alimentos que, químicamente, sufren las transformaciones necesarias para liberar los distintos componentes que necesita el cuerpo y la energía necesaria para el funcionamiento.

Este suministro de energía, en las máquinas se visualiza, generalmente, con las baterías o la corriente directa. Los robots no necesitan alimentos como los humanos, o si, según se vea. Precisan, como los humanos, la energía. En el caso de los robots el alimento es la energía eléctrica. Cabe conjeturar que las máquinas pudieran alimentarse en lugar de acudir a la batería cargada de electricidad. Para ello se acude a los metales. El fundamento es la electroquímica y las reacciones químicas que producen electricidad. ¿Qué son si no las baterías? Ahora, la novedad es que no se trata de baterías y bien puede estar en la superficie en la que se mueve el robot. Algo parecido a los humanos. Podía ser captarla del sol, es una opción.  Wang y colaboradores abogan por los metales y el aire. Parece rentable, pues alcanzan 13 veces la energía de las baterías de litio y 10 veces mayor que la energía de los captadores solares. La propuesta consiste en obtener la energía eléctrica a partir de metales como aluminio, cinc o acero que se dispone en una placa que va a actuar de ánodo (cederá los electrones al reaccionar con los OH que provienen del cátodo) y se separa mediante un hidrogel, que actúa de electrolíto, que transporta los OH que provienen de una placa que actúa de cátodo y es de platino o carbono donde el oxígeno del aire y el agua, reaccionan, con la ayuda de los electrones que proceden del ánodo, liberando los OH que transportarán a través del hidrogel. El resultado final es la generación de una corriente de electrones, que alimenta al robot de forma eficiente.  No tiene paparajotes de postre, pero se alimenta un robot.

PINTURA PARA ENFRIAMIENTO RADIATIVO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Probablemente, la diferencia entre un profesional y un buen profesional, sea que el primero hace cosas y el segundo las hace bien. Ahora que pintan bastos con estos calores, nos enfrenta con los numerosos errores cometidos en la construcción de edificios, tanto privados como públicos, que no tuvieron en cuenta las condiciones climáticas. Grandes cristaleras que después han traído de la mano el problema de como enfriar o colores oscuros que ahora contribuyen a un mejor y más cuantioso calor que hay que eliminar. Curioso resulta, no obstante, los desatinos cometidos en otras latitudes, como en Las Palmas de Gran Canaria en que la primera ubicación de la Facultad de Informática radicaba en un edificio hecho a imagen y semejanza de la Universidad de Upsala, incluyendo los herrajes para quitar la nieve de las suelas de los zapatos antes de entrar al edificio, que como todo el mundo sabe, es lo más indicado en las Islas Canarias.

Una de las formas más usuales para luchar contra el calor consiste en enfriar las habitaciones y edificios completos mediante el aire denominado acondicionado. Podría pensarse que es la forma más cómoda, pero vinieron los tiempos en los que el coste lo hace inviable y, en todo caso, no necesariamente ha sido nunca lo más saludable. Si echamos un vistazo a la propia Tierra, repararemos que toma sus medidas para modular la radiación que absorbe o rechaza. El albedo es el porcentaje de radiación que refleja una superficie. El valor es en torno a 0.3 en una escala en la que el cero corresponde a un cuerpo negro que absorbe toda la radiación y uno que corresponde a un cuerpo blanco que refleja toda la radiación incidente. Las superficies oscuras tienen un albedo mayor y más brillantes, más que las mates. Un albedo alto enfría el planeta porque la radiación absorbida es mínima. Por el contrario uno bajo calienta el planeta por la razón contraria.

Un vehículo de color oscuro puede alcanzar los 60 grados en uno de estos días calientes. Uno blanco no llega a cuarenta. Se quiera o no la elección del color del automóvil decide la energía que hemos de consumir para tener una temperatura cómoda equivalente. Unos edificios de color blanco contribuirán a que el consumo de energía para enfriarlos artificialmente mediante el aire acondicionado será menos exigente-

Ingenieros de la Universidad de Purdue han creado una pintura más blanca que cualquiera de las conocidas hasta ahora. Su capacidad de enfriamiento es de unos 10 kilovatios para una superficie de unos 90 metros cuadrados, lo que paradójicamente supera buena cantidad de aparatos de aire acondicionado actuales. Los investigadores que lo han creado afirman estar muy cerca del blanco más blanco hasta en un 98.1% de la luz visible, remitiéndola en la región infrarroja. Las versiones comerciales actuales se sitúan entre el 80% y el 90% y estas eficiencias no son suficientes para enfriar la superficie que cubren. La clave radica en una elevada concentración de sulfato bárico que logra esa alta capacidad de reflectancia. Por otro lado, el diferente tamaño de las partículas de bario dispersan la luz de forma diferente, de forma que una combinación de diferentes tamaños de las partículas permite que la pintura disperse más el espectro de la luz incidente, incrementando la reflectancia. Es todo un arte lograr la combinación apropiada de los tamaños a emplear para lograr una buena reflectancia, dado que el tamaño de las partículas también es determinante d la adherencia entre ellas. La medida fe la capacidad de enfriamiento de esta pintura alcanza una diferencia de 10ºC con respecto al entorno, durante la noche y unos 4ºC por debajo de la del entorno a plena luz del día con la máxima intensidad de la luz solar a mediodía.

Se viene trabajando en este tema desde hace mucho tiempo, aunque hasta ahora se había empleado el carbonato cálcico, pero el sulfato bárico presenta ventajas con respeto a aquél, en el comportamiento de los materiales en el exterior y una mejor adaptación a las producciones convencionales de pintura, así como una mejor predisposición a los tamaños de partículas necesario para obtener las superficies de exposición apropiadas.

La aportación supone un respiro para el planeta, de forma natural con una pintura super blanca capaz de mantener fresca una superficie hasta los -7.8ºC. Según los autores la capacidad de reflexión es muy elevada y se irradia en forma infrarroja. Se deriva un efecto aislante, que no implica el consumo de energía y esto es un alivio, en especial en el contexto del cambio climático en el que nos encontramos.

En todo caso, supone un avance considerable en la eficacia de un proceso que la lógica más elemental aconseja la pintura blanca como protección contra las inclemencias climáticas cuyo signo inequívoco en estas latitudes es el calor excesivo. Antes, y ahora, el blanco es el color  preferido, apropiado y “amigo” en nuestra tierra. Lo ha sido siempre, o es que nuestros ancestros pintaban con cal gratuitamente. Ya lo sabían. Nosotros lo hemos olvidado, lamentablemente.