EL OLOR DE LAS MOLÉCULAS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Las moléculas, sin excepción, tienen la posibilidad de interaccionar con otras a través de la formación de enlaces diversos. La volatilidad o estabilidad de los compuestos generados, es función de la fortaleza de los enlaces que se formen. Las fuerzas intermoleculares de distinta naturaleza gobiernan este submundo microscópico en el que se mueven las moléculas. La configuración de éstas determina sus propiedades, con ciertos matices, función de características de aquéllas. Una clase especial de moléculas, de mucho interés, es la dotada de simetría especular, que genera configuraciones con diferentes propiedades odoríferas. Al parecer, se puede hablar de 10 olores básicos reconocibles por el olfato humano, como conclusión de un trabajo de clasificación en cluster, partiendo de 144 olores caracterizados, por investigadores de la Universidad de Pittsburgh: fragante o floral; leñoso o resinoso; frutal (no cítrico); químico; mentolado o refrescante; dulce; quemado o ahumado; cítrico; podrido; acre o rancio.  Otras caracterizaciones anteriores proponían otro número de categorías. En realidad, no es concluyente la propuesta, pero se considera plausible y de interés.

En Química se buscan nuevas moléculas, con objeto de mejorar procesos conocidos o proponer nuevos procedimientos que mejoren los conocidos, desde nuevos materiales que optimicen el almacenamiento de la energía, hasta drogas capaces de actuar en procesos de interés y encontrar nuevas rutas de producción de nuevas moléculas que respondan a propiedades preestablecidas. Los procesos lentos o ineficientes requieren mejoras moleculares, generalmente vía catálisis, capaces de acelerarlos y recuperar los catalizadores. En tiempos recientes y hasta el siglo pasado, la catálisis se ha centrado, con gran intensidad, en los capítulos de enzimas y catalizadores metálicos. En este siglo XXI, Benjamin List, del Max Planck y David MacMillan, de la Universidad de Princeton, han introducido una tercera referencia al desarrollar la organocatálisis asimétrica, que permite que moléculas orgánicas pequeñas promuevan reacciones eficientes, pero más rápidas. Les ha valido el Premio Nobel en la edición de 2021.

La originalidad consiste en que la razón de la ineficiencia de muchas reacciones químicas es que se generan formas especulares de los productos de reacción, lo que estructuralmente se conoce como quiralidad. Tienen la misma composición, pero con los giros especulares no son idénticos. Moléculas con la misma constitución se reagrupan en estructuras que no son especularmente idénticas (denominadas enantiómeros) y que tienen diferente reactividad. Es muy usual que las reacciones químicas produzcan mezclas de ambas formas, de tal modo que, en procesos no sometidos a control específico de la quiralidad, se producen todos los productos posibles configuracionalmente, en distintas proporciones.

Es ampliamente conocido el hecho de que moléculas de interés farmacológico, tienen efectos fisiológicos muy distintos. Esto provoca que el interés se centre en la síntesis selectiva, para lo que se emplean con gran profusión los catalizadores y enzimas que permiten dirigir la producción selectiva de los productos de reacción.

El premio Nobel logrado en 2021 por List y MacMillan reconoce su contribución al área de la organocatálisis. La ventaja sobre los elementos metálicos radica en que los metales que han aportado y aportan grandes rendimientos y eficacia, son sensibles a elementos usuales, como el oxígeno, en especial y pierden mucha eficacia en los procesos industriales. Además, en algunos casos tienen incidencia en el Medio Ambiente. Por el contrario, los enzimas son enormemente eficaces y precisos e intervienen en números procesos de interés para la vida. Pero la debilidad de las enzimas es la complejidad molecular, general, de las mismas, lo que dificulta el trabajo con ellas. Justamente, la simplificación que los flamantes premios Nobel 2021 propusieron a principios de este siglo consistió en simplificar las enzimas, prescindiendo de alguna de sus partes, uno o varios aminoácidos. La síntesis aldólica, que permite la formación de enlaces carbono-carbono, le sirvió de punto de partida a List. Sistemáticamente comenzaron a probar con un amino ácido simple, la prolina, que cataliza el proceso y podría hacerlo asimétricamente, para obtener un producto quiral en mayor proporción que el otro. Y así ocurrió, de forma sorprendente. Habían logrado una molécula catalizadora orgánica, simple y económica. Ambos investigadores se aproximaron a un objetivo común, desde presupuestos diferentes, ya que MacMillan partió de la síntesis de Diels-Alder que permite obtener anillos. Partió de moléculas simples, que podía intuir que eran capaces de crear productos intermedios que producían la reacción deseada, comprobando que algunas de ellas eran capaces de generar productos asimétricos tanto o más que los obtenidos con procesos catalizados por compuestos inorgánicos. La conclusión es que la organocatálisis permite, incluso, procesos que no son accesibles a las enzimas, Hoy sus técnicas se usan en multitud de procesos, desde la fabricación de drogas, antivirales a una gran multitud de medicamentos de interés.

La aportación de los organocatalizadores al mundo científico implica una potencial simplificación en el diseño de las enzimas, que podrían explicar los rendimientos de las reacciones biológicas que se dan en la Naturaleza. El procedimiento está dotado de una gran flexibilidad para formar distintas estructuras, que pueden dirigir los procesos en distintas direcciones, incorporando una selectividad y una especificidad que potencian el proceso en una dirección concreta. Los procesos complejos pueden tener rutas alternativas, incluyendo restricciones de temperatura. Cabe que las proporciones de organocatalizador que se requieran resulten inconvenientes para el proceso y sea un factor adicional que posibilite unas rutas de reacción y no otras en la Naturaleza, justificando la presencia de unos enantiómeros de forma preferencial..

Uno de los interrogantes pendientes de explicar es por qué la Naturaleza es quiral, por qué utilizan los organismos vivos los aminoácidos levógiros y por qué los azúcares son dextrógiros, por ejemplo. La toxicidad que llevaría a utilidad terapéutica o no, queda en función de los enantiómeros. El olor de las moléculas que difiere de unas a otras, ya era bien conocido en el siglo XX por los químicos dedicados a la industria de la perfumería y los sabores. Por ejemplo, el mentol y la carvona tienen diferentes propiedades organolépticas determinadas por el isómero óptico concreto del que se trate. El sabor y el olor de cada enantiómero es distinto. La explicación radica en que los receptores olfativos responden a una homoquiralidad e interaccionan selectivamente y reconocen los isómeros ópticos. Hasta la década de los sesenta se desarrollaron síntesis de sustancias de gran demanda industrial. Con los métodos catalíticos convencionales se obtenían mezclas de isómeros ópticos. Se evidenció que la isomería óptica estaba en la base del olor y el sabor de las moléculas, aunque que no se aceptó hasta la década de los setenta y ochenta, en gran medida debido a la teoría en vigor debida a Dyson  (1938) y a Wright (años 70) según los cuales el olfato se comportaba como un espectroscopio y los receptores no respondían a la forma de la molécula que condicionaba su acoplamiento, sino a sus vibraciones. Concluían que dos moléculas de forma química muy similar en diferentes vibraciones, generaban olores diferentes y dos sustancias con formas químicas muy diferentes, pero con frecuencias de vibración similares, olían igual. La coincidencia de que funcionó en muchos casos. En 1996 el investigador de University College de Londres publicó un artículo en la revista Chemical Sensors en el que presentó la hipótesis vibratoria basada en experiencias personales que nunca se pudieron generalizar. El siguiente paso se dio en 2004 al obtener el Premio Nobel Buck y Axel, por el descubrimiento de la familia de genes que codifican las proteínas receptoras del olfato, un trabajo de ambos publicado en 1991 en la revista Cell1 .

Los enantiómeros guardan un secreto de muchos de los procesos que queremos entender. La olfación es uno de ellos, al permitir selectivamente obtener un exceso elevado de un enantiómero que permitirá la asignación inequívoca de sus propiedades organolépticas. Es la aportación de List y MacMillan que permite focalizar una catálisis asimétrica, que permite tener la habilidad de priorizar la síntesis de la molécula quiral deseada y evitar la de su imagen especular.  Han aprovechado el hecho singular de que las enzimas biológicas ya son quirales y han desarrollado el campo de la organocatálisis. ¡Simplemente genial!

INTERÉS REGIONAL por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Asistimos, como cada año, al anuncio primero y ceremonia posterior de los acreditados Premios Nobel con los que se reconoce la importancia de las aportaciones científicas, entre otras, con que anualmente nos dan a conocer o nos relatan los avances sustanciales de la Humanidad.

Generalmente no corresponden a personas que hayan hecho de su vida una lucha constante y permanente por figurar como los “más avanzados de la clase”. Muy al contrario, suelen ser personas dedicadas en cuerpo y alma al trabajo y alejados de la publicidad, los medios de comunicación y las rutilantes apariciones en premios menores, que ni siquiera consignan en sus curriculums, generalmente. Lo cual no quiere decir que no los reciban, porque antes y después de los Nobel, suelen haber estelas en la que todo el mundo se apunta a figurar en la lista de descubridores o reconocedores de los acreditados científicos que lo logran. Y tampoco se sujetan a ámbitos de conocimiento, que algunos defienden corporativamente, ajenos a que la Ciencia es más amplia y rigurosa que las concepciones convencionales que la parcelan. El sustrato científico suele aparecer en aspectos fundamentales, que son los que dan lugar a aportaciones de alcance, sustanciales, fundamentales, que no están sujetos más que al trabajo y al acierto en la elección del problema en un ámbito científico que lo arropa, incita y suele condicionar con su nivel a que tales logros se puedan conseguir. Podría citar los recursos de que se dispone, aunque deliberadamente no lo hago, por ser respetuoso con los casos en que desde la modestia también han surgido ideas motoras que se han convertido en universales.

Acaba de concederse el Permio Nobel de Medicina por el descubrimiento de los receptores de la temperatura y el tacto, recayendo en David Julius y Ardem Patapoutian, ambos norteamericanos, aun cuando, como tantos otros, en el caso de Parapoutian es armenio criado en Libano. El primero de ellos es fisiólogo y el último es biólogo y neurocientífico que ha trabajado y descubierto los sensores que responden a la presión, tanto de la piel como de los órganos internos. Al mismo tiempo, Julius Identificó el perceptor de las terminaciones nerviosas de la piel que responden al calor. Utilizó algo común y bien conocido en estas latitudes, cual es la capsaicina que es la que otorga el “punch” a los pimientos, picantes, claro. Los que originalmente volvieron en el primer viaje de Colón lo trajeron como ají, pasaron de Yuste (Extremadura) a Guadalupe (Murcia) gracias a los frailes Jerónimos que administraban en ambos monasterios. Una mejora vegetal en Extremadura, fructificó en “a Vera”, bien conocido y publicitado. En Murcia floreció otra mejora en Espinardo, llegando a ser emblema regional y divisa nacional e internacional de la Región. Su esencia original, picante, se debe al producto que ahora ha propiciado, nada menos, que un Premio Nobel, a quienes tuvieron la audacia de elegirlo como mediador para efectuar el estudio sobre la detección de la sensación de calor en la piel. Estamos de enhorabuena. Lo tuvimos al alcance, aunque fueron científicos de otras latitudes, bien lejanas los que dieron con la clave.

El equipo de Julius, examinando las sensaciones de calor y ardor al gusto que provoca la capsaicina, identificó el gen y la proteína que estaba implicada en el impulso nervioso que transmite al cerebro la sensación, el receptor TRPV1. Hace mucho que está en ello, ya que se da la referencia de la década de los noventa. El trabajo considerado conjuntamente ha logrado el avance que supone, textualmente, “entender cómo el calor, el frío y la presión pueden generar impulsos nerviosos que nos permiten percibir el mundo a nuestro alrededor y adaptarnos a él”. Como indica el Instituto Karolinska de Estocolmo, tiene muchas aplicaciones en el tratamiento del dolor y de muchas otras enfermedades.

De forma independiente han seguido un itinerario científico en busca del mismo objetivo. Estudiaron el efecto del mentol que induce una sensación de frescor que le desvelaba como indicado para estudiar la recepción del frío, con lo que se descubrió el receptor TRPM8. Estas investigaciones prosiguieron para encontrar los receptores implicados en las sensaciones de frío en sus diversos grados, el calor y el dolor asociado con ellos. No han terminado aquí las indagaciones, como suele ocurrir en la investigación en que descorremos una cortina para que emerjan cientos de otros interrogantes, que no figuraban inicialmente en los objetivos. Y así viene sucediendo desde el principio de los tiempos. Los receptores Piezo1 y Piezo2, descritos por Parapoutian son los que detectan la presión externa, pero también intervienen en la respiración o el control de orina y la presión arterial y el segundo de ellos es decisivo en la detección de la posición de distintas partes del cuerpo.

Son descubrimientos de interés per se y por ser capaces de inducir otros trabajos para avanzar en esta área de conocimiento muy imbricada en la percepción sensorial. Así ha sido, por cuanto desde la década de los noventa que se viene desarrollando este campo. Han puesto a las claras que el dicho de “me importa un pimiento” queda muy lejos de la realidad de interés. Estar implicado en una categoría que suscita un Premio Nobel, no está al alcance de todos los productos de cualquier lugar. La utilidad del producto se ve amplificada y suscita, además, que no estaría mal que los investigadores estén alerta, además de los grandes proyectos en los que trabajan, de otros, más inmediatos, que pudieran convertirse en claves de éxito en algún momento. Identificar las opciones más prometedoras, también forma parte del elenco de cosas por las que preocuparse el mundo investigador.

ATOMTRÓNICA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

En 1923 el joven aristócrata Louis De Broglie hizo una audaz propuesta en el marco de la Cuántica, cuando ésta apenas iniciaba su andadura en el universo científico. Convulsionó los cimientos de los más conservadores que apenas aceptaban la dualidad de la luz, como una onda clásica, ya tradicionalmente aceptada, desde la propuesta de Maxwell y la propuesta de Einstein como partícula, fotón, introducido al explicar el efecto fotoeléctrico, lo que le valió el Nobel en 1921. Este año celebramos el reconocimiento tardío e insuficiente conceptualmente, tras haber aportado la teoría de la relatividad al mundo científico.

De Broglie pensó lo contrario, Las partículas, los objetos llevan asociada una onda, en un alarde reflexivo reflejado en un documento que ha puesto en circulación Juan Arnau el 24 sept 2021, al que accedí gracias al Dr. Hernández Córdoba. La trascendencia era notable, por cuanto el problema de lo Uno y los múltiple había acosado a la filosofía y a la teología mucho tiempo, pero ahora aparecía en la física en forma de lo continuo y lo discreto o discontinuo. Ahora se trataba de que ambas posiciones podían ser complementarias y no contrarias. Todas las culturas exhiben esa polaridad, desde la India con la plenitud y el vacío, hasta nuestro mundo actual en que puede cifrarse una corriente que sintoniza mejor con el vacío que con la plenitud, dado que todos está colmado de cosas y reclamamos, casi de forma instintiva limpiar, apostar por lo diáfano y todo parece indicar que cuando eso se de buscaremos la plenitud, el continuo. Por eso nuestro tiempo es cuántico, discreto, vacío donde luz y materia se distancian y caminan de forma independiente. No obstante, se trata de una percepción aparente, por cuanto el diálogo entre luz y materia es permanente, aunque resulte complicado detectarlo. De Broglie recibió el Premio Nobel en 1929, por su aportación consistente en combinar la cuantización de Planck con la ecuación de Einstein y lograr asociar la longitud de onda con la velocidad de la partícula.

La aportación de Broglie fue sustancial para el desarrollo de la Mecánica Cuántica. La materia en su intimidad era inexplicable con los conceptos de espacio y tiempo que formula la Mecánica Clásica. La materia a la vista de las aportaciones se comporta de forma análoga a si estuviera viva, “respira luz” y se comporta de forma impredecible y espontáneamente. Bergson, al que de Broglie le dedicó mucha atención postuló que la naturaleza aparece en cada instante vacilando entre opciones. El tiempo resulta ser duda y llega a decir Bergson que, si no es así, no es nada. Los efectos son una de entre las posibilidades que proporcionan las causas, pero no están determinadas por éstas, como establece el determinismo, que consagrara Laplace. Hay que descubrirse que ante una Mecánica Cuántica incipiente, el debate alcanzara la profundidad que logró. Muchas de las cuestiones epistemológicas permanecen sin resolver y en estado latente en nuestros días. Resulta curioso destacar que tras una vida en búsquedad de elementos que apuntalaran la nueva mecánica, al final de su vida se retractó, regresando al determinismo de Descartes, del que en otro tiempo abominó. Hoy vería como toda su intuición se corroboró, por fantásticas que pudieran parecer sus intuiciones.

Un campo emergente en el ámbito de la física atómica ultra fría, abarcando las ondas de materia atómica quiadas se ha venido en denominar atomtrónica. Es un acróstico compuesto de “átomo” y “electrónica” y la analogía se establece en base a la pretensión de crear los componentes electrónicos, desde los semiconductores hasta diodos, pero a nivel atómico y con las ampliaciones propias del nivel de desarrollo. Por citar un caso, un condensado de Bose Einstein confinado en una red lineal que se somete a una variación abrupta de la densidad de partículas exhibe un comportamiento muy similar a la de un diodo electrónico.

Los componentes para la construcción de circuitos atomtrónicos son ahora tres: un condensado de Bose-Einstein, capaz de aportar las propiedades de coherencia y de superfluido, o en casos un gas de Fermi ultrafrío.  Un segundo componente es disponer de potencial de captura específico, generado de forma óptica, magnética o ambas. El tercer elemento es un mecanismo para impulsar movimiento , para lo que hay varias opciones, desde una trampa en forma de anillo seccionada en dos por dos barreras móviles que, separadas del anillo y que actúan de drenaje y fuente y las barreras son puertas. Al moverse las barreras los átomos fluyen pasando de la fuente al drenaje. Las ondas de materia se guían a través del anillo, manteniendo la coherencia, alcanzando distancias en torno a los 50 centímetros.

Las aplicaciones, hoy, se concentran en la computación cuántica, simulación, comunicaciones, detección. La dificultad principal radica en la creación y manipulación de los condensados de Bose-Einstein, de difícil transporte y mantenimiento. Lo último que se ha logrado en los siatemas físicos desde sistemas atómicos y de espín a átomos artificiales en forma de circuitos superconductores. Los sistemas de átomos fríos han permitido lograr una colección de redes generadas mediante láser o magnéticamente y guiados de forma que las ondas de materia atómicas se controlan y manipulan coherentemente.

La atomtrónica logra crear circuitos de átomos ultrafríos, muy prometedores en la tecnología cuántica. Al manejar ondas de materia de átomos neutros, las interacciones del circuito con el medio ambiente que darían lugar a la pérdida de coherencia, se minimizan con respecto a las propias de los fluidos cargados eléctricamente en que operan las fuerzas de Coulomb. Por otro lado, una ventaja adicional deriva de que las redes atomtrónicas dan lugar a nuevos tipos de circuitos cuyos portadores responden a estadísticas bosónicas o fermiónicas, de forma que las interacciones partícula-partícula son sintonizables y encajan desde las de corto rango a grandes distancias y de las atractivas a las repulsivas. En tercer lugar, los desarrollos recientes en la manipulación de los potenciales guía ópticos permiten desarrollar circuitos con topologías que pueden reconfigurarse al mismo tiempo que se operan.

Un detalle de interés es reparar en que al estar basada la atomtrónica en potenciales flexibles y no estar limitados por las propiedades materiales, es factible crear dispositivos cuánticos y simuladores con nuevas arquitecturas y funcionalidades que no tienen por qué estar sujetas a las que ofrece la electrónica convencional. La naturaleza cuántica de los átomos ultrafríos como ondas de materia coherentes, posibilita medidas de precisión interferométrica y aplicaciones en el procesado cuántico de la información y servir de sondas en regímenes de muchos cuerpos permitiendo observar los cambios en los flujos, ocasionados por aplicaciones de campos externos, por ejemplo. En el fondo esto supone que se pueden considerar como extensiones de los simuladores cuánticos convencionales.

Cabe pensar en la integración entre la circuitería basada en silicio y las propuestas atomtrónicas, llegando a chips que las reúnan de forma compatible. La interferometría y la detección inercial pueden verse beneficiadas en tiempo próximo. No obstante, la simulación y computación cuánticas y otras modalidades de tecnología cuántica podrán ser accesibles estabilizando la coherencia atómica y encajándola en escalas espaciales entre pequeñas e intermedias, lo que requiere la suavización de los guíaondas. El futuro se abre esplendoroso en muchos frentes, desde la atención a la dinámica de sistemas de muchos cuerpos, accesibles especialmente en arquitecturas cerradas, que son los circuitos atomtrónicos más simples y excelentes plataformas para estudiar el flujo de qubits. Se abre una nueva perspectiva para los sensores y dispositivos atomtrónicos. Las limitaciones de la coherencia cuántica macroscópica establecen una barrera para la que se requieren propuestas audaces, que afectan al transporte tanto en circuitos bosónicos como fermiónicos. Un campo científico que promete un desarrollo tecnológico excelente. El español José Ignacio Latorre es un adelantado de un campo del que se esperan grandes contribuciones.

EVOLUCIÓN por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Asistimos a un proceso penoso, que plasma de forma muy elocuente los desastres que desencadena nuestra conducta depredadora con el Medio Ambiente. El Mar Menor languidece mortecino marcando un final a su existencia que pone de relieve la incapacidad de recuperarse, básicamente, por la incapacidad de que los humanos (muchos) comprendamos lo que le ocurre. Viene sucediendo así desde hace tiempo. Las autoridades, con gran carga de ignorancia deliberada, son incapaces de articular nada que pueda paliarlo. Se limitan a declaraciones vacías de contenido, con credibilidad próxima a cero y con evidencia de que no hay compromiso en solucionar la dolencia que afecta a nuestra realidad natural más emblemática.

Dando bandazos, sin demasiado fundamento, han buscado culpables, selectivamente, largando una andanada a ganaderos que operan a distancias superiores a los 31 kilómetros, haciendo que impermeabilicen las balsas de purines, con el gasto que ello conlleva y la merma de sus explotaciones, y no ha tomado medidas para los cultivos suficientemente próximos al litoral, con un sinfín de hectáreas cultivadas y unas lixiviaciones indeseables e inevitables, según se va viendo,  por su propia existencia. Los informes de los que actúan desde el ámbito científico, que no parcial ni interesado económicamente, han sido desoídos sistemáticamente. Deberán pensar que queda tiempo para pasar a mayores. Pero la Naturaleza no perdona. Y vuelta a suceder. Los episodios de peces muertos, el olor a cloaca, el aspecto deplorable, configuran un espacio que el tiempo no arregla, porque la raya se ha sobrepasado.

Me han impresionado unas fotos que he contemplado, porque un registro de esta naturaleza no se mira, se contempla, en la que los peces saltan a tierra como escapando del infierno en el que se encuentran. Al margen de consideraciones técnicas y precisiones del lenguaje, unos peces escapando del medio que es su hábitat, es impresionante. El equivalente humano es escapar de llamas o lanzarse al mar decidiendo poner fin a tu vida, o arrojarse por un acantilado para finalizar tu existencia. No hay palabras para describir la circunstancia. El hecho es que, con sistemas neuronales muy incipientes, estos seres vivos deciden tratar de alcanzar otra circunstancia ambiental que pueda prolongarles la propia existencia. Dramático, a la vez que aleccionador del nivel de estulticia humana que se ha alcanzado colectivamente. La incapacidad humana, también, de solucionar el problema es palmaria. Resuena aquello de que cuando observas que alguien es víctima y callas, solamente debes pensar que algún día la victima serás tú. ¿Qué se puede esperar de una sociedad capaz de dejar extinguir a una parte de su entorno, vital para que la vida siga?

La paleontología, la biología molecular y la ecología de la conservación ofrecen una visión de la respuesta de la vida a los cambios ambientales, al tiempo que ayuda a comprender el impacto que imponen las actividades humanas a las especies marinas. A la conquista de los océanos por los animales terrestres tetrápodos a lo largo de mas de 250 millones de años, animales vertebrados terrestres como pingüinos, tortugas, etc. descienden de vertebrados que evolucionaron para poder prosperar en entornos acuáticos. Al contrario, debió suceder algo parecido y consta que ha ocurrido varias veces. En todo caso, ha supuesto una diversificación en un contexto de cambios y extinciones que fue protagonista en el periodo Triásico.

No cabe duda de que hoy, causado por los humanos, los tetrápodos marinos se enfrentan a impactos a su medio ambiente, desde el cambio climático a la degradación de su hábitat, incluyendo efectos secundarios de la presencia de embarcaciones y colisiones con ellas o convivencia con el ruido subacuático, infringidos por vehículos de todo género y condición, sin ley de contaminación sonora que los ampare. Algunos caracterizan nuestro tiempo como nueva era geológica: antropoceno. Hay expertos que sostienen que, en 1950, con la difusión en la atmósfera de las partículas radiactivas emanadas en las bombas de Hiroshima y Nagassaki, finalizó el período anterior, el holoceno.

Las transiciones han sucedido muchas veces. La vida comenzó en el mar y permaneció allí, exclusivamente, millones de años. La lucha contra la gravedad, mitigada como se sabe sumergida en el agua y la moderación con que ajusta las oscilaciones de temperatura, gracias a una propiedad muy exclusiva del agua, cual es su elevada capacidad calorífica que permite amortiguar sutilmente las variaciones de temperatura, convierten al ámbito marino en ideal para cultivar la vida. Bacterias crearon la fotosíntesis y cambiaron la atmósfera. El oxígeno diatómico sometido a grandes pulsos de energía como los propios de las descargas de rayos, se descompone en los átomos que lo forman y cabe la asociación de tres de ellos, en lugar de dos, para formar ozono, que absorbe la radiación ultravioleta que afecta directamente a la molécula de ADN, que si lo absorbe, y queda rota y derivan desde mutaciones hasta la propia vida. Sin el Ozono no se hubiera podido desarrollar la vida.

Las primeras transiciones mar-tierra fueron de microorganismos cuya fotosíntesis se lleva a cabo empleando los dos isótopos mas ligeros del carbono atmosférico que con Carbono 12 y el Carbono 13, como dejan constancia las rocas terrestres mas antiguas. Horodyski y Knauth han encontrado microorganismos tubulares de 1.200 millones de años de antigüedad. Las cioano bacterias azul-verde fueron los primeros microorganismos acuáticos que realizaron la fotosíntesis. Son probablemente los primeros seres vivos que salieron a la tierra. Le siguieron algunas algas.

También en el agua había animales, invertebrados como los artrópodos y moluscos y vertebrados como los peces que comían de la vegetación superficial y de ellos mismos. En las zonas limítrofes como las playas, en el aire contiguo, también, la vegetación inducía a abandonar la humedad. Cuando la marea bajaba o el lago se secaba o resultaba “irrespirable” el ADN hacía su trabajo y de las mutaciones surgía que los animales que buscaban alimentarse de la vegetación superficial, lo hacían de forma cada vez más eficiente, primero en el borde y finalmente en la tierra.

Se han encontrado huellas de los primeros pasos sobre la tierra por Jonston, datando el hecho en 450 millones de años, por parte de artrópodos de muchas patas que vivían en aguas poco profundas y podían moverse en el aire cuando bajaba el nivel. Los exoesqueletos de los artrópodos les protegen de la sequedad y podían escapar con las patas de las que están dotados. Todo esto se ve ayudado por el hecho de que la luz del Sol solamente penetra unos 75 centímetros, por lo que las plantas que realizan la fotosíntesis necesariamente tienen que utilizar las partes superiores. En tierra estas plantas se hicieron rígidas compitiendo en altura con sus vecinas, por la luz del sol. Se han encontrado tubos embebidos en fósiles de plantas datadas en 450 millones de años, considerándose antecesoras de las plantas vasculares actuales, que elevan los fluidos contra la gravedad alcanzando en el bombeo alturas inusitadas.

Estas plantas satisfacían el apetito de los animales que estaban en el agua, principalmente los vertebrados. Pero los peces no tienen, ni tenían, patas. Los descendientes de los primeros osteolepiformes sarcopterigianos, denominados artrópodos, si tenían cuatro extremidades y fueron los antecesores de los anfibios que ya respiraron aire, aunque la descendencia se desarrolló en el agua. El paleontólogo Ahlberg ha datado el primer artrópodo fósil en 370 millones de años. La mutación de las patas supuso una ventaja para moverse en aguas poco profundas, donde es complicado nadar y llenas de vegetación. Posteriormente aparecieron las patas de los vertebrados para utilizarlas sobre la tierra.

En el fondo somos tetrápodos contemporáneos. Pero hay otros que llegaron antes que nosotros, y compiten con ventaja sobre nosotros. Pero lo que nos ocupa es una especie de situación extravagante en la que, lamentablemente, solamente queda que la evolución sea capaz de mitigar el desastre. Los peces hoy, en el Mar Menor, escapan del mar por negarse a enterrar la vida. Todo lo que parece que podemos hacer los humanos (según se ve por lo que nuestros dirigentes hacen y proponen) es confiar en que la evolución prospere generando mutaciones que los salve. Duro relato del humano que, desesperado ante la pasividad de una sociedad que no entiende ni es capaz de reaccionar ante el desastre que ha generado, solamente pueda confiar en que la evolución solucione el problema, dentro de ni se sabe los millones de años que tendrán que transcurrir. Con las tonterías que hacemos, dejamos esto como un solar. Arrasamos. Es duro conformarse con esto, ¿o no?

SUPERSÓLIDOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Los estados de agregación de la materia son bien conocidos. Buenos, algunos de ellos menos. Los clásicos; sólido, líquido y gaseoso, se ven superados en tiempo reciente por otros estados identificados, como el plasma, ya incorporado a la rutina hace tiempo y otros que no se producen de forma natural en entornos próximos a nosotros, como el condensado de Bose-Einstein, el condensado fermiónico o las estrellas de neutrones, y se apunta a otros nuevos como el plasma de quarks-gluones. Se suele emplear el término fase como sinónimo de estado de la materia y los sistemas pueden presentar varias fases distinguibles.

Hace tiempo que el devenir científico no está marcado con prevalencia por aspectos experimentales o teóricos. Cualquiera de los dos ámbitos pueden adelantarse en algún momento dado. En nuestro tiempo es más corriente el avance experimental que el teórico, que ha ido marcando los últimos logros y desarrollos del conocimiento en casi un siglo. Aspectos concretos de las predicciones teóricas se desarrollan en la experiencia e incuso aspectos no previstos emergen con mucha frecuencia, lo que hace modificar nuestra comprensión de la Naturaleza y las teorías con las que la interpretamos.

La cuántica ha perturbado mucho el argumento teórico. La materia cuántica puede ser sólida y fluida simultáneamente. Esto se conoce como “supersolidez”. Es una propiedad fantástica que ahora se ha conseguido en dos dimensiones en dos ejes en que se expresa un gas cuántico ultrafrío, como ha publicado un equipo dirigido por Francesca Ferlaino en la revista Nature. Es la primera vez que se produce tal estado en un laboratorio

El conocimiento del comportamiento de la materia a nivel cuántico es imprescindible para poder investigar las consecuencias e implicaciones de las interacciones que se dan en la materia. Hasta el momento actual era un campo inaccesible dado que requiere tener acceso a controlar con precisión las partículas a nivel individual. Los colectivos exhiben unas propiedades que derivan de la descripción microscópica. La macroscópica es la que observamos, en casos a simple vista, pero es el nivel microscópico el apropiado para deducir las relaciones causa efecto y las propiedades percibidas. Es preciso para llegar a efectuar este análisis disponer de acceso a partículas individuales en nubes de gas que hay que enfriar muy intensamente, para obviar las consecuencias de la temperatura, que desdibuja la esencia del comportamiento particular, de forma que no se observan en condiciones cotidianas los fenómenos a los que la Ciencia quiere tener acceso.

En un condensado de Bose los átomos están deslocalizados. Este enunciado implica que un mismo átomo puede estar en cualquiera de los puntos en los que ocupa el condensado. El grupo de investigación de la Universidad de Insbruck, liderado por Ferlaino logró generar estados supersólidos de gases cuánticos ultrafríos de átomos con propiedades magnéticas, que son las responsables de que se formen gotas, lo que implica un autoorganización siguiendo patroneds regulares. La clave de la interpretación es que desde una mente clásica cada átomo está en una gota concreta y no es posible su presencia en varias gotas simultáneamente. Pero si el estado es supersólido, las partículas están deslocalizadas en todas las gotas y existe simultáneamente en todas ellas. Nos recuerda bastante a la nube electrónica que la teoría de orbitales moleculares introdujo sustituyendo a la primitiva idea clásica de las órbitas para describir los estados electrónicos atómicos o moleculares. El resultado es que un sistema en estas condiciones presentará regiones de alta densidad, que en este caso correspondería a las gotas, que comparten los mismos átomos. La cuestión es de mucho interés, dado que de esta forma un efecto previsible es el flujo sin fricción pese a la existencia de un orden espacial.

El avance consiste en que hasta ahora solamente se habían observado gases cuánticos unidimensionales, es decir como si fuera una cadena de gotas en una sola dimensión. Ahora lo que se ha publicado aporta sistemas con dos o mas filas de gotas. Los retos para profundizar son muchos, como por ejemplo la formación de vórtices entre las gotas, que todavía no se han observado, aunque la teoría los describe.

Ya ha transcurrido mucho tiempo desde que fue descrito el Helio superfluido, pese a que no se había comprobado experimentalmente. El superfluido es un estado de la materia, en el que la viscosidad está ausente, por lo que fluiría sin fricción. Descubierta en 1937 por Kapitsa y colaboradores, lo que dio origen a la denominada hidrodinámica cuántica. La investigación propició la identificación de dos isótopos del Helio, el 3 y el 4 que se comportan de forma diferente y permite examinar los efectos de dos estadísticas cuánticas distintas, la de Bose-Einstein y la de Fermi-Dirac.

Ahora los supersólidos emanan de la propuesta de hace más de cincuenta años en relación con el helio superfluido. Solo hace unos dos años que se logró por primera vez generar un supersólido, partiendo de átomos magnéticos, con elevada polaridad, por tanto, en gases cuánticos ultrafríos. Es la confirmación de la existencia del estado mecano-cuántico de la materia, hasta ahora solamente conjeturado.  La Naturaleza se revela compleja. Cada vez que damos un paso, descorremos las cortinas de una ventana que introduce más interrogantes de los que teníamos cuando empezamos la investigación. La analogía del ramo de cerezas es la más real aproximación a la situación usual en el mundo investigador. Nos falta todavía, quizás por desenfoque, dar con la clave de la organización, el metaconocimiento que nos sitúe con ventaja para abordar el avance del conocimiento. Las mentes con la capacidad de síntesis suficiente son las que nos han venido sacando de los atolladeros anteriores. Va llegando el momento de que el escenario cambie para proseguir adecuadamente.

EXPLOSIÓN INTELIGENTE por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Asistimos a una insistente actuación de publicidad-información-datos que nos sitúa en un escenario en el que todo parece indicar que de forma inminente van a aparecer soluciones para ni se abe cuantas cosas. Se inventan términos, porque los conocidos quedan obsoletos y dicen que no describen apropiadamente y un montón de cosas mas, que las denominan innovaciones, aunque algunas de ellas nunca van a llegar a serlo y aparecen predicadores por todas las esquinas anunciando la “disrupción”, no como hecho solamente, sino como forma de vida, a la que, de no acomodarnos, nos quedaremos fuera del sistema, aunque nunca se precisa de qué sistema se trata. Por cierto, disrupción expresa, ahora, la ruptura contra lo establecido de antes, el famoso mecanismo de Khun de las revoluciones científicas, que él llamaba surgimiento de un nuevo paradigma, sólo que disrupción tiene un tufillo californiano y, como diría el genuino, “eso mola”. No se entienda este texto como crítica alguna, solo es descripción de una situación, que no por no significarse, quiere decir que sea aceptada ni en su contenido ni en su extensión. Es un tiempo que, a la vista de los que cumplimos cierta cantidad de unidades, nos suena a vivido y resultamos ser un tanto descreídos de lo que realmente han sido anteriores revoluciones anunciadas,  con lo que vemos ésta como otra más, sobredimensionada, mientras está en estado de anuncio futuro y, también como otras, no romperá moldes mientras la sociedad sea capaz de atemperar ciencias y tecnologías a sus vidas. Ya ha ocurrido anteriormente.

Así que hoy, obnubilados por los anuncios, reflexionamos sobre dónde estamos y trataremos de ver lo que se avecina, desapasionadamente y evitando exageraciones. Estamos en un periodo de transición hacia una máquina inteligente. No cabe duda que, en unas décadas, final de este siglo o inicios del próximo verá la luz una superinteligencia operativa. Se suele entender por superinteligencia el dispositivo capaz de llevar a cabo todo aquello que hace nuestro cerebro, aunque aportando mayor velocidad y mejor eficacia. En la actualidad los logros son limitados y operativos en entornos muy concretos. Algunos han querido dar la sensación de que el avance es muy superior al que conocemos y han “degustado” fracasos estrepitosos. Google en 2016 tuvo un serio accidente con su coche autónomo, reconocido por la firma. Después ha tenido otros, aunque tiende a culpar a decisiones de los conductores que actúan sobre el sistema autónomo, creyendo que no va a reaccionar debidamente. Nunca sabremos con certeza lo que ocurre. Tesla con su modelo S también ha tenido accidentes.

El término explosión inteligente se aplica con rigor a lo que ha ocurrido desde que la tecnología se comenzó a desarrollar y no exclusivamente debido a la Inteligencia Artificial actual.  Siempre han sido saltos asociados a aportaciones tecnológicas, desde la imprenta que impulso el alfabetismo, hasta la informática que trajo de la mano la segunda alfabetización. Ahora estamos superando estos escalones, al no tratarse de impulsos para los miembros de la Humanidad que dispongan de herramientas, sino que el beneficio debe ser para toda la Humanidad que se ve permeada por la tecnología que debe alcanzar todos los rincones. Hoy, no se concibe una aportación aislada, como en ocasiones anteriores. Una superinteligencia solamente se puede construir cooperativamente, porque supera las tecnologías disponibles o por aparecer. El bien común tiene que ser el leiv motiv de este nuevo tiempo y solo así se puede entender el cambio de paradigma.

No nos preguntamos, una vez más, por lo que podemos hacer nosotros por la tecnología, sino que pensamos, erróneamente, en lo que la tecnología puede hacer por nosotros. Craso error. Así nos va en muchos otros campos. La globalización ha caído sobre nosotros, sobreviniendo una imposición por encima de las organizaciones de los pueblos y las vocaciones democráticas. Un servicio de comunicación a través del teléfono, de alcance mundial no puede hacernos sonreír y entregarnos al uso desaforado de la tecnología porque sea barato o gratuito. Deberíamos preguntarnos cómo es eso así. Hoy, una empresa, privada y particular, entiende que tiene bajo sus competencias decidir si permite que una persona concreta envíe mensajes o no, juzgando su contenido unilateralmente, pongamos por caso. Si ha ocurrido con un personaje público y demasiado conocido y poderoso (por otro lado, extravagante acrecencia democrática, que también tiene sus servidumbres, como se ve), con quién no habrá ocurrido semejante desatino. Eso tiene un nombre y no es precisamente democrático. Y lo hemos aceptado dócilmente. Hemos construido un mundo que no puede gustarnos. Si no nos gusta el ejemplo, examinen el actual problema de la factura de la electricidad, que evoluciona al margen de los controles democráticos. Es de resaltar que no podemos contribuir a fomentar, una vez más, erigir monstruos de esta naturaleza, porque sean gratuitos en los comienzos. Vendemos algo más que nuestro nombre en ello. Los ideales éticos tienen que ser previos y compartidos. Si el bien común no está claramente por en medio, con un papel central, nos arriesgamos a lamentarnos después, como lo estamos haciendo con otras cosas.

Cuando se habla de Inteligencia artificial no se menciona casi nunca su potencial contribución a la democracia y a la libertad. Debería preocuparnos tal cuestión, muy mucho. Lo único que podrían contestar los sesudos analistas es que contribuye al crecimiento económico. Otra cosa es que, a partir de ahí se derive el que algo que favorezca a la sociedad. Los poco comprometidos dirán que depende de cómo se use y por quién. Los más comprometidos afirmarán que la Inteligencia Artificial en las máquinas puede mejorar o impedir el desarrollo democrático. Los todavía más comprometidos afirmarán que una cosa es segura y es su aportación a la vigilancia masiva de forma eficiente. A buen seguro, que los lectores se habrán posicionado en estas o en posturas más radicales o más complacientes. Lo cierto y verdad es que, desprotegidos éticamente, no hay nada claro de cuál es la vertiente que tomarán los acontecimientos.

Aunque no lo digamos, ni lo veamos, hay un auténtico choque entre la persona y la máquina. Hay una invasión callada y progresiva de aspectos, actividades, ocupaciones consideradas muy propias de la especie humana, calificada de inteligente. Escribir, pintar, generar música, son actividades genuinamente humanas. Internet ha supuesto un cambio notorio en como se desenvuelven estas profesiones creativas. Ahora, la Inteligencia Artificial va acercándose al proceso de creación. Habrá que estar preparados para ello.

Usualmente se confunden términos, ¡como no! y se confunden dispositivos inteligentes con Inteligencia Artificial. Hoy la mayoría de aplicaciones son dispositivos inteligentes que asisten, pero no son inteligentes, todavía. Tener un lenguaje avanzado o reconocer imágenes pueden proceder de aprendizajes profundos, pero todavía no son inteligentes. Un coche autónomo todavía no comprende a un niño con su lenguaje incipiente, que su madre perfectamente interpreta. Alcanzarán inteligencia cuando interpreten las emociones o tengan un comportamiento social inteligente y tengan capacidades de conexión. Para ello falta mucho. No nos apuremos todavía. Si debe preocuparnos el fondo ético y las medidas de seguridad que garanticen una conducta socialmente aceptable.

Cuando se desarrolló la energía nuclear, como en tantas ocasiones, no hubo opción a plantearse que atributos humanos se salvaguardaban, ni qué límites se ponían, ni que riesgos se generaban. Se hizo y solucionado. Solo que, después han venido las consecuencias. En otros campos más sutiles, como hoy Internet, se han sobrepasado límites como ocurre en todas las plataformas que posibilitan las manipulaciones de algún género, ya sea textual o financiera, violentando la intimidad o sirviendo para violentar a las personas en el mas puro y estricto sentido usual. Las máquinas, como los sistemas de información, deben adaptarse para posibilitar que el humano lo siga siendo.

Todo conduce a que es necesario definir lo que queremos que se logre y lo que no consentiríamos que se obtenga. Hay que tener presente que estamos hablando de tecnología, por mucho que pueda apoyar al desarrollo científico, se trata de tecnología y sus usos. No es fácil relacionar los problemas que los humanos queremos resolver. Desde los problemas medioambientales hasta los energéticos, los alimentarios, el agua, etc,, forman parte del elenco de cuestiones que requieren solución. No podemos pensar que la Inteligencia Artificial venga a resolverlos todos, como si se tratara de algo mágico. Si se puede pensar en que coadyuve a resolverlos, ya que rapidez y eficiencia aporta la IA. Incluso así, hay efectos colaterales. Nunca es neutra su aplicación.

La corriente global es entender la tecnología de la IA, una vez más como fuente de beneficios e impulsor del crecimiento. Craso error, una vez más. Cuando el mundo despierte, se verá empobrecido en muchas facetas humanas, no consideradas en la ecuación de rentabilidad que se impone desde los defensores de la economía y la ceguera en tantos otros aspectos humanos.

No se puede desprender de estas reflexiones que se trata de que seamos cautelosos en extremos para prevenir consecuencias imprevistas. Nada de ello. Simplemente es que en los momentos actuales se están desarrollando tecnologías fuera de regulación, desde el desafortunado término anglófono “big data”, hasta la Inteligencia Artificial genuina. Los desarrollos tecnológicos conocidos nos llevan a crear un entorno que está surgiendo sin una ética ni sentida ni formulada en modo alguno, acorde a la envergadura de lo que llevamos entre manos. Estamos omitiendo pronunciarnos sobre el futuro que queremos. La tecnología no crea, sino que ayuda. La defensa de la democracia y del bien común nunca está asegurada, si no somos capaces de formular los mecanismos que la garanticen. En este contexto, la explosión inteligente puede resultar catastrófica.  Y en ese estar, estamos todos, en mayor o menor medida. Ciertamente estamos todos, salvo los salvadores de patrias que confunden debatir con discutir. No se trata de tener razón. Todo el mundo tiene la suya. Pero el bien común es de todos, sin excepción, incluso de los que se oponen.

WIGNER DE NUEVO por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Menos mal que los investigadores no se guían por los parámetros propios de los ajenos a la investigación, que solamente se mueven por los intereses económicos implicados en los descubrimientos. Si así fuera, no saldríamos nunca de lo inmediato y los avances nunca tendrían lugar. Lo aparentemente inútil en el momento, suele repercutir a largo plazo, en el que la economía ni cree ni se le espera, cuando las necesidades afloran, a veces, de forma violenta. Una cosa es que los tomates, sepan a tomate, por cierto, tópico no logrado, por muchas manipulaciones a que se sometan las solanáceas y, otra bien distinta, es apostar por la Ciencia Básica, como estudiar la disposición de los electrones en las moléculas o en los sólidos, para explicar sus propiedades y así, ahondando en el conocimiento, poder diseñar nuevos materiales, hoy inimaginables, pongamos por caso. Hay que hacer constar que esta interpretación alternativa de la investigación es la que hace que unos países estén en cabeza, los que son capaces de adentrarse en el futuro y en cosas hoy, aparentemente inservibles, y los cortoplacistas apegados a la industria local que los convence de que resuelvan los problemas que los productores tienen y que pretenden, de forma permanente y gratuita, que los investigadores oficiales les resuelvan aunque esos problemas deberían resolverlos las consultoras, previo o post pago de los servicios. Las agencias locales llaman a las acciones de consultoría, “investigación de interés regional”, como si poner puertas al mundo, tuviera algún interés. En el fondo, una versión actualizada del “que investiguen otros”, “nosotros a lo nuestro y no perdamos tiempo”. Así nos va.

En 1934 Eugene Wigner, uno de los promotores de la Mecánica Cuántica, predijo la existencia de un estado en el que todos los electrones de un material se sitúan en torno a los puntos de una red, constituyendo una especie de cristal electrónico. Empleó aproximaciones muy usuales en la física del estado sólido, que conforman lo que se ha denominado gelatina, consistente en un gas de electrones que se comporta como un ente homogéneo, frente a un continuo de carga positiva y que ofrece una densidad de carga igual a la media de la de los electrones, garantizando la neutralidad del sistema, condición sin equa non de la materia cargada y conocida. Recordemos que la carga es una propiedad fundamental de la materia, pero solamente la apreciamos cuando provocamos la separación de cargas en ella, de lo contrario, la madera o el metal o cualquier otro material, aparentemente es neutro y se comporta, en condiciones normales, como tal.

La teoría que se utiliza es la aproximación teórica denominada de Hartree-Fock, en honor a sus promotores, hoy superada para los refinamientos que se es capaz de describir, pero que tiene la virtud de ser muy útil para comprender, al menos cualitativamente, el comportamiento a nivel atómico molecular y también de este gas de electrones. En este marco se interpreta que cuando la densidad de electrones es baja (poco perturbado) el sistema minimiza la energía (todo en el universo tiende a situarse en el punto de mínima energía, recuérdelo cuando se asome a la ventana, antes de que pueda ser irremediable) y la forma que tiene el electrón de minimizar su energía es polarizar su giro y localizarse, de forma que en este estado resulta bien descrito por un oscilador armónico que describe su oscilación en torno al sitio de la red y esto da lugar a una conformación de la red. Así se pueden deducir las energías de cohesión de los metales alcalinos y se explican muy bien las densidades electrónicas típicas de los metales. Consecuencia: en 2013 se fabricó un cristal de Wigner. Se han localizado los electrones en la superficie de gotas de Helio.

Se puede pensar que construir un cristal de Wigner es tan simple como enfriar el sistema. Pero los electrones se repelen entre si y enfriando disminuiría su energía y se congelaría la superficie, como ocurre con el agua cuando forma el hielo. Pero los electrones obedecen las leyes de la Cuántica y se comportan como ondas, con lo que en lugar de tener posiciones fijas en una red ordenada, los electrones se comportan como ondas, tienden a chapotear por los alrededores y chocar con sus vecinos. De esta forma, el cristal de electrones resulta ser como un charco.

Investigadores de la Universidad de Harvard, liderados por Zhou, que trabajaban en el comportamiento de los electrones en forma de sandwich de hojas finas de semiconductor, separadas por aislante y al enfriar los semiconductores de sandwich por debajo de 230 ºC y analizaban lo que ocurría con el aumento de los electrones en las capas. La observación fue que el numero de electrones de cada capa se mantenía, misteriosamente. Algunos electrones no se movían. Rescató la idea de Wigner de superficies bidimensionales que adoptan patrones similares en pilas triangulares. En este cristal los electrones no se movían. Park cuenta que después de lograr el cristal de Wigner obligaron a la fusión, forzando a los electrones a quedar descritos por su naturaleza cuántica, pasando a una fase de transición cuántica similar a la de un cubito que se hace agua, pero en el caso de los electrones, sin aplicar calor. Se confirmaba experimentalmente la predicción de la teoría. Con un láser obligaron a las capas de semiconductores a crear entidades como partículas, denominadas excitones y el material los reemitiría o reflejaría y analizando esa radiación, se deduciría cuando esa radiación había interaccionado con electrones libres o con electrones congelados en el cristal de Wigner. Como Park asegura, vieron la estructura triangular del cristal.

En otro estudio alternativo llevado a cabo en Suiza en el Swiss Federal Institute of Technology Zurich, liderado por Imamoglu, observaron también los cristales de Wigner. Estos estudios ponen de relieve y arrojan luz sobre el problema de la interacción de muchos electrones. Al ponerlos juntos, interaccionan y “se empujan” y resulta imposible mantenerlos en ordenados en fila. Seguimos siendo capaces de resolver solamente con papel y lápiz, el átomo de hidrógeno. En átomos con mas de un electrón el problema de la interacción resulta intratable. Sigue siendo uno de los problemas de mayor envergadura en la Física y en la Química. Por grandes, capaces  veloces que sean los ordenadores los problemas de muchas partículas se resisten.

Los retos que se enfrentan ahora son de envergadura, desde la fusión de los cristales de Wigner hasta la explicación de por qué a elevadas temperaturas y para un elevado número de electrones, muy por encima de las y los tratados teóricamente, se siguen las predicciones teóricas. Nuevas cuestiones quedan encerradas todavía y requieren un estudio detallado. Como siempre, nuevos descubrimientos traen de la mano nuevos interrogantes. La colaboración teoría-experimento es como diría Demler, “disponer de las soluciones al final del libro”, una excelente pista, por tanto. En el fondo es una guía en doble sentido, aportando sugerencias para nuevos estudios.

CABALGAN LOS AFECTOS por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Nos vamos a sumergir en un periodo vacacional en el que, en alguna medida, requerimos esparcimiento, cambio, tranquilidad, sosiego, descanso físico, saborear el espíritu, etc., según los distintos momentos. Renovar los contenidos que nos ocupan el cerebro, cargado durante varios meses, es reconfortante. La propuesta que ofrecemos es acudir a la música, como tantas otras veces hemos hecho, pero aproximarnos desde el punto de vista de la activación de las emociones, los afectos. No solo escuchar música como integrada por ritmo y melodía, como hacemos usualmente, sino eligiendo la afectación que deseamos en cada momento. Es una experiencia muy en sintonía con una época de relajamiento.

La teoría de los afectos considera la expresión emocional, como una consecuencia de los rasgos expresivos de una composición que incitan placer, sufrimiento, disposición a la acción, inclinación a la pasividad, etc., de forma que superan a la relación causa-efecto que pudiera estar relacionada con la memoria. La definición de una composición incluye rasgos asociados a personajes, paisajes, situaciones, descripción de ambientes, junto a los cuales se pueden situar los relacionados con los afectos

De siempre, parece que se ha sospechado que la música podía activar las emociones. Descartes le dedicó atención en 1649 en una obra titulada Las pasiones del alma. Los afectos actúan sobre el armazón psicológico y, de esta manera, se incide desde el exterior con un alcance mayor o menor, en relación con la sensibilidad individual de cada persona. Nada nuevo, por tanto. En la Grecia Clásica ya se vinculaba la música y los estados emocionales. En el Barroco tuvieron los afectos el momento esplendoroso, introduciendo la propuesta de que conceptos racionalizados que resumían sentimientos y estados mentales provocaban reacciones físicas, pasión para el alma y reacción para el cuerpo, podría ser el lema. Monteverdi le dedicó atención a tres de ellos: ira, templanza y humildad. En la época barroca las manifestaciones artísticas son las protagonistas y se trataba de resaltar las ideas que encarnaban. Se buscaba lograr la emoción de los asistentes. La elocuencia y la retórica volvieron a los escenarios y alcanzaron a los sistemas educativos, además de los culturales.

La dificultad de la teoría de los afectos es el hecho de que las cosas ocurren individualmente. Los madrigalismos fueron una forma musical vocal propia del Renacimiento consistente en un poema literario, que recibía un tratamiento pictórico musical que le acompañaba, donde la duración de las notas, describían procesos largos como propios de dormir, o cuando el texto supone un ascenso, las notas suben tonalmente y en el caso contrario bajan. Podían llegar a asociarse procesos musicales relacionados con palabras, en la que una palabra como “solo” hacía que todas las voces es callaran menos la que se supone que representa la sola, la de referencia, la aislada. Monteverdi fue un auténtico maestro en ello. Reparemos que la música se asocia al texto a través de la tonalidad, tono, timbre y duración. Por la tonalidad se elige una cualidad afectiva, sobre la que no todos están de acuerdo. Los propios modos musicales ya conllevan alegría, momento sublime para los modos mayores y tristeza y ternura para los menores. El ritmo establece seriedad que puede rozar el patetismo con las duraciones alargadas y otorga solemnidad para las combinaciones de notas de corta duración con notas largas. Los intervalos (longitud de los saltos de notas sucesivas) largos se asocian a osadía, mientras que los cortos se interpretan como halagos. Las danzas también combinan ritmo y tiempo para transmitir afectos, desde ambición hasta alegría o tristeza.

En su momento estos rasgos contribuyeron a otorgar la mayoría de edad a las composiciones musicales, dado que no requería del contenido literario para hacer aflorar las emociones. Significó que en el ámbito de la Ópera barroca la música se liberaba de ser el fondo sonoro de un texto literario y afloraba con personalidad propia, abarcando desde el carácter descriptivo hasta la provocación de emociones.

Nos limitaremos, ahora, a sugerir los afectos propuestos para asociarlos a algunas de las tonalidades, a partir de Comentarios de Johann Mattheson (1681-1764) del capítulo 2º Von der musikalischen Thone Eingenschaft und Würckung in Ausdrückung der Affecten de su libro Das Neu-Eröffnete Orchestre de 1713.  No es todo, pero es una parte importante que podemos descubrir prestando atención en las audiciones que pudiéramos tener en los tiempos inmediatos de descanso que se avecinan. Como referencia indicamos el % de cada tonalidad que está registrado en la oferte de los 30 millones de composiciones de Spotify, que es número suficiente para que sea significativo.

Tonalidad Do mayor (sin alteraciones) : Puede expresar alegría y felicidad. Se pueden encontrar pasajes con cierta ternura. Bolero de Maurice Ravel; la Marcha Nupcial de Mendelssohon o La bicicleta (Carlos Vives / Shakira), son algunas muestras interesantes. En Spotify el 10,2% de las canciones están en esta tonalidad, solamente superada por Sol Mayor que alcanza el 10,7%.

Tonalidad Do menor (3 bemoles): Algo triste y dulce al tiempo. Concierto para piano N. 2 de Rachmaninoff; Sinfonia N. 2 (Resurrección) de Mahler o Invención N.2 de Bach. En Spotify solamente el 2% de las composiciones están escritas en esta tonalidad.

Tonalidad de Re Mayor (2 sostenidos): En esta tonalidad se han escrito tanto composiciones felices como de carácter bélico, en ocasiones ha servido de introducción a otras partes de carácter delicado. Se señala ideal para tañidos. El  CanonJohann PachelbelMarcha RadetzkyJohann Strauss (padre) ; Vals «El bello Danubio Azul»Johann Strauss (hijo) o With or without you (U2). En Spotify alcanza la oferta un 8,7% en esta tonalidad

Tonalidad de Re Menor (1 bemol) : propio de devoción, tranquilidad, paz de espíritu, aunque pudiera percibirse como con carácter de fluidez, en casos. Generalmente se percibe tristeza. 32 sonatas de Scarlatti están en este tono; El arte de la fuga de Johann Sebastian Bach y la Novena Sinfonia de Beethoven. Solo un 2,6% de la oferta de Spotify está en esta tonalidad.

Tonalidad de Mi Mayor (4 sostenidos): Transmite tristeza, dolor, desgarro, impotencia, hasta desesperanza en cuestión de amor. Movimiento final de la Sinfonía inacabada de Franz Schubert; Sinfonía n.º 10 de Dmitri Shostakóvich; Sinfonía n.º 4 de Gustav Mahler; Don’t stop believin’ (Journey). Spotify ofrece un 3,6% en esta tonalidad.

Tonalidad de Mi Menor (1 sostenido): no es alegre sino pensativa, profunda, triste y se señala como una especie de aspiración al consuelo. Sinfonía n.º 9 de Anton Dvořák; Scheherazade  de   Nikolai Rimsky-Korsakov o Nocturno in Mi menor de Frédéric Chopin. Spotify registra un 4,2% en esta tonalidad.

Tonalidad de Fa Mayor (1 bemol): Sentimientos bellos, amor, generosidad y todo lo que puede valorarse como superior o elevado, perfilando a las buenas personas, con elevadas cualidades. Concierto N 19 para piado K 459 de Wolfgang Amadeus Mozart; Sinfonía No. 6, Op. 68, «Pastoral» de Ludwig van Beethoven; Waltz Op. 34, No. 3 de Frédéric Chopin; Un 5,3% en Spotify.

Tonalidad de Fa Menor (4 bemoles): Ternura, sosiego, profundidad, melancolía que puede llegar a incitar al escalofrío y horror. Mazurka en F Menor S.221ª de Franz Listz; Fantasia in F minor de Franz Schubert; Quinteto de Cuerda de  Alexander Borodin. Un 3,0% en Spotify.

Tonalidad de Sol Mayor (1 sostenido): Carácter tanto alegre como serio, alegría moderada o lamento, agradable dulce y mezclas de estos afectos. 69 de las 555 sonatas de Domenico Scarlatti; 12 de las 106 sinfonías de Joseph Haydn; Es la tonalidad usada para el Dios Salve  la reina en Canadá o Wonderful tonight (Eric Clapton). Spotify consigna un 10,7% de su repertorio, Tonalidad líder en el repositorio.

Tonalidad de Sol Menor (2 bemoles): Se refier como la mas bella de las tonalidades, mezcla lo dulce con lo serio, resultando gracioso y agradable, deseo incontenible y ambiente divertido, lamento y alegría, camaleónico, por tanto. Sinfonía N 40 de  Wolfgang Amadeus Mozart; Op. 8 No. 2, «Verano» de Las cuatro estaciones de Antonio Vivaldi; Cataluña de Isaac Albéniz o Standby de Extremoduro; Un 2,6% en Spotify.

Tonalidad de La Mayor (3 sostenidos): Brillante, mejor con aspectos tristes que alegres, muy recomendable para ejecución con violín. Polonesa, Op. 40/1 («Militar») de Chopin; Concierto para Violin No. 5, K. 219 de Mozart; Sinfonía N. 6 de Anton Bruckner ; Turnedo (Iván Ferreiro) En Spotify alcanza un 6,1%.

Tonalidad de La Menor (sin alteraciones): Carácter de resignación, lastimero, invita a dormir; muy usual en instrumentos de tecla y ejecuciones instrumentales. Sinfonía N. 6 de Gustav Mahler; Bagatela en La menor Claro de Luna de Beethoven; Sinfonía No. 4, Op. 63 de Sibelius; en Spotify alcanza un 4,8%.

Tonalidad de Si Mayor (5 sostenidos): Carácter agresivo, incluso desagradable y puede representar desesperación. Simfonía No. 46. De Joseph Haydn; La Ópera Rigoletto de Verdi; Trio para piano No. 1, Op. 8 de Brahms; en Spotify llega a un 2,6%.

Tonalidad de Si Menor (2 sostenidos): Carácter sombrío, melancólico, poco común. Concierto para violín No. 2 in Si menor, Op. 7 de Paganini; Simfonía No. 8 in B menor (Inacabada, D. 759 de Shubert; Sinfonía No. 6 in Si menor (Patética), Op. 74; I’m yours (Jason Mraz); En Spotify ofrece un 4,2%.

Tonalidad de Si bemol Mayor (2 bemoles): carácter divertido, pudiendo interpretarse como majestuoso y delicado. Quinteto de cuerda N 1 de Mozart; Polonaise Op. 71, No. 2  de Chopin; Cuarteto de cuerda N 5 de Dmitri Shostakovich; Spotify ofrece un 3,5% cde su repertorio en esta tonalidad.

Tonalidad de Mi bemol Mayor (3 bemoles): Seriedad y tristeza, con ausencia de sensualidad. Mozart tiene muchas obras en esta tonalidad: Sinfonía No. 39, K. 543 de Mozart; Cuarteto de Cuerda Op. 51 de Antonín Dvořák ; 1812 Overture, Op. 49 de Pyotr Ilyich Tchaikovsky; Si tú no estás (Rosana) y Valerie (Amy Winehouse). Spotify consigna hasta un 2,4%.

Hay más, pero estas son las tonalidades más importantes y frecuentes. Nuestros mejores deseos para que experimenten los afectos que potencialmente encierran las composiciones de las distintas tonalidades, desde la seguridad de que la audición va perfilando con parsimonia la sensibilidad para la percepción, no solo de las melodías, que también, sino de otros aspectos que esa maravillosa creación “de los dioses” que es la música, transmita sensaciones que sintonicen con nuestro estado de percepción y podamos disfrutar con mayor profundidad aspectos encerrados en las composiciones musicales. Sobre las notas, cabalgan los afectos. Buen verano y buen disfrute, desde el afecto a cuantos compartan este texto.

VIDA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Ha sido un concepto siempre en litigio. Ni es fácil definirla, ni ha habido mucho acierto a lo largo del tiempo para centrar un enunciado acertado. No obstante “se está en ello” desde hace tanto tiempo, que parece increíble que se mantenga el suspense. Es posible, que para usted querido lector, la cosa no presente problema alguno y que la distinción entre un ser viviente y otro que no lo sea, no tenge problemas para distinguirlos. Pero si seguimos ahondando en los detalles, más allá de distinguir a un humano de una piedra, irán apareciendo interrogantes sin fácil respuesta. Desde Aristóteles hasta la actualidad no se ha encontrado una definición que satisfaga a todo el mundo. Ahora que la Inteligencia Artificial nos enfrenta a un nuevo escenario, parece necesario encarar de nuevo esta cuestión, nada trivial como veremos.

Los avatares del concepto a lo largo del tiempo han sido extensos e intensos. En el siglo XIX el concepto de vida iba asociado a la implicación de un alma que confería el aliento vital. Nada científica la contestación y, por ello, fue perdiendo vigencia en aras a incorporar un barniz científico. No obstante, el número de definiciones que se han dado al concepto vida es muy numeroso y supera ampliamente la centena. La mayoría de propuestas barajan cualidades como reproducción y metabolismo, aunque las distintas definiciones implican criterios fundamentales o básicos en el ámbito en el que se aborda la definición de un ser viviente. Es fácil comprender que, en el ámbito de la Química, sean las moléculas las protagonistas, mientras que en Física lo sean los aspectos termodinámicos. El caso es establecer una distinción nítida que delimite a un ser vivo de los demás.

Tradicionalmente, el concepto de vida se aborda desde los ingredientes que significan los procesos de reproducción, nutrición, respiración, excreción, crecimiento, sensibilidad y movimiento. Pero, no es suficiente si tenemos en cuenta que estas características se pueden cumplir desde el ámbito de la computación e incluso en ciertas proteínas de carácter infeccioso como los priones, e incluso los virus. No está nada clara la distinción entre lo que genéricamente denominamos “cosa” y ser viviente. El matiz en los virus es que, efectivamente, no son células, por lo que no incluyen metabolismo, hasta que la encuentran pero, mientras tanto, sus rasgos son inertes, lo que ha hecho que durante mucho tiempo se consideraran no vivos. Esta intermitencia que pueden exhibir en los rasgos de ser vivo ha sido suficiente, durante mucho tiempo, para no considerarlos vivos. En todo caso, su dotación de ADN implica la potencial evolución y capacidad de reproducción. Todo un reto conceptual que hace tambalearse a las definiciones básicas de vida que tradicionalmente hemos utilizado.

Desde el ámbito de la Química, la vida se fundamenta en los compuestos de carbono. La capacidad de estructurarse el carbono en polímeros, permite la formación de proteínas, polisacáridos y ácidos nucleicos, presentes en las distintas formas de vida. Urey y Miller en 1953, evidenciaron como se forman los compuestos orgánicos propios de la vida, a partir de compuestos inorgánicos. Partiendo de agua, amoniaco, hidrógeno y monóxido de carbono, que supuestamente debieron formar la atmósfera primitiva, y sometiendo la mezcla de gases a las acciones de descargas eléctricas, tras una semana de aplicar el proceso de forma circular, detectaron la presencia de aminoácidos elementales en la mezcla de productos de reacción. El experimento fue clave para apoyar la teoría de la sopa primordial de Oparin y Sanderson. Algunos investigadores, como el desafortunado Fred Hoyle, una de las mentes mas pleclaras del momento, pero desafortunado en el apoyo que otorgó a teorías que resultaron equivocadas, como en este caso, vino a decir que “el que en la sopa primordial se dieran las circunstancias necesarias para formarse las primeras moléculas orgánicas a partir de las inorgánicas, era similar a que un tornado pasase por encima de un cementerio de automóviles y con los materiales que arrastraba, se pudiera formar, así, de forma espontánea, un Boeing 747”. El experimento de Urey y Miller impulsó, desde el conocimiento más detallado de las moléculas de ADN y ARN, renovar el interés por la búsqueda del origen de la vida en otros planetas en que se pudieran concitar las condiciones prebióticas requeridas. El experimento de Urey y Miller supone, también, el tránsito de la Química a la Bioquímica.

En todo caso, la vida, al igual que la evolución, tiene una exigencia mayor a la capacidad de producción de moléculas orgánicas, por cuanto es la reproducción la que puede dar lugar, a través de una replicación molecular que incluya algún error, al surgimiento de descendencia con distintas capacidades que compitan para la subsistencia. De aquí deriva la concepción de la vida a partir de la información fundamental que implica la replicación, ya que viene a ser el aspecto más fundamental de cuantos se han concebido. Pero, aun así, no se cierra el problema, dado que tenemos que admitir que es la vida, tal cual la conocemos, la que exige al ADN como telón de fondo, pero cabe la posibilidad, al menos conjetural, de otros tipos de vida no conocida. Lo hemos aprendido a partir de los sucesivos descubrimientos de vida en entornos, cada vez más exigentes y restrictivos, incluso en nuestro planeta, en ambientes inconcebiblemente violentos y agresivos.

En efecto, la búsqueda de vida en el Universo, no solo no ha cesado, sino que se ha relanzado, desde el desarrollo de la tecnología que nos permite visitar otros lugares del Universo en los que las condiciones no son similares a los disfrutados en la Tierra. La existencia de microorganismos que viven en esos entornos. El proyecto VIking de la Nasa, en el que trabajó en la década de los setenta el español Juan Oró, detectó en Marte unos niveles de dióxido de carbono muy elevado, lo que podía ser indicativo de la presencia de microorganismos en la superficie. Hoy día la presencia de este gas, se atribuye a la consecuencia de reacciones químicas, no biológicas, como es la oxidación. Se han hecho muchas conjeturas que no han servido para avanzar propuestas aproximadas consistentes, sin éxito hasta el presente, incluidas las relacionadas con formas de vida distintas de las conocidas. En este terreno hay que esperar todavía para ver si logramos evidencias de interés. La astrobiología nos hace esperar. Ciertamente, la definición de vida recibiría un gran impulso de encontrar a algún ser extraterrestre.

La creación de vida artificial es una actividad en la que hay implicada mucha gente. La síntesis y evolución de formas artificiales digitales se viene trabajando desde los años noventa del siglo pasado. Se han desarrollado programas de ordenador que se comportan de forma similar a elementos vivos. No se trata solamente de producir robots con características propias de los seres vivientes, sino de comprender la esencia de las características de los sistemas vivos, que es lo que la IA pretende. Se va perfilando que una definición ajustada para vida emergería desde un programa (ADN), un metabolismo y un contenedor, como el que delimitan las células. Por cierto, nadie ha logrado, hasta el presente ensamblar una forma de vida que funcione.

Se han formulado muchos modelos sobre el origen de la vida, concluyendo que se trata de especificar una función privilegiada. En el contexto ARN la función privilegiada es la replicación, al igual que el metabolismo lo es en el mundo del primer metabolismo o los gradientes químicos en el denominado modelo del viento térmico o en el de la membrana la compartimentación. Uno de los modelos más celebrados es el genético, en el que los genes se conservan a lo largo del árbol de la vida de los sistemas vivos. Al final, la vida contiene veinte aminoácidos, ocho nucleótidos, glucosa, polipéptidos y otros componentes. Se da una transición desde una genética previa y en el contexto de unos sistemas catalíticos extendiendo el sistema de proteínas, ADN y ARN. Las herramientas de la vida, han demostrado una robustez extraordinaria capaz de extender su incidencia en torno a 4.000 millones de años, manteniendo indeterminación y plasticidad tanto de los procesos biológicos como químicos.

Desde la filosofía se cuestiona el interés de llegar a una definición universal, relativizando los conceptos elaborados por su interés ajustado a la Tierra, y no necesariamente fuera de ella. Hasta que no se descubran formas de vida alternativa, seguiremos sin disponer de seguridad en los elementos y características que consideramos para calificar la vida, pretendiendo que sean conceptos universales.

El biólogo chileno Maturana propuso una teoría denominada autopoiesis, al intentar dar respuesta al interrogante de qué es la vida y qué es lo que muere, lo que en el fondo implica ser capaz de contestar a qué ocurre en el interior de un ente para que al mirarlo se pueda decir que es un ser vivo. Autopoiesis es un término compuesto de auto (a sí mismo) y poiesis  que significa creación. El vivir consiste en sistemas moleculares capaces de producirse a sí mismos. Esta construcción es constante, implicando modificación del ser vivo, reparándolo y efectuando las tareas de mantenimiento. Maturana pone el ejemplo de una herida, cuyo proceso evidencia las características señaladas. Por otro lado, la vida es un intercambio químico constante, de moléculas creadas por el propio sistema vivo. Estos procesos son constantes y continuos y cuando cesan, la consecuencia es la muerte. La vida, por consecuencia, es un proceso. Ni más ni menos.

VIDRIO 3D por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Todos los relacionados con la química recuerdan, valoran y añoran la época en que los sopladores de virio, próximos, realizaban los exigentes diseños de los montajes de laboratorio que requerían el concurso de hábiles y competentes sopladores de vidrio, que tenían que materializarlos. Hoy quedan en torno a una docena en España. La Universidad de Murcia fue una buena cantera, recordamos a Peñaranda y a su ayudante Alfonso. En Alemania la asociación de sopladores tiene unos 2000 miembros. En España en la época más álgida solo llegó a contar con unos 50. Ya saben la respuesta a como se las arreglan los investigadores españoles que requieren de vidrio, lo compran a Alemania. Hace mucho tiempo que se acabaron los montajes ad hoc y se ha pasado a emplear los estándares industriales, aun cuando en muchas ocasiones no sean los idóneos. Ahora ha surgido una nueva alternativa, cual es el moldeo por inyección de vidrio. Aporta ventajas sustanciales y viene a dar el golpe de gracia a una época que ya es pasado para casi todo el mundo y puede pasar a la historia.

El vidrio sigue siendo ampliamente utilizado en gran cantidad de objetos, situaciones y usos, desde las telecomunicaciones hasta objetos de uso cotidiano como botellas que, finalmente, no han sido desplazadas por el plástico y recuperan posiciones de una época anterior; en arte son objeto de realizaciones de mucho mérito; en medicina son muy usados en diversos dispositivos y siguen siendo empleados de forma primordial en Química. El vidrio está sujeto a los procesos de fusión, como proceso básico y el grabado y esmerilado en manifestaciones de otros usos. Estos procesos consumen mucha energía y están sujetos a muchas limitaciones por la operativa con la que se realizan, ya que el proceso básico es sujetar una cantidad de fundido en el extremo de una denominada caña, que es un tubo de unos dos metros de longitud, suficiente para que al operario no le llegue el calor de la masa vítreo que recoge en la otra punta del interior de un horno donde la funde. Soplando por un extremo de la caña, girando la misma al mismo tiempo, con objeto de mantener la mayor cantidad posible de material vítreo, adoptando forma esférica y con habilidad agregando elementos para dar forma; un trabajo artesanal conforma una producción que tiene que resultar útil. Moldear vidrio resulta ser un proceso que requiere desarrollarse de forma fácil, rápida y eficaz. Los polímeros facilitan la producción de estructuras, pero sus propiedades físicas, ópticas, químicas y térmicas han resultado ser inferiores a las del vidrio. Otra cosa es que los procedimientos usuales en el mundo de los polímeros pueden arrojar luz a cómo tratar la producción en vidrio. La idea que se ha aportado, recientemente, consiste en que la fabricación de estructuras y componentes complejos de vidrio se produzcan de forma similar a la de los polímeros.

Ha surgido, pues, el moldeo por inyección, que es el proceso más importante de producción de plásticos y que hasta ahora el vidrio transparente se resistía a ser sometido al mismo. Ahora Kotz, director de investigación de Glassomer, empresa que hace la propuesta, logra moldear vidrio a solo 130ºC, mediante una impresora 3D que soporta los inyectores y que, mediante tratamiento térmico, convierten en vidrio. Requiere menos energía que el fundido convencional y logran una calidad en la superficie que ahorra procesos posteriores como el pulido. El granulado del producto inicial es determinante para ello, al ser determinante la porosidad y la abrasión de las partículas. Aquí ha radicado el logro de la inyección que hasta ahora se resistía. Al ser de cuarzo puro, garantiza la transparencia y un bajo coeficiente de dilatación. Ello conlleva que son susceptibles de aplicaciones en productos de alta tecnología, desde sensores a instrumental de óptica, incluyendo células solares más eficientes, aportando una gran estabilidad térmica.

Como bien se puede observar, no logra innovación lo que se rotula como tal a priori, sino solamente aquello que la sociedad decide, finalmente, dictaminar que es un avance significativo y útil y que permite hacer de forma más cómoda y eficiente lo que hasta entonces se hacía. La impresión 3D se revela, cada día con más autoridad, como una herramienta de propósito general, al menos, en el ámbito de la producción de objetos, dispositivos e instalaciones, hasta ahora objeto de profesiones, artesanías e industrias de lo más variado. No se corre mucho riesgo afirmando que la innovación la trae de la mano, la lleva puesta.