LA ENERGIA COMO SUSTANCIA ONTOLÓGICA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

En 1895 se celebró en Lübeck, Alemania, un encuentro de la Sociedad Alemana de Ciencia Naturales y Medicina (sabiamente, se buscaba conectar la Medicina con las ramas científicas que desde siempre la sostienen científicamente) y que, en ese momento, ya era la 67 edición de estos encuentros. Entre los asistentes figuraban los que pertenecían a las ramas de Matemáticas y Astronomía, Física y Meteorología y Química. El tema estrella fueron las disquisiciones de lo que comenzaba a denominarse energética. Hasta entonces se limitaba esta nueva rama emergente a buscar relación con procesos no visibles como eran las radiaciones o el electromagnetismo. Boltzmann se empeñó en que los debates girasen en torno a ideas y conceptos, en lugar de dedicarse a aspectos concretos. Su empeño derivaba del rumbo que había observado en la literatura científica, cada vez más alejado de la ortodoxia científica, como ha venido ocurriendo sucesivamente en distintas ramas, cuando se ha intensificado la elucubración por encima de las ideas científicamente ben asentadas. Hoy, desgraciadamente, sigue ocurriendo algo de esto, con insistencia corrosiva. En aquella reunión se optó por invitar a dos científicos como representantes de dos corrientes no coincidentes: Georg Helm, profesor en Dresden y Wilhelm Ostwald (¡nada menos!), profesor en Leizpig, científico de talla mundial, después premio Nobel en 1909 y fundador de la rama del saber científico denominada Fisicoquímica, junto a Arrhenius y van´t Toff.  Los títulos de sus aportaciones son reveladores: mientras que Helm disertó sobre “Información general sobre el estado actual de la energética”, Ostwald aportó el provocador “La superación del materialismo científico”.

Helm analizó el peligro de subsumirse en las “imágenes mecánicas” de los procesos naturales, por la potencialidad de resultar engañosas por aquello de derivarse exclusivamente de la abstracción. Esta propuesta, según él, emergía de la consideración de que la interpretación de las “imágenes mecánicas” como única forma de abordar el análisis de los fenómenos naturales era, en realidad, un prejuicio científico. Helm abordaba la cuestión haciendo reparar en que se trataba de mecanismos imaginarios que servían de representación auxiliar para la investigación y que, por tanto, no eran reales. Defendía que eran posibles  otras interpretaciones en lugar de las representaciones abstractas. En suma, defendía que lo real de todo fenómeno derivaba de la omnipresencia de la energía: todo fenómeno es una transformación de energía. De esta forma, la propuesta resultaba clara: el análisis realista está implicado en las diferentes formas de energía que sufrían las transformaciones.

Boltzmann, representante del oficialismo materialista y Ostwald, apoyado por Klein, Nernst y von Oettingen, defendían que la energía era una propiedad de los átomos y Ostwald pensaba que la energía era una sustancia fundamental. Boltzmann proponía que los procesos naturales estaban sustentados por los movimientos de las moléculas en el éter, mientras que Ostwald dudaba de las propuestas de los cinéticos como Boltzmann y pensaba que lo que había que hacer era estudiar las transformaciones de la energía. Posiciones encontradas: Mecánica Estadística frente a fenomenología; abstracciones frente a realismo, imágenes frente a sensaciones; átomos frente a energía; energética frente a atomismo.

Se trataba de una visión del mundo sobre la que subyacía el objetivo real de la Física y la relevancia y los límites de los modelos físicos. Ostwald sustentaba que la visión mecanicista de los fenómenos naturales era insuficiente y se podía soslayar mediante una concepción energética. Boltzmann pensaba que los energetistas habían exagerado los logros y propulsaba la idea de que considerar la energética como una teoría simple, precisa y completa, era infundado. Boltzmann defendía una concepción mecánica de la Naturaleza, mientras que Ostwald defendía una visión energética del mundo. Boltzmann resultó vencedor en aquel debate, aunque la historia de la Ciencia ha evidenciado que el corpus científico nunca estuvo totalmente del lado de ninguno de los contendientes.

La filosofía a la que llegó la disputa en esa “visión del mundo” que propicia átomos frente a energía como dos realidades antagónicas, aunque en el fondo son respuestas a un mismo problema: ambos buscaban una sustancia elemental a la que reducir todo fenómeno del Universo: partícula de masa unidad o densidad de energía radicaban en el monismo como explicación de la existencia. Se confirman, ambos, como materialistas. Para Ostwald la energía no se asocia con lo inmaterial y permite la ambigüedad de aceptar la realidad de la materia, aun no integrada por partículas, sino densidades de energía y estudiarla por encima de las consistencias materiales: sustancia ontológica.

CORONAVIRUS Y BIODIVERSIDAD por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

No pinta bien. Las crisis conllevan cambios, reflexiones y nuevos retos. Los momentos de dificultades nos definen. Intentar conocer y explicar el contexto en el que tienen lugar los acontecimientos, desde los diferentes ámbitos de interés. Si los elementos de reflexión no están siendo los necesarios cambios en los sistemas de producción y consumo, de todo tipo de productos, incluidos los relacionados con la información y comunicación, las organizaciones y su sostenibilidad, los movimientos sociales, la ciberesfera y sus tentáculos, nuestra relación con la Naturaleza, el papel de la especie humana y los valores y la esfera ética, no estamos centrando la reflexión en la centralidad del problema.

Hay un lema, circulando estos días con alguna profusión que reza: “Los inteligentes buscan soluciones, los inútiles culpables”. Ciertamente, el entretenimiento en valorar los acontecimientos en función de lo que nos parece, desde nuestra opinión, alejada de disponer de la información requerida para valorar y, por cierto, todavía está mucho más alejada la de los auténticos “terroristas” de las redes, que enarbolan toda suerte de especulaciones, dándoles apariencia de realidad o certeza. Esto, solamente causa tristeza por la catadura de algunos elementos de la sociedad, que no necesariamente sienten los más mínimos síntomas de ciudadanía. No puede todo esto formar parte de nuestra preocupación. Allá aquellos que quieran dar oído a estas anomalías sociales.

Levantemos un poco la mirada y pensemos con alguna serenidad. La OMS se empeña en llamar la atención para que nos preparemos para incurrir en los escenarios que se aventuran. Este coronavirus ha llegado, pero otros pueden llegar. Ahora sale a relucir la biodiversidad. Hasta ahora, para muchos, ha sido solo un término erudito más, aunque hace más de una década y de dos, que desde el entorno científico se apuntó y evidenció el papel de la biodiversidad en cuanto protección, ante acontecimientos similares, aunque menos virulentos, a los hoy vividos con el coronavirus. Nuestra especie no está siendo respetuosa con la biodiversidad y cada día se incrementa el número de especies que tenemos amenazadas. Claro que, una de las derivadas de esta posición es el desprecio que la especie humana exhibe por los beneficios potenciales de la biodiversidad, como es la protección de las enfermedades infecciosas. Cuantas más especies actúen como huésped, mas limitada resulta la transmisión de enfermedades, diluyendo el efecto y amortiguando las consecuencias. Vale esta apreciación desde el ébola hasta el coronavirus.

A la zoonosis se le imputa un elevado porcentaje, hasta un 70%, de las enfermedades infecciosas sufridas por los humanos en los últimos tiempos. Los analistas observan que en la cadena de transmisión intervienen, usualmente, varias especies. Naturalmente que la diversidad de seres vivos atempera los mecanismos de transmisión desde el agente inicial de la infección, hasta el humano. La biodiversidad resulta ser el mayor valor que la especie humana puede reconocer en la Naturaleza, la variabilidad con la que la vida se presenta. Muchos autores, Keesing, Johnson o Thieltges, ya en el siglo XXI, evidenciaron el efecto protector de la biodiversidad. Los monocultivos genéticos tienen la consecuencia de soslayar la barrera que puede ralentizar la transmisión de la infección. Del mismo modo el hacinamiento decrementa la capacidad de respuesta inmune. Al propio tiempo la producción industrial de alto rendimiento facilita la virulencia al incrementar la frecuencia de renovación de materiales.

La eliminación de especies y la simplificación de los ecosistemas tiene incidencia en la salud humana. Muchas enfermedades de las consideradas por la OMS son zoonosis. El cambio global trae de la mano, también, este tipo de consecuencias. La cuestión relevante está resultando ser, no tanto como el coronavirus afecta a la Naturaleza, a través de los ecosistemas, sino como ésta última afecta al coronavirus y los patógenos potenciales o todavía virtuales. La actividad de todos los sectores de actividad económica, demasiado centrada en la ganancia, llega a valorar que la mortandad potencial de millones de personas, es un riesgo asumible. Pero todo tiene que cambiar. La diversidad tanto en cultivos como en ganadería, impulsa una reestructuración que se desvela estratégica. Esto tiene que cambiar. La crisis de hoy, no se puede considerar que no tiene antecedentes: el ébola y los murciélagos o el SARS y el gato de algalia. Puede que la  ingesta de animales salvajes sea la única forma de alimentarse en determinadas partes del globo, pero el equilibrio  requiere además de comer, protegerlos y el equilibrio en los ecosistemas es imprescindible para modular la transmisión de patógenos. En todos los episodios conocidos se relaciona la pérdida de biodiversidad con los síndromes emergentes.

El cambio climático está acentuando la debilidad de los ecosistemas y deteriorando su capacidad de protección. Los hielos acomodan no solo gases, que inciden en la acentuación del efecto invernadero, sino virus y bacterias, muchos de ellos desconocidos y con potencial de infección para los humanos, incógnita. Así parece que ocurre con los brotes de ántrax en Rusia. No es un enunciado escolástico la peligrosidad que trae de la mano el calentamiento global.

La reflexión sobre el coronavirus, trae de la mano  que los problemas que enfrentamos como Humanidad son el cambio climático, la contaminación atmosférica y la pérdida de biodiversidad. Cómo vivimos, como nos alimentamos y cómo cuidamos de la Naturaleza, influyen en los problemas que provocamos. Desafíos de enorme magnitud, Vitales para la especie humana y/o para el planeta. No sé si sabremos encararlos con la dignidad que requiere la circunstancia o volveremos a la frivolidad típica y tópica. “Entre bobos anda el juego”.

La reflexión a la que induce el periodo de confinamiento es la necesidad de compartir una conciencia de colectividad y una corresponsabilidad social que permitan encarar los desafíos que enfrenta la sociedad en los próximos tiempos. Sanidad, educación e investigación traen de la mano los cambios. De seguir consumiendo sin control recursos y territorio, nos acercamos a focos de contagio. Se impone un cambio de modelo con una estructura muy diferente a la actualmente en vigor, con capacidad para soslayar la degradación ambiental y sus nefastas consecuencias. En el fondo, la crisis nos impele a modificar los hábitos, como única alternativa para preservar la especie y dejar de agredir y provocar a la Naturaleza. El refuerzo del sistema de investigación como motor de ese cambio, requiere un severo planteamiento de recursos, objetivos y conceptos para centrar lo auténticamente importante, que no necesariamente es lo más fácil de llevar a cabo, ni lo que se viene haciendo.

METAAPRENDIZAJE por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Del sentido común, dícese de las proposiciones en vigor en una sociedad. Podrían ser creencias, en todo o en parte. En todo caso son las personas las que lo ejercitan a nivel individual. Cierto es que, por muchas razones, solemos sentirnos escépticos respecto de los seres humanos. Pero resulta reconfortante cuando el escenario lo trasladamos a la Inteligencia Artificial (IA). Hay aspectos en los que la tecnología se aproxima a las capacidades humanas, desde el reconocimiento facial, traducción, incluso conducción automática. Pero no es menos cierto que estas aproximaciones nos llevan a reflexionar acerca de las capacidades humanas, la flexibilidad del cerebro, la plasticidad y, en suma, sus incontables facultades. Las máquinas todavía quedan lejos de estos niveles, siguen siendo opacas, de costoso aprendizaje que requiere exhaustividad y una larga serie de desventajas comparativas con el humano.

De siempre las máquinas se ha pretendido que se parezcan a los humanos. La via de la exhaustividad que se ha emprendido en muchas líneas de ataque en la IA, no es factible en muchos casos. Se requeriría que las máquina fueren más ingeniosas, con mayor dotación de destrezas en lugar de memorizar solamente. Una de las vías que más avances ha aportado es la de las redes neuronales. Pero un elemento que salta a la vista en la línea de la mejora es que hay que reducir las entradas y ser más transparente en las salidas. Hay que poder interrogar a la máquina y que de explicaciones de cómo a llegado a resolver el caso que nos ocupa. Obtener un préstamo o mejor denegarlo, no es suficiente con al rótulo de denegación, requiere alguna explicación de la complicada trama de capas neuronales intermedias que han llevado a la solución final. Es una forma de dar un por qué, parecido a la respuesta humana. Se ha llegado progresivamente muy lejos, pero se requieren cambios. A poco que se piense, hablamos de autosuperación, imaginación, sentido común. Todo parece indicar que la forma consiste en el entrenamiento inteligente. Las máquinas tienen que dar pasos por ellas mismas.

Quizás la aportación más importante del ámbito de la IA es que nos hace pensar en nosotros mismos. El aprendizaje a través de redes neuronales, por ejemplo en el tratamiento de imágenes, consiste en procesar a nivel de pixel, a través de múltiples etapas y rotularlas, finalmente, con una etiqueta. En función de la probabilidad que le aproxima a cada una de las existentes. Las interconexiones de todas las capas intermedias se ajustan a partir del procesado de miles de imágenes, lo que hace que la forma exacta mediante la que se efectúa la clasificación se pierde en la maraña de interconexiones. Clasificar aromas  a partir de una red neuronal que trabaja con respuestas de sensores inespecíficos consiste en entrenar la red con un numero de aromas elevado de los que se aporta su etiqueta al sistema. Posteriormente la red trabajara buscando proximidad con los patrones que dispone. Pero se ignora la conexiones que ha establecido para ello. Esto requiere un tedioso entrenamiento. No se sabe como ponderan los nodos y los van ajustando de forma que puedan responder a la etiqueta. Tras miles de intentos en el entrenamiento en un ámbito concreto, una red responde de forma parecida a como lo haría el humano. Incluso puede llegar a responder a casos no previstos en el entrenamiento. No utilizan indicios o variaciones simples. Básicamente se modelan a sí mismas y su eficacia suele ser en muchos casos superior a la prevista.

Una forma de reducir el entrenamiento consiste en hacer que la red practique con ejercicios del mismo tipo. El olvido es esencial en el aprendizaje. Si aprendemos una cosa y la olvidamos, otra vez de nuevo la aprendemos y la olvidamos, y asi sucesivamente, llegará un momento en que aprenderemos que tienen de común los casos aprendidos y olvidados. El olvido conduce al metaaprendizaje. Nosotros lo empleamos y la propia Naturaleza nos da evidencias de que lo maneja, en la evolución. No son suficientes los instintos fijos, sino que estamos impelidos a aprender. Si una red, en lugar de aprender a clasificar aromas, mediante el entrenamiento con miles de ellos, la entrenamos con ejercicios de aprendizaje, habremos conseguido que aprenda a aprender. Es el ideal de todo sistema educativo, al menos nominalmente.

En el proceso de entrenamiento de una red neuronal convencional, por ejemplo en el ámbito de imágenes, se suministran imágenes de una clase y la red pondera sus capas para etiquetar el resultado. Si ahora introducimos imágenes de un ámbito diferente, de nuevo a red se entrenará para etiquetar en el nuevo ámbito, pero olvidando el anterior. En cambio, cuando se trata de metaaprendizaje, se muestras un número limitado de imágenes de un ámbito y cuando ensayamos con la red, no clasificará muy bien, con esos pocos casos. Si borramos la red del conocimiento anteriormente adquirido, pero ajustamos el punto de partida para que la próxima vez pueda mejorarlo. Ahora se le muestran imágenes de otro ámbito y un tercero y se cambia de ámbito aleatoriamente. La red no conseguimos que sea experta en ninguno de los ámbitos, pero puede aprender cual es el mejor punto de partida para los distintos ámbitos. Es algo similar a adquirir prejuicios y es como si se preparar en consecuencia. En la Conferencia Internacional de aprendizaje automático, celebrada en Sidney en 2017, Finn aportó su experiencia en la que mostraron a un robot de cuatro patas tareas que consistían en correr en distintas direcciones. Mediante el metaaprendizaje, el robot supuso bien que todas las tareas tenían en común correr en alguna dirección ¿en cual? La respuesta es la que le dijeran en el momento de dar la orden. Así que el robot comenzó a correr sobre el sitio, para estar preparado para ello. Se adaptó con previsión.

Todavía este tipo de procesos es muy lento y requiere mucha memorización. Pero de lo que no hay duda es que avanza en la dirección de lograr más elementos comunes con el humano. Poco a poco, la robótica deambula por los recorridos de los conceptos humanos. Al tiempo nosotros aprendemos mucho más sobre nosotros mismos, que no viene nada mal. La teoría, al final, resulta más simple que el logro práctico. Aprender a aprender es un lema de escenarios pedagógico-didácticos que, en el fondo, nunca llegaron a implementar procesos prácticos, seguros y efectivos. Ahora, que el futuro no sabemos ni siquiera como se llama, nuestra evolución socio laboral nos acomete con violencia haciéndonos ver escenarios que ignoramos, trabajos que no conocemos, ocupaciones que no están previstas y el lema aprender a aprender es el único sensato para abordar lo desconocido con alguna garantía de éxito. Si aprendemos del aprendizaje de las máquinas, bendito será el viaje, de lo contrario, lo harán por nosotros y la incógnita es ¿qué haremos entonces?

INNOVACIÓN POR ANALOGIA: II LA RUEDA AUTÓNOMA por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La invención de la rueda abrió amplias posibilidades para la construcción de dispositivos de un amplio espectro, desde el propio torno a los vehículos. La rueda se vio mejorada en primera instancia con la incorporación de una cinta metálica alrededor. Se sitúa en el ámbito celta esta mejora, en el primer siglo a.C. Los romanos utilizaron anillos de bronce como rodamiento, en forma cilíndrica  y revistiendo el interior de los elementos que giraban alrededor de un eje,  en forma de buje. En ese tiempo, constructores daneses probaron un sistema de cojinetes con rodillos de madera, que lograban hacer girar las ruedas con menor fricción. Hubo que esperar hasta el siglo XIX a que se generalizara el uso de metales en la fabricación de maquinaria. Fue en 1880 cuando se inventaron los neumáticos para las ruedas, que en 1959 se propusieron las primeras cubiertas sin cámara. Ya en 1958 Bacon creo fibras de alto rendimiento de carbono en el Centro de Union Carbide en Parma  y en 1980 Shindo en Japón empleó como materia prima el poliacrilonitrilo (PAN). Desde 1970 se venían proponiendo materias alternativas que introdujeron la fibra de carbono obtenida a partir del alquitrán de petróleo y que llegaban a contener hasta un 85% de carbono.

Ciertamente la incorporación del metal a la maquinaria fue decisivo en el avance de la producción de herramientas útiles. Hace unos 7000 los mesopotámicos descubrieron que algunas rocas contenían metales y hace 3000 lo extraían mediante el fundido. Al combinar cobre y estaño obtuvieron el bronce mas fuerte y consistente. Así se hizo la herramienta de precisión, el cincel  de bronce, que fue el que permitió la aparición de la rueda. Se podían mover mayores objetos a mayores distancias. Coincidió la rueda con la domesticación de caballos y bueyes. Fue la revolución social en el mundo antiguo, y los humanos podían salir de sus asentamientos. Gente que cultivaba, que creaba objetos, etc.  podía efectuar el transporte con facilidad. Innovaciones a partir de que cada uno hacia una cosa y el intercambio permitía disfrutar de mayores y mejores comodidades. Las lenguas europeas y asiáticas emergieron. El eje uso la rueda y modificó la historia. Los vehículos tirados por caballos se mantuvieron por más de 5000 años.

El siguiente paso requirió unas inundaciones devastadores y un predicador, baptista a comienzos del XVIII en G B, para que aparecieran nuevos inventos para transformar la vida diaria. Se escarbaron minas más profundas para satisfacer la demanda  de cobre carbón y estaño. El problema era el peligro del agua subterránea. Las bombas de mano solamente podían sacar el agua a un metro, por ello cuanto más escavaban el problema era mayor. Más hombres y más bombas. En cada mina trabajaban casi en exclusiva para frenar las inundaciones. Batalla perdida. A tal profundidad no era rentables. Algunas minas se cerraron, se derrumbaron y murieron. Muchas personas dependían del carbón. Necesitaban una máquina para extraer el agua. El héroe  dice ser Thomas Newcomen, predicador baptista que pregonaba el trabajo duro, pensaba que la fe resolvía el problema y no dejó la solución solo en manos de Dios. Inventó un motor que aprovechaba el vapor, nuevo tipo de energía. El vapor, ya había sido empleado a comienzos del XVII por Gerónimo de Ayanz y Beaumont, para idéntica finalidad, adelantándose casi en 200 años a la aportación inglesa, pero no se le reconoce tal hazaña, incluso las propias referencias españolas lo han ignorado demasiado tiempo. La universidad de Murcia ha dado cuenta fiel y fidedigna del logro, dejando constancia y reconociendo al más grande investigador que ha vivido en nuestra tierra y figura enterrado en la Catedral de Murcia. En otra parte hemos dejado constancia de la aportación de este ilustre e universal hijo adoptivo murciano.

Centrándonos en la aportación de Newcomen, una vara oscilante de  20 toneladas y 20 metros de, con cadenas en ambos extremos y la cadena de uno de los lados bajaba por la mina hasta una bomba de agua que había en la base y la otra iba conectada a un pistón que extraía el vapor de un contenedor con agua hirviendo y lo dirigía a un cilindro. El vapor se enfriaba y condensaba creando un vacío dentro del cilindro que empujaba el pistón hacia abajo y eso hacia subir el oro extremo de la vara y accionaba la bomba situada al final de la cadena. Sin embargo no funcionaba muy bien. El vapor se condensaba demasiado despacio y, en vista de ello, colocó una camisa alrededor del cilindro con agua fría para condensar el vapor antes. El destino aportó su granito de arena, porque  se quemó una junta del cilindro y se creó un vacio muy potente que destrozó la máquina, pero propició la idea que necesitaba: en la reconstrucción ahora incluyó una válvula que introducía el agua y aumentaba el vacio y la velocidad de la bomba. Se califica como el primer motor de vapor funcional de la historia.  Cierto, si no conociéramos las aportaciones de Gerónimo de Ayanz.

Las minas eran  vez mas profundas y requerían demasiado carbón para funcionar hasta el punto de que solo era practica una instalación cerca de una mina. Ahora se conjeturó con la existencia de máquinas cada vez mas grandes. Se precisaban motores mas pequeños y eficientes. Para superar el obstáculo se propuso quemar combustible que resultara fácil, pero un pistón que se ajustara al cilindro fue un reto. Si el pistón no encajaba perfectamente el motor perdía toda la fuerza. La construcción de unos cañones explosivos en Glasgow, en 1774, de la marina, enfrentaron el inconveniente de que los cañones no paraban de explotar y mataban a gente, que no debían, los propios usuarios. El molde de hierro del cañón provocaba que se atascaran las balas. John Wilkinson vio la solución: tenía que ser cilíndrico,  se precisaba una taladradora tirada por caballos. Éxito enorme. Destrozaron barcos franceses. Un escocés de la Universidad de Glasgow,  Watt, paseaba despejando la mente. Le habían encargado reparar el motor de Newcomen. Obsesionado por el cilindro y  en el enfriamiento mientras se condensaba el vapor aportó  el condensador. Si se abría una válvula creando un vacío, sacaría el vapor sin enfriarlo. Contrató al “loco del hierro de los cañones cilíndricos”. En lugar de un cilindro y un pistón para mover una vara, que movieran una rueda. Se podía emplear el carbón como combustible. Fue la revolución industrial. Mas potencia que los animales y humanos y aparecieron máquinas por todas partes. Transportaban mercancías entre las ciudades. Maquinas de vapor capaz de hacer girar ruedas.

El vapor presentaba desventajas, porque el motor era tan grande que solo se podía usar en ferrocarriles. Los caballos seguían siendo el tiro preferido y cómodo para el desplazamiento. Una mujer salió a visitar a su madre y Karl Benz tuvo la idea de incorporar un motor nuevo, mucho mas pequeño. En lugar de carbón para quemar y empujar el cilindro, el motor de combustión interna provocaba la combustión el petróleo en el cilindro. Los problemas comenzaron a ser de otro género, porque para que fuera un medio de transporta, necesitaba talleres y gasolineras. Durante dos años no vendió ningún vehículo. Se arruinó y cayó en una profunda depresión. El marketing no se le daba bien. Una persona colaboradora suya vio la potencialidad en el Motorwagen, la mujer de Karl,  Berta. En agosto de 1888, Berta levanto a sus dos hijos y alejó el coche para no despertar a Benz. Recorrió una distancia de 105 km para visitar a sus padres y sin carreteras asfaltadas. Y sin seguridad de que el coche sin probar llegara. Salió de la ciudad y recorrió largas distancias. Berta hizo el viaje sin mapas ni señales, ni carreteras de asfalto, solo caminos de tierra. Era muy probable que fracasara, pero Berta se enfrentó a un reto mayor: tenia que parar para añadir un  disolvente tipo petróleo, vendido en las farmacias y el motor se recalentaba y lo enfriaba con agua de las acequias. El vehículo tenía solo dos marchas y al llegar a una colina empujaban ella y sus hijos. La cuesta abajo, resultaba aterradora, no se podía frenar en el último momento. Controlar la velocidad era esencial. Solo tres ruedas, de forma que si girabas con fuerza, volcaba. El freno incorporaba cuero: las primeras zapatas del mundo. Cuando un conducto se bloqueaba, se  procedía a desatascarlo con una aguja. El deficiente filtrado del combustible, con frecuencia provocaba obstrucciones. Había que ir provisto de agujas, grande y pequeña, para proceder a desatascarlo. Al final, Berta llegó a casa de sus padres. El Motorwagen cubrió el primer viaje de largo: 105 km 12 horas. Un coche de caballos no valía ya para grandes distancias. Berta Benz  dio la imagen de una mujer viajando a larga distancias. El automóvil  Benz fue un paso enorme en la industria del automóvil. Creyó en el invento de su marido. Fue la primera maniobra publicitaria de la historia. El coche de novedoso pasó a ser deseado, todo el mundo lo quería.

 

Aparecieron numerosas marcas y todos los ricos querían tenerlo. No todos los fabricantes estuvieron de acuerdo con el motor de combustión interna. Otros eran partidarios de la electricidad. 40 km por hora era mas que los coches de caballos. Las baterías era un problema La autonomía muy limitaba. Edison se propuso que los coches eléctricos fueran viables para grandes distancias. 1901 inventó la batería de Ni Fe que permitió recorrer hasta 160 km.  Costaba 500 dólares, hoy equivalente a unos 10.000 Incapaz de encontrar solución, acabó desechando su idea. Tendrían que esperar otros 100 años mas. A principios del XX, el motor de combustión interna, estaba a punto de cambiar el mundo. Nueva York  era la ciudad que mas crecía en el mundo. En el cambio de siglo pasó de 63000  a 3,5 millones en menos de 10 años. Ninguna otra ciudad fue tan deprisa. Se transformó exponencialmente con la cantidad de caballos que incorporó en sus calles. A finales de 1890 habían unos 200.000 caballos, que transportaban a mas de un millón de personas y miles de toneladas de productos,  pero la orina y los excrementos había que quitarlos. La limpieza resultó ser un problema fenomenal, pues las moscas causaban 20.000 muertes por año. El problema era similar en todas las ciudades industriales.

Henry Ford observó el mundo en el que los ricos solamente automóviles. Habían millones de personas que deseaban otra cosa y no caballos. Henry Ford se crió en una granja y trabajó para Edison. Con su primera paga se compró un reloj, enamorado de la maquinaria. Le pareció muy sencillo. Pensó en fabricar relojes mas baratos pero masivamente. El padre cayó enfermo y tuvo que volver a su casa. Fabricó su motor en el fregadero. Construyó un coche en el taller y no podía sacar el coche porque la puerta era estrecha y tuvo que tirarla. Su cuadriciclo le costó cuatro años. Dos cilindros, consumiendo etanol, que alcanzaba 32 km por hora. Juguete caro pero se interesaron los inversores. Fabricar coches baratos que la gente pudiera permitirse tenerlos era el objetivo. Había que simplificar el motor lo máximo posible. El modelo T lo que no se ve  es que se soslayó: no hay bomba de agua, el agua caliente empuja a la fría; el gas baja por gravedad. Sin bombas, tanto la de combustible como la de agua, todo por gravedad. FORD producía en masa, apostó por vender muchos coches. En 1909 el T costaba 825 dólares (hoy equivalente a unos 18.000) quería llegar a un mercado amplio. Agilizar la producción y reducir el precio a la mitad. Se necesitaba mucho tiempo para producirlo. La solución la encontró en un matadero. Un empleado le condujo a ello. Poco después de fabricar el T visitó una planta matadero y vio que cada persona tenía una misión muy concreta. Adaptó el proceso para fabricar coches y logro rapidez. Redujo 250 dólares el precio de los coches. Instaló cintas transportadoras y rebajo otros 50 dólares mas. En el momento álgido produjo hasta 150 coches por hora, a menos de un tercio del precio original. Un Cadillac costaba 4000$.  Ya no era cosa de ricos. Henry Ford fabricó hasta 16.000.000 de unidades de este modelo. Supuso una revolución en Manhattan, pues en 1912 las calles se vaciaron de caballos y se llenaron de coches Todo cambió, de forma impensable. Ahora, a diferencia de 1900, todo el mundo podía tener coche. Nuestras necesidades cambiaron radicalmente: calles,  garajes, aparcamiento…, cambiaron las ciudades. El coche ha revolucionado prácticamente todos los aspectos de nuestras vidas  Ha remodelado nuestro mundo.

El motor de combustión ha provocado, paralelamente una crisis medioambiental. 5100 MILLONES DE TM DE CO2 A LA ATMÓSFERA exigen un nuevo paso: el coche eléctrico pero aunque las baterías hayan mejorado, todavía hay problemas. Las baterías de iones de litio tienen 500 km de autonomía. No compiten con las gasolineras. Dos cosas evidentes:. 5100 millones de tm de CO2 han propiciado que muchas personas piensen en los eléctricos. Las baterías todavía tienen problemas. Las de litio tardan horas en cargarse. E ir a las gasolineras es muy fácil y rápido.

La respuesta pueda estar en el interior de un lapicero. El grafito con estructura en forma de panel, se encuentra en los lapiceros, estratificada y entre cada capa de carbón apilada hay una nube de electrones que genera una carga estática que provoca  que se pegue al papel cuando se deja sobre él, al escribir. El grafito conduce si está dispuesto en una capa como el grafeno. Capacidad de conducir la electricidad y superficie alta: vale para el almacenamiento energético. Un trozo de celo y grafito pirolítico bastaron para construir una monocapa de grafito. Empleando un laser (reproductor de DVD) se logra convertir grafito en grafeno. El grafeno es fuerte y puede formar parte de la carrocería y permite que se cargue de electricidad, dadas sus propiedades. Al final, tras su ciclo de empleo, se convierte en abono y es respetuoso con el medio ambiente. El grafeno será la carga del automóvil. Los coches eléctricos apuestan por el grafeno.

Pero las cosas no finalizan aquí, porque no todos las cuestiones están resueltas. En esa espiral de mejoras en la dirección de mayor progreso, las innovaciones logradas derivan de una hipótesis de partida: el control de la herramienta por el humano. Pero ha irrumpido la IA en nuestras vidas, cambiando sustancialmente el punto de vista, que ahora se puede pensar que el control pasa del humano a una máquina. Cuando el coche  lo conduce un ordenador, el humano no acciona el volante ni los pedales, ni la interface. La gente se podrá sentar como quiera en los vehículos. Los de reparto circularán sin humanos. El vehículo será autónomo. El coche es la culminación de un proceso de viaje que comenzó hace millones de años.

Ahora, con la perspectiva del tiempo pasado, podemos valorar las innovaciones que han venido de la mano del automóvil y las analogías que han sido precisas. A las innovaciones derivadas de la rueda, los relojes fomentaron los mecanismos, una visita a un matadero permitió idear la cadena de producción industrial de vehículos que permitió popularizar su propiedad, socializando se disfrute. La capacidad de desplazamiento, osada por Berta Benz, permitió superar al caballo como alternativa. La crisis higienista de excrementos en Nueva York permitió sustituir con ventaja el coche de caballos por el de combustión interna. Pero no olvidemos que las minas del siglo XVII permitieron desarrollar la máquina de vapor. Las ruedas derivaron del cincel aplicado al torno, lo que mejoró el  patinete que usaban los trineos para el desplazamiento. Hoy hemos llegado a aspectos de palabras mayores, por cuanto es el control del desplazamiento el que busca alternativas al humano. Las analogías se apilan, aportando la inspiración que la creatividad sabe cultivar. El premio es el progreso. No hay que ocultar que en ello hay que ser prudentes y ser capaces de considerar todos los elementos variables y constantes que deben ser tenidas en cuenta. La Naturaleza, de la que no somos dueños, ni tenemos ninguna prevalencia sobre nada que tenga vida, exige una vigilancia constante y decidida para mantener intactos todos los procesos y sistemas que contribuyen al mantenimiento de la vida en el planeta. Esa es la más excelsa de las analogías, la que nos exige mantener los procesos y sistemas que contribuyen al mantenimiento de la vida. Lo hace la Naturaleza, ¿Por qué íbamos a dejarlo de hacer nosotros?

INNOVACIÓN POR ANALOGIA: I INVENTANDO LA RUEDA, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

En repetidas ocasiones hemos referido la frivolidad con la que se refiere la innovación, cuando un elevadísimo porcentaje de la así denominada, no pasa de ser una ocurrencia que jamás verá la luz, para que los humanos podamos tener la oportunidad de otorgarle el visto bueno, por aportar relevantes mejoras que redunden en el incremento del progreso y mejora de las condiciones de vida, contribuyendo a incrementar la felicidad de las personas.

Por otro lado, la analogía es sinónimo de una relación de semejanza entre cosas distintas. La capacidad del cerebro humano para establecer la analogía conlleva la identificación de un hecho o proceso en su más intima concreción, en sus partes fundamentales, privándolo de lo accesorio. Lo imprescindible emerge por encima de lo superfluo. Lo que importa descuella. Lo esencial se desvela. Cuando imitamos a la Naturaleza establecemos una analogía entre el hecho o proceso natural, para dar a luz un hecho o proceso artificial. La Naturaleza en su infinita parsimonia ha resuelto los problemas más importantes que tenemos los humanos. Encontrar como lo ha hecho es una parte esencial de la Ciencia. A menor escale imitar un hecho o proceso artificial para generar un nuevo proceso artificial, es un tono menor de nuestra imitación a la Naturaleza. Pero analogía al fin y al cabo. Si otros tuvieron la inteligencia de resolver algún hecho o proceso, ¿por qué no establecer la analogía cuando convenga para  resolver algún hecho o proceso?

La Historia de la Ciencia y de la Tecnología está llena de ejemplos inspiradores. Fisher destacó que la inspiración, mejor que te encuentre trabajando. Y, ciertamente, cuando se está imbuido y sumergido en la resolución de un problema, es cuando se tiene la sensibilidad suficiente como para poder establecer la analogía inspiradora de la resolución del problema.

Si hay alguna referencia inexcusable ejemplificadora del proceso innovador es la historia del automóvil. No es un dispositivo más. Y no se dio de la noche a la mañana, sino que su evolución ha ido incorporando mejoras científicas y tecnológicas como en ninguna otra faceta de la creación humana. Incluye, por fin, con una Ciencia y Tecnología, puesta al alcance de todos, no solo una realización académica o inaccesible, sino dispuesta a que todo el mundo pueda disfrutarla, incluyendo como lo hace avances tecnológicos de auténtica vanguardia y alcance en las prestaciones.

El automóvil, vino a cambiar el concepto de distancia, de desplazamiento de fortaleza lo que conlleva una serie de concepciones diferenciales que van desde el propio concepto de hogar, de trabajo, de ocio y un largo etcétera. Es innovación porque vino a cambiar todas las coordenadas hasta entonces en vigor. El mundo ha cambiado, en gran medida por el automóvil.

Pero la innovación que trajo de la mano, no es una sola. No parece que hayan dudas en que el denominado coche es una herramienta que ha aportado la innovación, genuinamente considerada. Su recorrido es largo, no es cuestión de poco tiempo el que se ha ido tomando aportando mejoras sucesivas y constantes. Comienza con la primera revolución en el transporte terrestre.  Se sitúa hace unos 45.000 años en una zona no demasiado cómoda como son las tierras árticas. Tuvo que ser allí a temperaturas en torno a 40 grados bajo cero, cuando convivía con renos que le aventajaban en mucho a la capacidad de desplazamiento cuando sobrevivir era una  función muy directa de dependencia de los animales salvajes, como los citados renos que le proporcionaban tanto alimentación como abrigo. No tenían los humanos capacidad para seguir de cerca a los renos a efecto de darles caza. Los desplazamientos de los humanos estaban limitados  a unos 32 kilómetros por día. Las piernas no daban mayor alcance. Y esto también suponía un problema mortal, por la incapacidad para defenderse llegado el caso, de los animales salvajes. Únicamente eran las piernas lo que disponían para desplazarse y no podían seguir a una manada de renos y mucho menos darles alcance. Era un problema serio. Había que encontrar solución. El desplazamiento había que aligerarlo.

El primer problema estaba planteado. La primera necesidad resultaba obvia. Las huellas reveladoras de la solución alcanzada se han encontrado a unos 480 km al norte de Rusia donde se ha descubierto un asentamiento datado en 9000 años de antigüedad. Se han encontrado muestras evidentes en las que se desvela que los humanos habían encontrado la clave de la supervivencia: restos de lobos junto con humanos. Pero lo grandioso y revelador es que no se han encontrado signos de depredación por animales salvajes, sino de convivencia, es decir que los animales se habían adaptado.. Denotan los restos encontrados que los animales pesaban menos y, por ende, correrían más y mejor que los lobos de los que procedían y que fueron sus ancestros. Eran perros con apariencia y como lobos domesticados. Los hombres cuidaban de ellos porque en unos fragmentos de madera encontrados se identifican como unos patines para desplazarse haciendo el papel de primigenios trineos, tirados por perros o lobos domesticados. Fue el primer pueblo que se reconoce que puso animales a trabajar. Mucho antes de que fueran utilizados los caballos como fuerza de carga, tiro y transporte Esto empleo del animal, no solamente fue una idea genial, sino que fue una idea revolucionaria porque al usar los perros el desplazamiento. Ya avanzaban al mismo ritmo que los renos. Relación cooperativa con los perros. Gracias a los animales se desplazaron los humanos. Los perros fueron los primeros motores de la Humanidad. Una  primera innovación.

El dispositivo básico para trasladar los trineos, con troncos debajo de la estructura de la que tiraban los perros domesticados, se han encontrado similares troncos de madera en Stonehenge, indicando que los monolitos de 20 toneladas eran transportados sobre troncos de sicomoro recorriendo entre 16 y 20 kilómetros por día, usando el mismo método de los trineos. No fueron las únicas culturas en emplear el procedimiento, disponiendo troncos y sobre ellos desplazar los pesados elementos rodando.

Pero no dejaron de haber mejoras posibles, aún con el notable adelanto logrado. Los trineos tirados por perros son inservibles si no se desplazan sobre elementos planos y compactos, como tierra o mejor hielo. Los vericuetos boscosos o los propios   accidentes del terreno invalidaban el trineo. Era necesario una nueva idea, esta capaz de superar esta dificultad. Se necesitaba la rueda. Se estima que la rueda procede del V Milenio a.C. nacida en Mesopotamia  (entre 4000 y 3500 a.C. ) en el taller del alfarero, donde el cincel permitió crear formas sobre los utensilios de barro, que girando daban formas bellas al tiempo que útiles. El torno del alfarero inspiró la rueda. Se sabía hacer girar, por tanto. Posteriormente, la cultura de Andrónovo que se extendió desde Siberia, por toda el Asia Central y hasta los Urales, que practicaban la agricultura del cereal y una ganadería sedentaria, que devino en trashumante y que utilizaba los caballos para monta y para acarreo de materiales y carros de dos ruedas datados entre 2000 y 1200.

Para que una rueda transformara la sociedad se necesitan otros elementos para que hacerla operativa. La idea brillante fue no tanto la propia rueda como el hecho de conectarla a una plataforma fija: el eje. De esta forma se puede llevar desplazando el peso y el truco consiste en la precisión con lo que se disponga ese eje en torno al cual va a girar para lograr el desplazamiento. Si el eje no fuera redondo ni el agujero tampoco lo fuera, se bloquearían, no habría giro. Hoy nos parece obvio pero hubo que experimentar. O no se moverían los ejes y, por tanto las ruedas, o se tambalearía mucho, incluso de forma creciente si no coincide, hasta lograr desbaratar el dispositivo y, al final todo se desmoronaría.  No valía que el soporte del eje fuera de madera. El desgaste llevaba a esta situación Se precisaba el metal para esta precisión,

En unos dispositivos, hoy muy simples y obvios para nosotros, se concentran varias innovaciones. Todos estos primero inventos, después concreciones, acompañadas e desarrollos, van conformando unas perfecciones que devienen en utilidad y progreso. Van permitiendo hacer cosas que anteriormente o no se hacían o se lograban con demasiado esfuerzo o resultaban imposibles. Pero, al tiempo, iban cambiando nuestra percepción de las cosas y desencadenaban progreso. Ahí están las innovaciones.

CITAS, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Uno de los tipos de pensamiento que pretende emular la Inteligencia Artificial (IA) es el denominado razonamiento deductivo inferencial. Consiste en que una vez que se han establecido los axiomas y las reglas de deducción, se sacan conclusiones.  En suma, partir de lo conocido para deducir enunciados verdaderos nuevos. Frege (1848-1925) fue un matemático, lógico y filósofo alemán que instituyó la lógica matemática y la filosofía analítica. Desempeñó cátedra en la Universidad de Jena, aunque pasó inadvertido y fueron Peano y Bertrand Russell quienes lo dieron a conocer a la comunidad científica. Estaba convencido de que la Matemática y el lenguaje eran reducibles a la lógica. Su influencia sobre Russell, Wittgenstein y el Circulo de Viena fueron la base sobre la que se desarrolló la filosofía analítica. Vino a renovar y relanzar la lógica, inalterada hasta entonces y anclada en la formulación de Aristóteles. Ha ayudado a que la lógica y los programas efectúan las deducciones. Hay otros tipos de inteligencia, siendo el método de la inferencia uno de los más fértiles, pero hay otros no reducibles a inferencias.

Las citas y las distinciones son actividades intelectuales, fuera del alcance de las inferencias. Citar, distinguir y desear, son formas de calibrar el alcance de la Inteligencia Artificial y la capacidad de reemplazo de la Inteligencia Natural. Si la IA no puede imitar estos atributos, evidenciará sus límites. En buena lógica, la IA depende tanto de la Ingeniería como de la fenomenología. La primera, alberga el desarrollo del hardware y el software, mientras que la fenomenología es la que da cobertura al análisis del conocimiento natural, es decir la descripción de las diferentes formas de pensamiento  que la ingeniería pretende imitar y, en su caso, reemplazar.

Los humanos, en cuanto a hablantes, empleamos la cita. No solo repetimos palabras de otro, sino que apreciamos que las cosas para alguien son como para nosotros. Es la forma de presentarnos y presentar a los demás la forma en la que el mundo se concibe para otros distintos de nosotros. En buena lógica, la cita implica la habilidad por la que agregamos perspectivas a las cosas que experimentamos y expresamos. Somos capaces de ver las cosas con las perspectiva de otros, no solo de ver las cosas desde nuestro punto de vista, sino desde la perspectiva de otros, que no tienen por qué coincidir en el aprecio a las cosas. Es un signo de inteligencia esta capacidad, del mismo modo que su carencia lo es de menor inteligencia. Ver las cosas de una sola forma es una indicación de ser obtusos.

Pero la habilidad de la cita, no es sinónimo de la capacidad de ponernos en lugar de otro, como si se tratara de coincidir compartiendo el estado de ánimo y sentimientos de otro, lo que nos llevaría a simpatizar con sus estados subjetivos. En realidad, todo es una forma de respuesta a dejar patente lo que parecen las cosas. En una cita capturamos como son las cosas para alguien. Las citas pueden ser todo lo complejas que queramos, por ejemplo incluyendo en una de ellas lo que una tercera persona piensa. Quién las hace, es lo importante.

Es usual que al hablar contrastemos la forma en que nos parecen las cosas con lo que les parecen a otros. No cabe duda de que la forma en que le parecen a otros influye en lo que nos parecen a nosotros. Pero este tipo de cadena de puntos de vista alternativos se ve negado en el marco de las inferencias deductivas  La razón es que la lógica de la deducción es una especie de lógica de un solo ojo, ya que la diversidad queda retenida en los filtros y solo es admisible lo que deriva de las premisas. Incluso la lógica formal que incluye casos no cubiertos por los axiomas especificados o en las lógicas no monoatómicas que abordan situaciones que no se siguen de las premisas, siguen un solo punto de vista. Evidentemente, todos los tratamientos cooperativos no pueden seguir planteamientos monoatómicos. Se requieren tratamientos formales apropiados en estos casos de planteamientos multiagentes, de los que, hoy por hoy, carecemos.

Las restricciones que impone la lógica a un único punto de vista es una abstracción legítima y útil, pero limitada, al no proporcionar una imagen completa del razonamiento humano. En la esfera natural, las opiniones de los demás, forman parte del andamiaje en el que se completa el pensamiento humano. Las opiniones de otros influyen en las opiniones que mantenemos. Nosotros no derivamos las posturas solamente de los axiomas que aceptamos como verdaderos. Si la IA ha de emular al pensamiento natural, el software ha de manejar puntos de vista alternativos y no solamente el `pensamiento inferencial y lineal. El software de IA debe incluir expectativas y afirmaciones que incluyan argumentos conversacionales y no solo monólogos. Simular situaciones competitivas conlleva estrategias concretas.

Si la cita se sitúa más allá de la IA, podemos convertirnos nosotros en los últimos referentes de la citación   En el mundo científico la cita es el elemento compensatorio de las propuestas que se formulan. La coincidencia en los puntos de vista reviste de autoridad una aportación. No es fácil la cita en el mundo natural, por los atributos de calidad que requiere. Cualquier cita no basta ni justifica, sino solo aquélla que conlleva analogía o aporta escenario para el desarrollo. En el mundo incipiente de IA, como hemos visto, es un argumento de calidad de la capacidad de emulación de la Inteligencia Natural. Mucho más ambicioso que el mero requisito de las maquinarias inferenciales. Finalmente  lo que nos hace ciudadanos en el ámbito Natural, tiene que incidir en el ámbito artificial, si pretendemos una aportación significativa.

VIRUS Y BACTERIAS: BATALLA DE FUTURO, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Es buen momento para la reflexión. Los virus, de los que se han contabilizado hasta 800 millones de ellos por metro cuadrado,  se disponen sobre una célula como si se tratara de un insecto posado sobre una superficie esférica mil veces mayor que la de él. Una cabeza poliédrica, cuerpo parecido esférico o alargado y el material genético lo protegen mediante una cobertura de proteínas que se denomina cápside, que solamente puede adoptar unos valores de radios, longitudes, integrando un número determinado de proteínas: los esféricos tienen simetría icosaédrica y agrupan cinco o seis proteínas, formando pentámeros o hexámeros. Los alargados constan de un cuerpo tubular que en los extremos tienen casquetes icosaédricos centrados en uno de los tres ejes de simetría. Son estructuras muy estables y resistentes, con gran parecido a los fullerenos y nanotubos de carbono. Los coronavirus, hoy famosos, se han detectado en 39 especies distintas y el antepasado común más reciente se ha encontrado en el siglo IX a.C.

En general, el mecanismo de actuación de los virus, consiste en acoplarse con “las patas” a la membrana celular de la bacteria victima, colocando su cuerpo sobre un poro y contrayéndose inyecta su ADN a la bacteria.  Pero el ADN contiene el patrón para producir más virus. Los virus no tienen maquinaria molecular para hacer más cosas, por lo que usurpan los mecanismos de las células para multiplicarse. Finalmente las células estallan. La célula a la que se le ha introducido el código ADN, sigue las instrucciones introducidas y fabrica las proteínas programadas. Cuando salen los virus producidos en el interior de la bacteria se dirigen a otras bacterias y se repite un ciclo explosivo de producción de virus. Pero en casos, llega un momento en que se detiene el proceso de producción de virus, porque la maquinaria celular se ve incapacitada para leer el ADN del virus. Esto es lo que ocurre cuando se trata de el bacteriófago Lambda y la bacteria Estchericia Coli. La razón de esto es que la Eschericia Coli se ha reprogramado para utilizar un ADN desconocido en la Tierra y que es incompatible con el código del virus. Esto hace que el bacteriófago sea incompatible con el código del virus. Este es el trabajo que han hecho Ostrov y col. (entre ellos Marc Güell de la Pompeu Fabra) en la Escuela de Medicina de Harvard, que han bautizado a la bacteria como rEcoli-57.

Nada menos que se han precisado hasta 148.955 modificaciones en el ADN para que la bacteria sea resistente al virus. Una bacteria capaz de permanecer inmune a los virus, es un microbio sumamente valioso. La aportación más significativa de estos trabajos es que las bacterias actuales están compuestas de proteínas construidas con los veinte aminoácidos existentes en la Naturaleza, pero la nueva bacteria podría fabricar aminoácidos exóticos, proteínas de diseño que podrían actuar en enfermedades hoy irradicables.

Naturalmente que la capacidad de desarrollar una bacteria a prueba de virus, como es el caso, induce a pensar que se pueda producir una célula humana a prueba de virus, que sería un logro invaluable en la esfera biotecnológica y en la medicina, ya que los virus, como es bien sabido, atacan e infectan a las células humanas. Cabe tener dudas sobre la forma de funcionar las células reprogramadas, con respecto a las naturales, pero queda en la incógnita, de momento.

ELECTRICIDAD DE LA NADA, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Uno de los atributos más esquivos de la materia es la carga. Al tiempo es Lo más importante para configurar las reacciones químicas que mantienen la vida y la evolución, así como la conformación de los compuestos inorgánicos, en suma casi todo. Pero la carga no solo es una propiedad fundamental de la materia, sino la forma de manejar de una forma limpia, segura e ilimitadamente. Se ha usado, aún sin conocer aspectos esenciales, haciendo uso de esa intuición que distingue a nuestra especie. De forma empírica se han descubierto sus aplicaciones y se han desvelado sus capacidades. Su primera aplicación fue en el telégrafo que propusiera Samuel Morse en 1833, consecuencia, como siempre ocurre de aportaciones sustanciales de Gauss y Weber consistentes en que el receptor empleaba los movimientos de una barra que se deslizaba bajo la acción de un campo magnético creado en una bobina. Esta barra estaba unida a un espejo que se desplazaba solidario con la barra y sus movimientos se observaban con un anteojo que enfocaba un espejo que contenía una escala: así se conectaron el observatorio astronómico  de Gauss y el laboratorio de Weber, separados por unos 3 kilómetros. Tras esta primera aplicación de la carga en movimiento, electricidad, sucedieron muchas otras que culminaron a finales del siglo XIX y durante el XX con la iluminación eléctrica de calles, hogares y fábricas.

Se da la cifra de producción de electricidad en los 34 países miembros de la OCDE en 2014 cifrada en 10.712 Teravatios hora. Van disminuyendo paulatinamente las aportaciones de las componentes hidroeléctrica y las centrales térmicas, basadas en el consumo de combustibles fósiles, al tiempo que sigue creciendo la aportación de las energías renovables no hidráulicas: la fotovoltaica aporta en torno a un 17,2% y la aportación total de energías renovables alcanza en torno al 22%

Pero, ciertamente, la disposición de carga para las demandas y aplicaciones de las sociedades, ha sido constante e incrementada de forma permanente. Si lo pensamos bien, un hilo que vaya desde donde se produce hasta el enchufe de tu casa donde conectas el ordenador, además de parecer un despliegue brutal de recursos, supone un arcaico procedimiento de suministro. De forma novelada, más de una vez se han puesto en el escenario truculentos sistemas de suministro de este tipo, pero para la sopa diaria, por aquello de la especialización y un largo etcétera. Provoca sonrisas tal aplicación, además de tener que superar numerosas dificultades, entre las cuales figuraría el enfriamiento de la sopa al discurrir por las tuberías de suministro. Algo parecido ocurre con la carga al hacerla viajar entre lugares remotos. Al agua le ocurre otro tanto de lo mismo. Llega a tu grifo tras pasar por cientos de miles de vericuetos, altos y bajos, es de suponer más de los primeros y con un nada menor gasto de energía para conseguirlo.

En su día comentamos la fuente potencial de agua que es la propia atmósfera, en la que está presente en  un 0.0009 % de toda el agua del planeta. Los cálculos indican que, aproximadamente, unos 50.000 kilómetros cúbicos de agua pasan a vapor debido a la captación de la energía solar por las moléculas de agua, que en las capas altas de la atmósfera se estima en 177.239 MW, cuando a efectos comparativos con una central nuclear con la capacidad total de la energía nuclear mundial, en 2018 fue una potencia eléctrica de 45.496 MW, es decir dos órdenes de magnitud de la potencia nuclear del mundo. Solo razones comerciales pueden estar deteniendo el avance de dispositivos para bajar agua de la atmósfera a domicilio.

Ahora, con la carga estamos en una situación similar, por cuanto la tecnología nos ha sumergido en un mundo de demanda en la que la disposición de la carga es limitante para poder disfrutar de las opciones que la tecnología ofrece potencialmente. La anchura de banda de las comunicaciones y los sistemas de conmutación se han revelado apropiados para los retos de mantener las comunicaciones de ingentes cantidades de usuarios. La capacidad de almacenamiento de carga de los dispositivos móviles, no parece haber logrado su propósito. Ciertamente, los sistemas de acumulación, salvo el cambio de compuesto químico utilizado, no ha logrado avanzar lo suficiente para que resulte útil en el nuevo escenario en que nos ha sumergido la tecnología.

Una publicación en Nature  de Yao y Lovley, de la Universidad de Amberst, desvela la creación de un dispositivo, que han denominado “Air-Gen”, que emplea nanocables fabricados con proteínas conductoras de la electricidad que genera un microbio Geobacter. La corriente eléctrica se genera a partir del vapor de agua que contiene la atmósfera. No tiene restricciones en cuanto al contenido de agua, pudiendo funcionar en ambientes muy secos, como los propios del desierto. Tampoco requiere la presencia de viento o luz solar y puede funcionar en interiores. Solamente requiere una delgada película de nanocables de espesor inferior a 10 micras. La parte inferior descansa sobre un electrodo y en la superior un electrodo mas pequeño. Esta película es la que absorbe el vapor de agua de la atmósfera. La conductividad eléctrica de la superficie de los nanocables de las proteínas y los finos poros entre los nanocables en el interior de la película son los que permiten generar una corriente eléctrica entre los electrodos. Es el inicio  de un proceso de producción de energía para dispositivos de carga con intención de eliminar la forma convencional de recarga. Películas incorporadas a las paredes permitirían alimentar un domicilio. Energía sostenible al alcance individual. La E. Coli se revela como medio para la producción de nanoalambres de proteínas.

Ciertamente, todo comenzó hace unos 30 años, cuando Lovley descubrió el microbio Geobacter en el rio Potomec. En el laboratorio pusieron en marcha la producción de nanoalambres de proteínas conductoras de electricidad. Por su parte, Yao había trabajado en Harvard diseñando dispositivos electrónicos con nanocables de silicio. De la unión surgió la fuerza. Un estudiante detectó que cuando los electrodos, conectados de una forma concreta y expuestos a la humedad atmosférica que absorbían las proteínas, se generaba una diferencia de potencial. Casual, pero había que estar en ello. Como siempre. ¡Esto puede cambiar!

COMO AGUA Y ACEITE, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

Un experimento sencillo consiste en disponer de agua, aceite y detergente diluido en agua. Si en un vaso pequeño o en cualquier otro recipiente, preferentemente de vidrio para poder observar lo que ocurre, mezclamos un poco de aceite y agua, con un mililitro de cada uno de ellos es suficiente, agitamos y removemos pretendiendo mezclarlos, tras lo cual lo dejamos en reposo. Una vez anotadas las observaciones agregamos una cantidad parecida del disolvente líquido (sólido disuelto en agua) y agitamos de nuevo pretendiendo mezclar los líquidos. Tras ello lo dejamos también en reposo, anotando las observaciones hasta que no acontezcan cambios.

Si todo ha ido bien, es decir sin accidentes que reseñar, debemos finalmente obtener una mezcla de agua, aceite y detergente que presentará una turbidez, pero que no se separa en capas, como ocurriera en la primera parte del experimento, cuando mezclamos agua y aceite. El agua y el aceite no se mezclan. El agua es un compuesto polar, que tiene cargas en distintas partes de sus moléculas, mientras que el aceite es apolar, no presenta esas cargas. Eso quiere decir que cuando pretendemos mezclar agua y aceite para formar un nuevo compuesto que los englobara, quien determina si es posible o no es el cambio neto de entropía.

La razón por la que las moléculas de aceite se mantienen unidas en la botella de este preciado producto (oro vegetal) son unas fuerzas que se ejercen entre las moléculas de moléculas apolares, ya que no tienen carga. Se denominan fuerzas de dispersión. Son fuerzas atractivas que operan entre átomos y moléculas y en el caso del aceite, entre los hidrocarburos que lo forman. Por contra cuando las moléculas son polares (tienen carga) las fuerzas que operan son de naturaleza dipolar. Naturalmente, cuando pretendemos mezclar agua (polar) y aceite (no polar o apolar) tenemos operativas dos tipos de fuerzas, con lo que tendríamos que romper enlaces de hidrógeno entre las moléculas de agua y romper las fuerzas de dispersión que opera en el aceite. Para ello tenemos que aportar energía. También es cierto que si el proceso fuera espontáneo, la energía que se liberaría en la formación del nuevo compuesto sería la aportación de la necesaria para romper, primeramente, los enlaces. La magnitud que mide esta energía es la entalpía. Si obtenemos la variación de entalpía del proceso de disolución de los hidrocarburos en agua (entalpía de disolución) es casi cero en la mayor parte de los casos. Esto quiere decir que también será casi cero la variación de entropía, ya que está definida como la variación de entalpía dividida por la temperatura.  Desde el punto de vista dinámico, podemos describir el proceso pensando que al acercarse las moléculas apolares (hidrocarburos) a las polares (agua) o viceversa, van perdiendo libertad de movimiento, más important4e para las más pequeñas que son las de agua, que se agrupan. Este agrupamiento de las moléculas de agua en torno a las moléculas de soluto, lo que implica es una pérdida de libertad de las moléculas de agua, lo que conlleva una restricción que supone un mayor ordenamiento y, por ende, una disminución de entropía, asociada a la pérdida de libertad. Esta pérdida de entropía para las moléculas de agua implica una variación total de entropía para la mezcla de aceite y agua negativa, y tiene como consecuencia que no ocurra la mezcla entre agua y aceite.

Los hidrocarburos no se disuelven, pues, en agua. La estructura que forman las moléculas de agua en torno a una molécula polar, es muy parecida a la que presentan los cristales de hielo, en el caso de moléculas apolares de bajo peso molecular. Se denominan clatratos y consisten en una distribución de moléculas de soluto en el cristal del disolvente, como si se tratara de cajas de moléculas de agua, rodeando las de hidrocarburos. Un ejemplo muy conocido es el clatrato que forma el metano con el agua en los fondos marinos, que es un potencial reservorio de energía y combustible para los humanos.

¿Hay alguna forma de mezclar las moléculas polares con las apolares? Los detergentes son esas moléculas especiales que propician que se entiendan dos clases de moléculas condenadas a entenderse, por mucho que se resistan. El sulfato de dodecilo es una molécula detergente. Uno de los extremos es muy polar (grupo sulfato)  y el resto de la molécula es una cadena apolar tipo hidrocarburo. Gracias a estos dos tipos de moléculas que coexisten en la de detergente, puede interaccionar con el agua de dos formas diferentes: a) el extremo polar y el agua se atraen entre si, es decir el detergente es soluble en agua y b) la cadena hidrocarbonada (apolar) se comporta como un hidrocarburo, como un aceite, no se mezclan con el agua, se repelen. Los detergentes en esa doble condición polar y apolar, se denominan anfifílicos. La cuestión es que este tipo de interacción, simultánea polar y apolar, puede plasmarse en la formación de lo que se ha dado en denominar micelas. Muy gráficamente, la parte polar es grande y se denomina cabeza y la cola apolar tiene un diámetro más pequeño. Es como se si tratase de un gusano cabezudo, aunque solo aparentemente, pues no tiene vida. Cuando las moléculas de detergente se alinean con las colas juntas, las moléculas de agua del medio están libres para evitar las interacciones de las zonas apolares. Esta liberación de las moléculas de agua hace que aumente la entropía de la disolución, favoreciendo el empaquetamiento de las moléculas de detergente, que acaba formando una esfera en tres dimensiones, que es la forma final de la micela. Aumenta la entropía neta de la disolución a partir de la liberación de las moléculas de agua. Una micela agrupa entre 50 y 100 moléculas en  una esfera de 3-5 milímetros de diámetro.

La cuestión es que las nuevas partículas creadas a partir del agua, el aceite y el detergente, tienen un tamaño suficiente para difundir la luz que atraviesa la mezcla, de forma que el carácter difuso al operar en todas las direcciones. Mientras que las moléculas individuales de una disolución son demasiado pequeñas para afectar la trayectoria de la radiación cuando pasa a su través, pero a través de la agrupación, el tamaño que adquieren interfiere la radiación y provoca la difusión de luz en todas las direcciones. De aquí la turbidez observada.

Los detergentes aparecieron en el mercado tras la Segunda Guerra Mundial. Hasta entonces la limpieza se lograba con el jabón. Hoy incorporan tensioactivos o surfactantes reforzados con fosfatos, carbonatos y perboratos, enzimas, sustancias espumantes, conservantes, aromatizantes y colorantes, entre otros. Algunos ingredientes se han limitado legalmente, como los tensioactivos derivados del benceno o los fosfatos, pero no podríamos calificarlos de inocuos. Detergentes, fertilizantes agrícolas y aguas residuales provocan la eutrofización que se visibiliza en las mareas rojas o verdes. Se requieren procedimientos costosos para eliminarlos en las depuradoras. En algunas variedades, como los detergentes de aplicación textil, se han eliminado los fosfatos, sustituidos por otros, aunque no exentos de compuestos de fósforo. Los lavavajillas son otro mundo afectado por la falta de eficacia de las alternativas. Los tensioactivos o surfactantes eran dañinos al ser no biodegradables derivados del benceno, que se sustituyeron, ampliamente por los alquilsulfonatos lineales, menos tóxicos y con mayor facilidad de descomposición, aunque no libres totalmente de inconvenientes. Los alquilsulfonatos son parecidos en consecuencias al bisfenol a a los fosfatos, con incidencia endocrina

La limpieza es un concepto introducido por la especie humana, aunque la Naturaleza también tiene sus sofisticados mecanismos de limpieza de paredes, muros y fachadas. Ciertamente una inspección ocular por la Naturaleza nos informa que hasta que interviene el hombre, la Naturaleza se encarga de mantener los paisajes limpios.  El efecto Loto, por su simbología de pureza en las religiones orientales. Es una especie de ducha por gravedad, que provoca una agitación que deja limpio como si se tratara de una ducha, sin esfuerzo y sin el empleo de detergente. La hoja de Loto repele el agua de su superficie. Las microestructuras y nanoestructuras enceradas presentan un ángulo de contacto con el agua que hace que adopten forma esférica y arrastran la suciedad sin mojar la hoja. En la hoja de Loto el agua resbala de forma eficaz, pese a que la estructura de la hoja es rugosa e irregular, vista al microscopio. La superficie hidrofóbica de las hojas de loto es una máquina de autolimpieza, trasladable a edificios, como superficies expuestas a la intemperie. Ahí tenemos el prototipo de limpieza en ausencia de detergente que la Naturaleza nos inspira.

La biodegrabilidad es discutible. Los métodos para determinarla y cuantificar el impacto en el Medio Ambiente también. El volumen de dilución crítica que cuantifica el agua necesaria para diluir la sustancia química podría ser de aplicación al detergente. Podrían acumularse los efectos y causar trastornos en ecosistemas. Quizás es más razonable cuantificar el efecto biológico de los residuos.

El bicarbonato limpia frutas y verduras, desde el melocotón, hasta el apio. Sumergiendo frutas y verduras entre 5 y 10 minutos en una disolución en la que hemos agregado algunas cucharadas de bicarbonato, Es abrasivo y funciona para eliminar suciedad en electrodomésticos de cromo o acero inoxidable. Los aceites esenciales actúan eficazmente como insecticidas, fungicidas y y bactericida. Aceite esencial de eucalipto en el lavado de la ropa de cama, contribuye a la eliminación de los ácaros. La sal es un absorbente de la grasa. Espolvoreada evita que los restos de alimentos se endurezcan. La limpieza del menaje aconseja emplear sal para absorber la grasa y luego enjuagar. Junto con bicarbonato y vinagre actúa de desatascador.

Todo ello propele la búsqueda de detergentes basados en sustancias vegetales, comprobando el efecto sobre sistemas biológicos. Como en otras áreas, los productos ecológicos son sospechosos de falta de eficacia frente a los convencionales. Entre otras cosas el factor cultural y la costumbre adquirida para el tratamiento de la suciedad, condiciona la exigencia en cuanto a la eficacia de los detergentes. Se puede pensar que la limpieza no es un problema que “sienta” la Naturaleza. Es probable que no del mismo modo ni con la misma intensidad. Pero no es menos cierto que algunas características de algunos productos naturales permiten su uso como elementos de limpieza. El vinagre es uno de ellos. Contiene en torno a un 5% de ácido acético, útil para combatir la grasa y el mundo bacteriano. Agente decalcificador de primera especie y producto de limpieza eficaz de suelos. El limón es desinfectante, gracias al ácido cítrico. Apropiado para desinfectar los útiles de cocina o juguetes de bebé, agente blanqueador de ropa, sustituyendo a la lejía en disoluciones ¼ en agua. Aplicado con una esponja en rincones problemáticos logra limpieza y aclarado de zonas sucias.

Qué duda cabe que el concepto de limpieza es cultural. La Naturaleza no se preocupa demasiado por ello. Pero aparente limpieza, tanto global, como individualmente considerada. Cierto es que tiene mecanismos como el de la hoja de Loto, que contribuyen a ello. Pero no es menos cierto que la Naturaleza no precisa ser limpia, dado que se acomoda, mediante la evolución a los sistemas y procesos que son eficaces, que son los que perduran.

Los detergentes son un excelente ejemplo de la capacidad humana de ser eficaz. Conocida la molécula, es susceptible la creación de otras moléculas que no tienen por qué estar en la Naturaleza, y cuyas propiedades tienen el origen en la propia creación de la molécula. El que estén presentes o no formando parte de algún lugar de la Naturaleza, no impide que de forma concentrada pueda ser perniciosa en otra parte de aquella. En el caso de los detergentes la humanidad ha preferido la eficacia, aun a costa de severos daños medioambientales. Hoy hay que retractarse. Devolver la mirada al agua y el aceite, en el bien entendido de que mejor es no manchar a tener que limpiar. En todo caso todo depende de qué entendemos por limpio y qué entendemos por sucio. Las necesidades higiénicas podemos satisfacerlas con limón y bicarbonato. Otros productos de síntesis serán o podrán ser más eficaces, pero a costa de pérdidas sensibles de parte de nuestro ecosistema y sus procesos y sistemas contra los que atentamos.

Un mecanismo universal para tratar el agua y el aceite, que no se pueden ver y nunca llegarán a tener amistad, siquiera, pero que pueden encontrarse si se les ayuda. Como en todas las facetas de la vida, los intermediarios, de no ser unos aprovechados, son útiles para tender puentes, facilitar la armonía y unir incompatibles. Pero no se puede aceptar una intermediación a toda costa. Ahí es donde el humano debió estar más espabilado en su día. Ahora toca correr, y perder eficacia, en aras a una ética que nunca debiéramos haber perdido. ¡Hay que recuperarla!

ISÓTOPOS POR LA MIEL, por el Prof. Dr. D. Alberto Requena Rodríguez, académico de número

La miel es esa sustancia viscosa y dulce, con una tonalidad amarillenta que  elaborada por las abejas causa las delicias de propios y extraños. El origen hay que buscarlo en las secreciones de las plantas que conforman lo que se ha dado en denominar néctar, mezcla de agua y azúcares. Las abejas la aspiran a través de su trompa y lo acumulan en su buche donde enzimas contenidos en su saliva provocan una digestión que acontece mientras lo transportan del lugar de origen (azahar, eucaliptus, romero, tomillo, tilo, etc.) a la colmena, donde tendrá lugar una maduración en los panales. La cantidad que es capaz de elaborar una abeja es realmente pequeña, porque un panal habitado por unas 30.000 abejas produce entre 20 y 30 kilogramos de miel por año, lo que atribuye una producción en torno a un gramo por año y abeja.

Las abejas contribuyen, como es bien sabido, a la polinización de las plantas melíferas, al depositar en los pistilos el polen que transportan en las patas. El polen contamina el néctar e incide en el aroma, color y sabor de la miel e incluso en su consistencia,  determinada posteriormente por la relación en su composición entre fructosa y glucosa. La glucosa es la responsable de la cristalización y la consistencia. La base común de las mieles es la fracción de glucosa y fructosa, pese a que se identifican más de 150 componentes distintos. El contenido en agua no debe superar el 18% para no tener problemas de fermentación. Los minerales son escasos, aunque incluyen calcio, cobre, hierro, magnesio, manganeso, zinc, fósforo y potasio. Hay presentes una gran cantidad de aminoácidos, ácidos orgánicos, como acético, cítrico, etc., vitaminas B, C, D y E y antioxidantes como flavonoides y compuestos fenólicos. Dada la alta concentración de azúcares presentes en la miel, no es posible el cultivo de microorganismos patógenos, porque no sobreviven. La fructosa alcanza hasta un 38%, la glucosa hasta un 31% y sacarosa entre un 1% y un 2%. Precisamente, este último azúcar es el sensor del tiempo que ha estado almacenada, pues se forma como consecuencia de la combinación de glucosa y fructosa, lo que confiere un color rojizo propio de la sacarosa. La miel tiene un alto contenido calórico, dado que los azúcares simples se asimilan con rapidez y alcanza hasta unos 3.4 Kcal / gramo. La acidez óptima está en torno a pH = 4 y el pH es un indicador de la fermentación y/o haber sufrido calentamientos.

Los átomos de la mayoría de compuestos que forman parte de la Naturaleza,  contienen los isótopos más estables, por tanto, no sujetos a desintegración radiactiva. Las propiedades químicas residen en la corteza electrónica, común a los distintos isótopos, por lo que las reacciones en las que intervienen son las mismas, aunque cambie la velocidad como consecuencia de la diferente masa de los elementos isótopos integrantes. Este hecho permite “marcar” los compuestos para controlar los procesos en los que intervienen.

La fotosíntesis es un proceso determinante en la concepción ecocéntrica de la Naturaleza, porque contribuye a mantener la vida en el planeta. Las plantas verdes producen azúcares partiendo del dióxido de carbono y agua, a través de rutas calificadas como C3 y C4, indicando el subíndice el número de átomos de carbono que se incorporan sobre el dióxido de carbono inicial. Pero el porcentaje de C13 que se incorpora en ambas rutas es inferior al que existe en el aire desde el que se capta para sintetizar los azúcares e, incluso, es diferente la cantidad que se incorpora en cada ruta. Las relaciones isotópìcas [C13 ] / [C12 ] son diferentes en los azúcares que se forman, a través de las dos rutas y, a su vez, distinta a la del aire de partida. Este hecho permite discriminar las adulteraciones en tan excelente producción de la Naturaleza.

Las plantas con flores de las que las abejas captan el néctar, efectúan la fotosíntesis mediante la ruta C3, por lo que la miel obtenida  será una colección de azúcares que responderá a una relación isotópica con el valor correspondiente a la ruta C3. En cambio, los azúcares producidos en el maíz o la caña de azúcar,  para los que la ruta fotosintética es mayoritariamente C4, el valor del cociente isotópico será diferente. Dado que la miel es un producto caro, la tentación de sustitución por jarabes de maíz o caña de azúcar, muy próximos en características organolépticas en determinadas aplicaciones, es un fraude potencial. El examen de la razón isotópica es un mecanismo eficaz para garantizar la calidad y origen de la miel defendida de adulteraciones. Un espectrómetro de masas es suficiente para detectarlo.