Ciertos virus pueden ser nuestros aliados contra bacterias resistentes a antibióticos por el Prof. Dr. D. Juan Carmelo Gómez Fernández, académico numerario

Usando la técnica CRISPR se consigue que el sistema inmunitario primitivo de la bacteria se vuelva contra ella misma.

La resistencia a los antibióticos que desarrollan muchas bacterias es un grave problema que nos causa demasiados problemas. Para combatirlo hay una incesante investigación desarrollada a nivel básico en centros de investigación independientes y relacionados con las empresas farmacéuticas. Pero en un número reciente de la prestigiosa revista Nature se describe un nuevo procedimiento para combatir a estas bacterias, basado en el uso de virus y empleando la novedosa técnica CRISPR que está causando una verdadera revolución en la ingeniería genética y cuyos desarrolladores están recibiendo premios como el Príncipe de Asturias del pasado año o el de la Fundación BBVA de 2017.

En esta nueva estrategia se usan virus para inducir a la bacteria al suicidio. Varias empresas farmacéuticas han desarrollado virus, bacteriófagos, para usar el sistema de edición genética CRISPR, según se ha desvelado en una reciente reunión científica. Se espera que estas empresas comiencen los ensayos clínicos de forma inmediata. Según Rodolphe Barrangou jefe científico de Locus Biosciences en Research Triangle Park, en Carolina del Norte (EEUU), usando esta técnica se ha conseguido salvar a ratones infectados con bacterias resistentes a antibióticos y estos ratones estaban condenados a muerte de no haber sido por el novedoso tratamiento.

Los bacteriófagos se han usado ya anteriormente para tratar infecciones bacterianas. Tienen la ventaja de que son específicos para ciertas especies, e incluso para ciertas cepas, bacterianas, por lo que permitirían un tratamiento selectivo, cosa que no sucede con los antibióticos que atacan tanto a las bacterias patógenas como a las que viven en nuestro organismo desempeñando un papel beneficioso para nosotros. No obstante, las bacterias también pueden hacerse resistentes a los fagos, por lo que al igual que sucede con los antibióticos, habría  que estar constantemente buscando en la naturaleza nuevos fagos. Lo que por otra parte, obligaría a conseguir nuevas autorizaciones sanitarias para su uso. Además las empresas farmacéuticas encuentran un nuevo problema para su negocio, que no se puede patentar a los bacteriófagos.

En cualquier caso lo novedoso es que lo que estas empresas, tales como Locus, lo que han hecho es incluir instrucciones en el DNA de los fagos para expresar un ARN guía tras la infección que se enlaza al gen que proporciona la resistencia al antibiótico, lo que activa al enzima Cas3 producido por la bacteria con el fin de matar a los bacteriófagos, pero que ahora actuará contra el gen marcado por el ARN producido por el fago y de esta forma se destruye el cromosoma bacteriano. Otras empresas farmacéuticas, como Eligo Biosciences, han desarrollado bacteriófagosa los que han borrado de su ADN las instrucciones pata su autorreplicación, pero le han añadido la codificación de un ARN guía y el enzima Cas9 y de esta manera, tras la infección, dirigen el enzima a cortar el ADN bacteriano en un punto predesignado provocando la muerte bacteriana.

La gran ventaja de estas técnicas es que se puede seleccionar muy bien y con gran especificidad las bacterias a las que se va a dirigir el ataque y de esta forma se podría tratar de variar el microbioma humano que está muy relacionado con nuestra salud y con diversas patologías como la obesidad, el cáncer o el autismo.

Está claro que esta aproximación terapéutica está comenzando a dar sus primeros pasos y que todavía hay margen para perfeccionarla, pero hay que admirar el ingenio que hay detrás y lo prometedor de las nuevas rutas terapéuticas que podemos encontrar con su ayuda.

Para saber más: artículo por Sara Reardon en

https://www.nature.com/news/modified-viruses-deliver-death-to-antibiotic-resistant-bacteria-1.22173

 

Un teorema de Euler por el Prof. Dr. D. Pascual Lucas Saorín, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 1 de julio de 2017

Todos hemos jugado alguna vez con un dado. Si lo observamos detenidamente vemos que tiene 6 caras, 12 aristas (las líneas donde confluyen dos caras) y 8 vértices (los puntos donde confluyen varias aristas). Si llamamos C, A y V al número de caras, aristas y vértices, respectivamente, es fácil observar que C-A+V=2. Euler, uno de los mejores matemáticos de todos los tiempos, también se dio cuenta de ello a mediados del siglo XVIII. Es más, vio que esa relación también se cumplía para los otros sólidos platónicos (tetraedro, octaedro, dodecaedro e icosaedro) y para muchos otros poliedros convexos. Desde entonces conocemos dicha ecuación como fórmula (o teorema) de Euler. Sin entrar en muchos detalles, un poliedro convexo es una figura tridimensional con volumen finito y limitada por polígonos (regulares o irregulares) que no tiene entrantes ni agujeros.

Muchos resultados en Matemáticas son lo suficientemente importantes como para que se hayan demostrado de diferentes formas a lo largo del tiempo. El caso más paradigmático es el teorema de Pitágoras, del cual se han proporcionado casi 400 demostraciones distintas. La fórmula de Euler, sin llegar a la exuberancia del teorema de Pitágoras, también se enorgullece de tener más de 20 demostraciones distintas. Hoy quisiera mencionar la demostración de la carga eléctrica, ideada por el ilustre matemático W.P. Thurston.

Coloquemos el poliedro en el espacio, de forma que ninguna arista esté horizontal, y que exista exactamente un vértice superior y un vértice inferior. Pongamos una carga unitaria positiva en cada vértice, una carga unitaria positiva en el centro de cada cara y una carga unitaria negativa en el centro de cada arista. Desplacemos horizontalmente las cargas de los vértices y aristas, siguiendo un movimiento contrario a las agujas del reloj, hacia la cara más próxima. De esta forma la carga de cada vértice y arista se asigna a una única cara. Es fácil ver que la carga total de cada cara resulta ser cero (el número de cargas positivas coincide con el número de cargas negativas). Como los únicos vértices cuya carga no ha podido ser desplazada a una cara contigua son los vértices superior e inferior, resulta que la carga total del poliedro es +2.

La fórmula de Euler tiene muchas consecuencias. Una de ellas (realmente sorprendente) es que sólo existen cinco poliedros convexos regulares (es decir, sus caras son polígonos regulares y en cada vértice confluyen el mismo número de aristas). ¿Podrías decir cuáles son?

Descubridores de las ondas gravitacionales por el Prof. Dr. D. Miguel Ortuño Ortín, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 24 de junio de 2017

El Premio Princesa de Asturias de Investigación Científica y Técnica 2017 ha recaído en los descubridores de las ondas gravitacionales. Más concretamente en los físicos Rainer Weiss, Kip S. Thorne y Barry C. Barish y en el Observatorio de Interferometría Láser de Ondas Gravitacionales (LIGO, por sus siglas en inglés).

Las ondas gravitacionales son perturbaciones del espacio-tiempo producidas por los eventos gravitatorios más violentos, en los casos detectados hasta la fecha, la fusión de dos agujeros negros que giran uno alrededor del otro, cada vez más cerca, emitiendo parte de su energía en forma de ondas. De acuerdo a la teoría de la relatividad general de Einstein, la materia curva el espacio-tiempo produciendo la atracción gravitatoria. Cuando se trata de objetos muy masivos con grandes aceleraciones, esta deformación puede viajar a la velocidad de la luz alejándose de sus fuentes en forma de ondas gravitacionales.

La detección de ondas gravitacionales ha sido uno de los experimentos recientes más significativos: por una parte, proporciona una fuerte evidencia a favor de la teoría general de la relatividad para campos gravitatorios muy intensos y, por otra, supone una herramienta de futuro en la observación del universo, no basada en ondas electromagnéticas como el resto de instrumentos.

En los años ochenta, los físicos norteamericanos Rainer Weiss, Kip S. Thorne y el escocés Ronald Drever propusieron la construcción de LIGO con el fin de poder detectar ondas gravitacionales.  Rainer Weiss es en la actualidad profesor emérito del Instituto Tecnológico de Massachusetts. Kip Stephen Thorne fue profesor en el Instituto Tecnológico de California (Caltech) hasta 2009, en que se dedicó a la difusión de la física en programas de televisión, libros y escritos diversos. Ronald Drever también era profesor en esta institución y falleció en marzo de este año por lo que no ha recibido el premio. El tercer receptor del premio, Barry C. Barish, es de nuevo del Caltech y fue el principal impulsor de la construcción de LIGO, así como su primer director.

Familias de números por el Prof. Dr. D. Angel Ferrández Izquierdo, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 17 de junio de 2017

Existe una creencia generalizada de que la Matemática es la ciencia de los números, o dicho de otra manera, que el quehacer matemático gira en torno al manejo y manipulación de números. Más que un no rotundo, se podría responder que eso es cierto en parte, en una pequeña, pero importante, parte que se conoce como la Teoría de Números, cuyas aplicaciones resultan hoy cruciales.

Los números naturales son los primeros que aprende un niño cuando cuenta con los dedos de una mano y se representan por N. Luego aprendemos a sumar y nos aparece un número extraño, el 0, que satisface la siguiente propiedad: m + 0 = m, para cada número natural m. Después aparece la ecuación m + 1 = 0, cuya solución conduce a los números negativos y al conjunto Z de los números enteros, es decir, los naturales, los negativos y el 0.

Luego aprendemos a multiplicar números enteros y nos preguntamos, dado un entero m, si existe otro número q cuyo producto por m sea 1. Por ejemplo, si m = 7, entonces q = 1/7, y llegamos al conjunto Q de los números racionales. Pero hay más, pues para calcular cuánto mide la diagonal de un cuadrado de lado 1 hemos de resolver la ecuación x2 = 2, cuya solución es la raíz cuadrada de 2, entrando en el mundo de los números reales R.

¿Y si modificamos un poquito la ecuación anterior escribiendo x2 = -1? Afortunadamente tenemos solución, pues la raíz cuadrada de -1 es un nuevo número que representamos con la letra i y abrazamos el maravilloso mundo de los números complejos C. Nos damos cuenta enseguida que nuestra primera familia N se ha ido ampliando sucesivamente, de manera natural, siendo C la más grande, y cada cual ha surgido de una necesidad anterior.

¿Es esto todo? No, hay dos familias más: los números de Hamilton H, o cuaterniones, y los octoniones O o números de Cayley. ¿Todos son necesarios? Rotundamente, sí. La Matemática usa su autonomía para crear sus propios caminos e ir, como un gran maestro de ajedrez, cincuenta años por delante de las demandas de las otras Ciencias. C es el medio natural de la física cuántica y esta es la base de toda la tecnología actual. Pero, además, los números complejos son la herramienta esencial para conocer cómo los terremotos sacuden edificios y la inestabilidad y el progreso de una turbulencia, es decir, para pronosticar el tiempo.

Un gigante de la Química Orgánica del siglo XX por el Prof. Dr. D. Alberto Tárraga Tomás, académico numerario

El pasado día 10 de abril se cumplió el centenario del nacimiento de Robert Burns Woodward, uno de los químicos orgánicos más brillantes y creativos del siglo XX, cuyo legado constituye un ejemplo absolutamente emblemático para entender la evolución de la Química Orgánica, el poder de la síntesis orgánica y su influencia en las generaciones de químicos que, desde mediados del siglo pasado, han contribuido a promover un rápido avance no sólo de la Síntesis Orgánica sino, también, de la Biología y Medicina, con el notable beneficio para la sociedad que ello comporta.

Nació en Boston (1917) y con tan solo 16 años se matriculó en el Instituto Tecnológico de Massachusetts (MIT). Cuatro años más tarde, (1937), consiguió el doctorado en Química y ese mismo año se incorporó a la Universidad de Harvard, donde se mantuvo durante 42 años, hasta su muerte.

Woodward marcó la transición hacia una nueva época, tanto desde el punto de vista de la elucidación estructural como de la síntesis orgánica, lo cual fue posible gracias a los avances tecnológicos desarrollados en instrumentación en las décadas de los años 40 y 50: espectroscopías ultravioleta, infrarroja, resonancia magnética nuclear y técnicas cromatográficas.

Según las métricas modernas, su número total de publicaciones (196) podría parecer modesto, aunque todas supusieron un gran impacto para el desarrollo de la Química Orgánica.

Sus primeras aportaciones las realizó en el campo de la espectroscopía ultravioleta, estableciendo unas reglas que permiten predecir empíricamente a qué longitud de onda absorberá un compuesto en el espectro de ultravioleta.

Por otra parte, y en colaboración con Roald Hoffmann, enunció las conocidas como “reglas de Woodward y Hoffmann” (1964-69) sobre la simetría orbital y, en colaboración con Geoffrey Wilkinson, sugirió la correcta estructura del ferroceno (1952).

Sin embargo, fue “por sus destacados logros en el arte de la síntesis orgánica” por lo que le concedieron el Premio Nobel de Química, en 1965, destacando la consecución de la síntesis total de productos tales como quinina, cortisona, colesterol, reserpina, ácido lisérgico, clorofila a y vitamina B12, siendo esta última la molécula más compleja sintetizada en el laboratorio en el momento de su síntesis, hazaña realizada en colaboración con Albert Eschenmoser, y que demandó el esfuerzo de más de 100 químicos a lo largo de 11 años.

Cuando murió, en 1979, su grupo estaba trabajando en la síntesis total del antibiótico eritromicina, síntesis completada por sus colaboradores después de su muerte.

Yo soy de Ciencias (… y también de Letras) por el Prof. Dr. D. Angel Ferrández Izquierdo, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 3 de junio de 2017

Jamás he escuchado frase tan desafortunada como la archiconocida “Yo no sé de eso, soy de Letras”, cuando apenas se le ha preguntado por cualquier trivialidad relacionada con un porcentaje, el cambio climático o un interés bancario. Y, sin embargo, jamás he escuchado “No, no lo conozco, soy de Ciencias” al ser interpelado por el último Nobel de Literatura. Ser de Ciencias o de Letras no imprime carácter, ni supone preponderancia de una sobre otra, ni son excluyentes. Más bien son dos dimensiones necesariamente complementarias en pos de una búsqueda, que debería ser incesante, por ser cada día más instruido. O incluso, “tanto monta, monta tanto”, pues recordemos que el saber no ocupa lugar y que cada ciudadano es más libre cuanta más cultura posee.

Desgraciadamente, no es este el camino imperante en la educación española, ni secundaria ni universitaria, ni lo será a tenor de las recientes noticias sobre las reformas que nos amenazan. Cada vez la parcelación es más acusada y favorecida desde los años más jóvenes. Las rebajas imperdonables tanto en la cultura del esfuerzo como en los niveles de exigencia nos abocan sin remedio a una sociedad adocenada, con escasas, pero afortunadamente brillantes excepciones, fácilmente manipulable.

Estoy harto de escuchar que “los jóvenes de hoy están mejor preparados que en cualquier época anterior”, afirmación rotundamente falsa como muestra cualquier informe serio, por ejemplo, PISA. Es cierto que manejan muy bien las tecnologías de las comunicaciones y las redes sociales, pero hay un abismo entre eso y tener un mínimo de cultura. No tienen hábito de lectura, lo que les lleva a tener dificultad para entender el planteamiento de un problema, sin hablar de resolverlo o de redactar una posible solución razonada.

Ser de Ciencias es algo más que saber hacer una raíz cuadrada, comprender a Kant, resolver una ecuación de segundo grado, leer a Borges o entender las teorías de Einstein. Significa tener una mente y una actitud vital sujetas al método científico, es decir, a la búsqueda de la verdad por senderos experimentalmente válidos, prestos a retroceder cuando la prueba demuestre lo contrario. En definitiva, adoptar un compromiso de vida donde el esfuerzo, la sana competencia, la integridad y la rectitud sean los parámetros que rijan la consecución de los objetivos.

Ser de Letras significa exactamente lo mismo, pues aprender de Platón, apreciar el románico o meterse en las entrañas de Gaya es perfectamente compatible con maravillarse, y disfrutar, de las leyes de Maxwell y de las ondas gravitacionales.

La insostenibilidad del desarrollo sostenible por el Prof. Dr. D. Ángel Pérez Ruzafa, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 27 de mayo de 2017

Un parámetro muy utilizado en nuestra sociedad es la tasa de desarrollo. Se insiste en que debe ser sostenible, pero existe la convicción de que si está por debajo de ciertos valores la situación es intolerable. A veces se matiza entre sostenible y sostenido, pero ¿es posible uno u otro?

El desarrollo es un proceso inherente a los sistemas complejos alejados del equilibrio termodinámico y, por tanto, a la vida. Estos se construyen progresivamente ofreciendo resistencias a los flujos de energía y generando trabajo que invierten en su mantenimiento y en la creación de nuevas estructuras que aumentan su eficiencia e independencia del entorno. Este proceso es lento al principio, pero se acelera exponencialmente a medida que el organismo o el ecosistema se hacen más complejos. Sin embargo, dicho crecimiento implica también mayores necesidades energéticas de mantenimiento. Tarde o temprano, la energía disponible apenas da para el metabolismo y no quedan márgenes para seguir creciendo, por lo que el desarrollo se ralentiza y, finalmente, se frena. La forma del proceso es una curva logística, similar a una S. El nivel de complejidad alcanzado perdurará si el suministro de energía se mantiene. La única manera de reactivar el crecimiento hasta alcanzar un nuevo nivel es encontrar fuentes más potentes de energía y ser más eficientes en su uso. Cuando los sistemas alcanzan el límite del desarrollo, a pesar de ser más competitivos y con mayores mecanismos de control, también se vuelven más vulnerables. Un fallo de suministro, o un incremento inesperado en la demanda por cualquier estrés, producen un desmoronamiento repentino.

Las sociedades humanas tienen la capacidad de crecer por encima de la energía disponible en los alimentos, especializándose en el uso de energías exosomáticas (como el fuego, la energía eólica o hidráulica, o la producida por otros organismos, incluida nuestra propia especie en forma de esclavitud), y ampliando la explotación a entornos alejados. Las ciudades crecen explotando las zonas rurales, cuando estas ya no son capaces de suministrar suficientes recursos, se establece el comercio con áreas alejadas, y si éste no da márgenes de beneficio, simplemente se invaden los nuevos territorios. Pero los costos de mantenimiento aumentan muy rápido con el volumen de la estructura, mientras las entradas de energía dependen de la superficie de contacto con el entorno. Alcanzado el límite, la situación es inestable y cualquier fluctuación imprevista produce el derrumbe del sistema. La historia está plagada de ejemplos de imperios desaparecidos repentinamente en la cumbre de su esplendor.

Si no queremos estar abocados, una y otra vez, a este tipo de desenlaces, es importante cambiar el concepto de desarrollo sostenible por el de nivel de vida sostenible en equilibrio con los flujos de energía disponibles.

 

Mujeres en Ciencia por el Prof. Dr. D. María Ángeles Pedreño García, académico numerario

Columna de la Academai publicada en el Diario La Verdad el 20 de mayo de 2017

¿Son las mujeres científicas diferentes de aquellas que desarrollan su actividad profesional en otros ámbitos no científicos? Aunque de partida no se vislumbran diferencias en cuanto a la actitud para el desarrollo de una actividad profesional, en el ámbito científico no existe una dedicación horaria delimitada ya que el afán por conocer y la ilusión por investigar hacen que el tiempo no sea el factor limitante del trabajo de investigación que desarrollan. Ese esfuerzo creciente y la voluntad por querer investigar las diferencia de aquellas que ocupan puestos de trabajo con una mayor flexibilidad de horario.

En España, la precariedad y la inestabilidad laboral de las jóvenes investigadoras constituye, en la mayor parte de los casos, una carrera de obstáculos en donde muy pocas llegan a la meta. La elección por completar, a la edad de 30-35 años, su ciclo biológico con la maternidad y el reinicio de su actividad profesional es, en muchos casos, el motivo que trunca su objetivo, a pesar de la extensión de tiempo que les conceden para recuperar, después de la maternidad, su actividad investigadora. Los medios disponibles para ese reenganche son escasos e inadecuados incluso para aquellas afortunadas que cuentan con el apoyo de su familia. A pesar de esto, algunas de ellas continúan su carrera científica realizando grandes esfuerzos y entrenándose día a día para compartir su vida con la familia y la investigación. Sin embargo, son muy pocas las que alcanzan puestos de relevancia científica ya que la mayor parte de ellas, quedan bajo la sombra de los hombres de Ciencia.

La inquietud por la situación actual de las jóvenes investigadoras ha promovido el desarrollo de una asociación Lyceum de Ciencia de la Región de Murcia, que con el patrocinio de la Dirección General de la Mujer de la Región de Murcia, tiene como finalidad el compromiso de igualdad de oportunidades entre hombres y mujeres. Basándonos en la experiencia vivida por mujeres afortunadas que, con mucho esfuerzo hemos podido romper ese techo de cristal, intentamos luchar para averiguar cuáles son las razones por las que ese techo de cristal sigue existiendo tras 20 años de políticas sociales activas de igualdad, mediante la realización de acciones estratégicas en los diferentes estamentos de la Sociedad, basadas en la generación de una conciencia social sobre la situación que vivimos como mujeres, que aseguren la carrera profesional de las mujeres en Ciencia en igualdad de oportunidades.

El amoniaco biotecnológico por el Prof. Dr. D. Francisco García Carmona, académico numerario

Columna de lA Academia publicada en el Diario La Verdad el 13 de mayo de 2017

La necesidad de amoniaco (NH3) para mantener el desarrollo actual es de 140 megatoneladas al año.

Dos procesos contribuyen a paliar esta necesidad, el proceso industrial de Haber-Bosch que produce amoniaco a partir de nitrógeno e hidrógeno y la reducción biológica de nitrógeno por la enzima Nitrogenasa, que se encuentra solo en un grupo de bacterias del suelo capaces de fijar nitrógeno a expensa de energía que se suministra in vivo en forma de ATP.

Fritz Haber recibió el premio Nobel de Química en 1918 y Carl Bosch lo recibió en 1931 por el descubrimiento y desarrollo del método de síntesis química a alta presión. El proceso Haber-Bosch fue descubierto en 1909 y ha evolucionado hacia una tecnología, que hoy en día consume más del 1% de la energía del mundo pues requiere altas temperatura 500ºC y alta presión 20MPa y contribuye con un 3% del CO2 global.

Este año, un grupo de investigadores americanos (Universidad de Utah), irlandeses (Universidad de Galway) y españoles (Instituto de Catálisis y Petroquímica, CSIC) han conseguido sintetizar amoniaco en una pila de combustible biológico (ATP) que además produce electricidad.

En el ánodo de la pila se producen electrones y protones a parir de hidrógeno mediante la enzima Hidrogenasa, los electrones son enviados a través del circuito eléctrico al cátodo, por su parte, los protones serán utilizados por la enzima Nitogenasa junto con los electrones procedentes del cátodo para reducir nitrógeno a amoniaco, usando energía biológica en forma de ATP.

Así pues, es posible en esta pila obtener amoniaco y a la vez energía eléctrica, pero hoy en día solo tenemos la prueba de concepto. Para que esta tecnología con base biológica pueda ser útil serios problemas deben de ser superados, como son, eliminar el uso de ATP como fuente de energía y la estabilización de las enzimas, en este caso de una manera singular la estabilización de Nitogenasa frente al oxígeno. Ambos problemas están siendo abordados por los investigadores que han desarrollado la pila.

Por otro lado, si deseamos eliminar completamente la huella de CO2 del proceso de síntesis de amoniaco, debe superarse el actual procedimiento de obtención del hidrógeno desde metano, que consume grandes cantidades de energía. Una solución biotecnológica ha sido ya apuntada por el grupo de los coautores del CSIC, que recientemente han obtenido hidrógeno a partir de agua y de la luz usando un sistema fotosintético constituido por un fotocatalizador híbrido que combina un semiconductor e Hidrogenasa. El semiconductor es capaz de absorber luz visible y una vez excitado cede electrones al catalizador enzimático para reducir los protones a hidrogeno.

La cultura como mecanismo de adaptación biológica por el Prof. Dr. D. Ángel Pérez Ruzafa, académico numerario

Columna de la Academia publicada en el Diario La Verdad el 6 de mayo de 2017

La anticipación es clave para la supervivencia. Si las especies esperaran a que cambie el ambiente para reaccionar, no podrían adaptarse a tiempo. Los procesos fisiológicos requieren un tiempo mínimo y hacer acopio de energía, y esto no se improvisa. Por ello la selección natural ha conducido a mecanismos que permiten anticipar el futuro. Así, la duración del día o el rango de oscilación térmica alertan del cambio estacional y desencadenan la reproducción, de modo que las crías coincidan con la época de mayor disponibilidad de alimento o la floración con la abundancia de polinizadores y de suficiente radiación luminosa para producir frutos y semillas; o la acumulación de grasas, la entrada en letargo o el inicio de las migraciones permitan afrontar o eludir los rigores del invierno. Para que las adaptaciones sean eficientes deben estar disponibles para actuar de forma inmediata, y por eso están programadas en nuestros genes, activándose cuando es necesario.

La especie humana es la que más explota la capacidad de anticipación. Ha desarrollado de manera extraordinaria la habilidad de procesar información aparentemente caótica, interpretar patrones y captar regularidades. Utilizamos estos mecanismos para aprender una lengua y para relacionarnos, para tomar decisiones acertadas, saber cuándo sembrar y cuándo recolectar, poner trampas de caza, eludir situaciones de peligro o comprender el universo. La forma de fijar lo aprendido mediante la experiencia colectiva y programar las respuestas adecuadas es la cultura. Por ello, los tabúes, los ritos, las normas sociales tienen sentido adaptativo y permiten reducir los riesgos de mortandad, el deterioro genético de la población, la aparición de epidemias o enfermedades recesivas o de transmisión sexual…. Pero, al igual que los genes, estas adaptaciones tienen sentido en determinados ambientes, pero no necesariamente en otros. El problema radica en sobrevivir en un ambiente para el que nuestros genes o nuestra cultura no estén diseñados. Evidentemente, la cultura es mucho más flexible que las adaptaciones genéticas, pero tampoco es totalmente moldeable. Si lo fuera, no serviría como mecanismo de anticipación. Puede cambiar de una generación a otra, de una población a otra, pero no lo hace fácilmente en el individuo que ya la tiene fijada. Del mismo modo que si no disponemos del gen de tolerancia a la lactosa no podemos obligarnos a tomar leche si migramos a un país donde sea un alimento preferencial, tampoco podemos renunciar fácilmente a nuestra cultura. Igualmente, lo que para una generación tenía sentido adaptativo y de supervivencia, puede ya no tenerlo para la generación siguiente. El choque entre padres e hijos puede resultar inevitable si no se comprenden estos mecanismos y tampoco resolveremos el problema de la inmigración pensando que alguien puede arrancarse sus genes culturales.