Pensándolo bien…

Susurros del cosmos, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Han transcurrido 100 años desde que Albert Einstein nos propuso que la gravedad no era más que una deformación geométrica del espacio-tiempo. Los cuerpos se mueven en el espacio-tiempo, que viene a ser como el soporte invisible del Universo. Anteriormente nos habían hablado de algo parecido, bueno del mismo tema: Newton y Galileo habían comenzado seriamente a hacer interpretaciones trascendentales. Pero tuvo que darse la revolución de comienzos del siglo XX, con la teoría de la Relatividad, para abrir las puertas y contemplar un gran escenario. Einstein vino a establecer algo realmente magnífico: todo lo que tiene energía, lo veamos o no, también gravita.

 

Imaginemos un tejido rectangular o cuadrado sostenido por las cuatro puntas (p.ej. una cama elástica) sobre el que arrojamos algún objeto (como una pelota). El tejido se curva, más o menos, en función de la masa del objeto. Supongamos que hacemos girar en círculo un par de bolas unidas por un hilo. Ahora se producen pequeñas ondulaciones que se propagan por todo el tejido, como formando ondas concéntricas, similares a cuando arrojamos una piedra sobre la superficie tranquila de las aguas de un estanque. No obstante, Einstein, consciente de que las señales de las ondas gravitacionales deberían ser muy débiles, pensaba que jamás se detectarían. No es infrecuente que ocurran cosas de este estilo, cuando la teoría que se formula es potente y encierra fenómenos muy alejados de lo que en ese momento la Técnica es capaz de proporcionar. Con Dirac pasó algo parecido, cuando su Electrodinámica Cuántica proponía la existencia del positrón, que también pensó que no se detectaría jamás y hoy forma parte del más que usual PET (Tomografía por Emisión de Positrones), con la que la medicina nuclear emplea una técnica no invasiva de diagnóstico e investigación in vivo mediante imagen que permite cuantificar la actividad metabólica del cuerpo humano.

 

La cuestión es que a nuestra escala humana estas cosas derivadas de la teoría de la Relatividad no las detectamos, nos pasan inadvertidas. Pero las teorías de Einstein permiten explicar desde los agujeros negros, pasando por el Big Bang, hasta la expansión acelerada de las galaxias. En la Relatividad Especial, ya asumía que la velocidad de la luz es constante, independientemente de la dirección o la velocidad a la que se mueva el emisor. Y nadie puede superarla, dado que a grandes velocidades los objetos materiales ganan masa y al final supone que para moverlas se precisa energía creciente hasta el infinito (algo parecido a que nos cueste menos mover (acelerar) un carrito que un camión). No es nada intuitivo la constancia de la velocidad de la luz, por cuanto nuestra experiencia vital es que si nos movemos en un vagón de tren en movimiento, sumaremos nuestra velocidad a la del tren. Pero esto, con la luz, no pasa. Si alguien lo observara desde el andén, tendría que ver que las cosas suceden más despacio en el tren, es decir, la Naturaleza hace posible que como la velocidad de la luz es inalterable, los otros elementos que la definen, espacio y velocidad, se tienen que alterar para mantener su constancia. El mundo, pues, deja de ser estático y el tiempo no es inmutable. En 1971 se comprobó tal extremo con relojes atómicos subidos en aviones que daban tiempos más rápidos arriba que en la Tierra. Aquí las cosas suceden más despacio.

 

Así las cosas, Einstein decidió introducir la gravedad, concluyendo que es capaz de ralentizar los sucesos y deformar el espacio. El espacio visto como el tejido al que aludíamos anteriormente se deforma al colocar algo sobre aquél, creando una especie de embudo a su alrededor. Un segundo objeto situado cerca del anterior y moviéndose ambos, acaban rodeándose y acercándose cada vez más. Aparentemente es como si se atrajesen, aunque no sea así el efecto. Sí es cierto que las masas cambian sus trayectorias, como si se tratara de salvar irregularidades en el itinerario. Y estos cambios no solo lo efectúan las masas, sino también la luz y otras manifestaciones de la energía. La luz viaja en línea recta en el vacío, como quedó patente en los experimentos de Eddington en 1919, aprovechando un eclipse de Sol y comprobando que se pudieron ver estrellas que no deberían estar donde se les encontró como consecuencia del eclipse. El Sol con su gran masa desviaba la trayectoria de la luz. El salto al estrellato de Einstein aconteció entonces, especialmente. Pero, además de esto, la gravedad predecía que se comportaría como lo hacen las ondas. Esto suponía que dejaba de versa como si se tratara de fuerzas instantáneas y a distancia, como implicaba la teoría clásica de Newton. Algo “mágico” que asumimos con una facilidad fuera de lo común, sin reparar que suponer tal tipo de interacción entre la Tierra y la Luna, pongamos por caso, implica que se propaga a velocidad superior a la de la luz, caso de que esa fuerza a distancia se dé instantáneamente.

 

Hace horas que el director del experimento LIGO, Reitze, afirmó “Hemos detectado ondas gravitacionales” Quizás añadió Eureka. Acontecimientos violentos como la fusión de supernovas o fusión de agujeros negros, podrían estar en la raíz de las ondulaciones detectadas. Predichas por la Teoría General de la Relatividad y todavía no demostrado experimentalmente 100 años después. En los años 70 del siglo pasado, Hulser y Taylor detectaron una señal emitida por un púlsar, que es una estrella de neutrones que se origina como consecuencia de la explosión de una estrella gigante y que no encontraron forma de explicar, salvo que se tratara de un sistema binario, de forma que el púlsar y una estrella de neutrones orbitaran en torno a un centro de masas y que esto originara las ondas gravitacionales. Hasta ahora nadie había detectado tales ondas. Las instalaciones del proyecto LIGO se encuentran en Livingston (Louisiana) y Hanford (Washington). Según cuentan detectaron, sucesivamente (separadas por pocos segundos) unas distorsiones de una fracción de segundo. Esto acontecía el pasado mes de septiembre. Comprobaciones ulteriores en Caltech y MIT en Boston permitieron construir el relato astronómico. Se atribuyen los hechos a dos agujeros negros, equivalentes a 29 y 36 veces la masa del Sol que se fusionaron hace 1.300 millones de años. La cuestión espectacular es el nivel de detección que ha supuesto para el experimento. Se habla de que han detectado un desplazamiento del tamaño de un átomo de hidrógeno medido en una distancia similar a la que media entre el Sol y Saturno, según afirma Alicia Sintes de las Islas Baleares y única española que forma parte del equipo de LIGO. El nivel de detección es realmente espectacular si pensamos que el tamaño de un átomo de hidrógeno ya supone dividir una micra (tamaño de una célula, por ejemplo) por un millón. Pues todavía tendríamos que dividir por otro millón ese tamaño, para alcanzar el tamaño del desplazamiento que han detectado. ¡Espectacular!

 

Se ha iniciado una nueva era, que los científicos del ramo denominan “Era de la Astronomía Gravitacional” . Los sucesos del Cosmos nos llegan como suaves susurros. Hemos tardado 100 años en lograrlo. Los denominados agujeros negros encierran mucha información valiosa sobre nuestro pasado cosmológico. Observarlos es muy complicado, porque al no emitir luz, no se pueden observar directamente. Pero emite ondas gravitacionales en ciertas condiciones, como ocurre con la absorción por otro agujero negro, como ha sido el caso en el experimento observado ahora. “Oímos” el Cosmos, como susurra y narra su propia Historia. ¡Estamos de enhorabuena!

 

Queda por conciliar la gravedad y la teoría cuántica. La Física del mundo microscópico utiliza conceptos probabilísticos, en los que no cabe la descripción exacta de la trayectoria de una partícula, sino que hablamos de la probabilidad de encontrar las partículas. Aquí rige la Mecánica Cuántica. Pero no es razonable que por el hecho de deformar el espacio-tiempo, tengamos que aplicar leyes diferentes. El espacio-tiempo, debería ser probabilístico: no sabemos exactamente donde se encuentra la materia y tampoco debemos conocer exactamente como es la forma del espacio-tiempo. Si se conectan ambas teorías, relatividad y cuántica, aparecen nuevos conceptos y efectos, como el hecho de que los agujeros negros emitan la radiación denominada de Hawking, que dependen de su tamaño. Si tuviéramos un agujero negro del tamaño de una bacteria, lo veríamos de color blanco, dada la elevada temperatura a la que estaría. Por cierto, esto pone en entredicho la denominación de “negro”. Si seguimos reduciendo el tamaño, acabaría explotando. Nada se ha medido, todavía. El escenario que se abre, siempre que se contesta a una pregunta, nos plantea muchas otras. Y así, … sucesivamente. Así es el conocimiento. Recordemos que las ondas gravitacionales son al gravitón, lo que la luz es al fotón. Se va cerrando el círculo.¡Superlativo!

VERDAD, CERTEZA Y GÖDEL, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Al conocimiento llegamos a través de la adquisición de información sobre elementos, relaciones, procesos e interacciones, de forma que podemos comprender para después interpretar y, finalmente, compartir con nuestros semejantes. Sujeto y objeto del conocimiento se relacionan de forma distinta según el ámbito en el que se trate, estando bien separados si se trata de Ciencias Naturales, mientras que sujeto y objeto coinciden en el caso de las llamadas Ciencias Sociales. Según la importancia relativa que demos a estos dos elementos conjugados, denominaremos conocimiento objetivo, caso de predominar las características del objeto y subjetivo cuando es el sujeto el determinante, a través de su percepción. En el primer caso, es posible un nivel más fino, todavía y se puede pensar en la interobjetividad si se logra la independencia del sujeto implicado, aunque no decimos objetividad absoluta, por tratarse de aspectos científicos y no filosóficos, ni mucho menos, en modo alguno, si8 fueran teológicos. Seremos respetuosos, aún cuando no es demasiado frecuente encontrar un tratamiento equivalente de los otros ámbitos.

 

Es, justamente, al amparo del binomio objetivo/subjetivo que se suscita la calificación de verdad y certeza. Certeza y verdad son dos términos a menudo intercambiados, aunque no necesariamente son intercambiables. No siempre es posible hacerlo y, en muchas ocasiones, genera confusión. La certeza tiene que ver con la actitud de una persona hacia una proposición, enunciado o hecho, de forma que no se duda sobre su contenido. La verdad, lejos de ser una característica asociada a una persona, es una propiedad objetiva. La certeza es un estado subjetivo, de forma que es el convencimiento el que impulsa el sentimiento que nos lleva a aceptar. Cuando hablamos de verdad, hay que traducir que nos movemos en el ámbito de los datos y hechos objetivos, suministrados por el objeto. La certeza es una convicción del sujeto, mientras que la verdad es un conocimiento objetivo y compartible, intersubjetivo.

 

Ahora bien, la noción de verdad es problemática. No se trata, solamente, de cómo se establece la objetividad, sino que el avance del conocimiento hace variar la referencia de la objetividad, al menos en su interpretación, que enmarca a la verdad, conforme se van desvelando incógnitas y el grado de conocimiento aumenta. Esto nos lleva a considerar si la verdad es una hipótesis o conjunto de ellas que no ha/n sido refutada/s. Pero si estos enunciados son válidos en un marco clásico, la Mecánica Cuántica introduce una matización con la incertidumbre, que incorpora extrañeza sobre que algo pueda ser, en última instancia, verdadero. La lógica atraviesa momentos de incertidumbre, como ha dejado patente Gödel, por si ya fuera poca la incidencia del Principio de incertidumbre de Heisemberg. Pero, en todo caso, no es posible pensar que se conoce algo de cuya verdad no estamos seguros. Lo primero que requiere el conocimiento es “verdad”, adecuación entre el entendimiento y la cosa, de forma que lo que como sujetos afirmamos se corresponde con lo que las cosas son en realidad. Finalmente, requerimos, también, la evidencia, que garantice de forma inequívoca la verdad que se instala en nuestra mente. Es de esta forma que la realidad objetiva se puede imponer en nuestro pensamiento. Por último, y como actitud o sentimiento implicados en la mente que asiente el contenido de un juicio, surge la certeza, siendo, pues, una actitud de la mente al aceptar un pensamiento, excluyendo cualquier temor a que sea falso o lo contrario. Un excelente ejemplo es la certeza de Newton sobre la ley de la gravitación que, al ser consecuencia de una demostración, era una certeza científica.

 

Según Gödel, dos sistemas de axiomas pueden ser consistentes (no se sigue ninguna contradicción) y su suma no serlo. Si existe la verdad, alguno de los sistemas de axiomas contiene uno falso. Es por ello que, el que sea verdadero el sistema de axiomas es necesario, pero no suficiente para ser consistente. La verdad es una categoría superior a la demostrabilidad y la intuición nos permite ir más allá de las limitaciones de un sistema matemático formalizado. Penrose utilizó el argumento de Gödel para demostrar que la mente no funciona algorítmicamente

PESQUISAS BASADAS EN LA CIENCIA, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Los científicos valoran más lograr la verdad que alcanzar cualquier reconocimiento o gloria humana. Es algo consustancial: razonar como científicos. Los métodos que aplican para descubrir cosas y tomar decisiones son muy útiles, no solo en su labor de científicos, sino en cualquier otro “empleo” que pudieran desempeñar. Es decir, que lo que saben como científicos, en áreas no científicas queda relegado en segundo plano con respecto a los métodos que aplican para desentrañar conocimiento. La Naturaleza digital de la identificación mediante el ADN es un método muy poderoso al permitir cuantificar precisamente las diferencias entre individuos y especies.

 

El carácter único del ADN es una valoración estadística. Podría repetirse una secuencia genética, dado el carácter azaroso del proceso, aunque siendo muy improbable, implicaría a un número de personas mayor que el número de átomos del Universo. El ADN se mantiene inalterado en la mayor parte de las células, desde la infancia a la vejez. El número de bases que forman la cadena del ADN es tan enorme que se puede cuantificar las que se comparten con familiares o con grupos de población afines, de forma que la paternidad y las relaciones genéticas se pueden establecer con garantía. La revolución que gestaron Watson y Crick propició que un gen se pueda aislar. La comparación de un conjunto de genes de los padres y los de un niño permite establecer la ascendencia. La huella del ADN es más individual que las tradicionales huellas dactilares y cualquiera otra conocida. En este estado de cosas, ¿cuáles son las razones para que las pruebas del ADN puedan ponerse en entredicho?

 

El primer elemento de sospecha se puede basar en los errores de que puede ser objeto la secuenciación. El error humano subyacente en la equivocación o derivado del sabotaje pueden considerarse como en cualquier otro medio de identificación. Un arma que han tocado personas inocentes, además del asesino, puede llevar a cometer errores de identificación. Claro que, en el caso de manejar el ADN, las cosas son más sensibles, dado que una contaminación con sudor del técnico que conduce la prueba, puede confundir el resultado. La amplificación, que técnicamente se denomina PCR (Polymerasa Chain Reaction), inventada en 1983 por Mullis, consistente en obtener un gran número de copias de un fragmento de ADN, partiendo de un mínimo, con lo que facilita la tarea de identificación, es necesaria y deseable, pero los errores también se amplifican.

 

Desde luego si todas las pruebas de ADN hubiera que desestimarlas por los errores potenciales, con la misma razón habría que prescindir de los otros tipos de procedimientos de identificación. Hay dos tipos de fuentes de error estadísticos que Dawking denomina falso positivo y falso negativo, que equivalen a un culpable que se libra porque no se le identifica y a un inocente se le condena por identificarse como similar del culpable. Cuando se efectúa una rueda de identificación, la probabilidad de error es inversamente proporcional al número de personas presentadas en la misma. Veamos la situación equivalente en el caso del ADN. Si se transcribiera la secuencia de genes completa de las dos muestras que se comparen, la probabilidad de error sería de uno en miles de millones (el genoma haploide tiene una longitud total de unos 3000 millones de pares de bases). Salvo en el caso de gemelos idénticos, la probabilidad de que las secuencias de ADN de dos humanos sean coincidentes es, prácticamente, nula. No se puede pretender repetir el esfuerzo que se ha desarrollado en el proyecto del genoma humano, para cada caso judicial que requiera una identificación mediante prueba del ADN. Se considera suficiente concentrarse en esas zonas del genoma que varían mucho en la población. El genoma contiene sectores variables. Hay muchas zonas que nunca se leen y, por tanto, no se traducen en las proteínas respectivas. Es como si una gran parte de nuestros genes no hiciera nada. Estas zonas son las apropiadas para las pruebas del ADN. Ello conlleva el peligro de que dos individuos fueran idénticos en esa porción de ADN examinado. Cuanto mayor sea la sección de ADN, menor será la probabilidad de error (lo que ocurre en cualquier procedimiento de identificación como la aludida rueda).

 

Si tratamos digitalmente la información contenida en el ADN, podemos medirla en bit y bytes, como la memoria de los ordenadores. En el ordenador, la base que soporta, físicamente, el bit, es una ferrita, semiconductor, soporte magnético, óptico o combinaciones de ambos, capaz de mantener dos estados (0 y 1) y manipularlos mediante programas. En el ADN hay cuatro bases y podemos considerar que los 0 los convertimos en las bases A o C, mientras que los 1 los convertimos en G o T. Si atendemos a ello, el numero de diferentes “arreglos”, para almacenar números o información textual se trata de variaciones con repetición de dos elementos A-C (0) o G-T (1) tomados de 3000 millones en 3000 millones, es decir: 2^(3000.000.000), que ocupan en torno a 1.000.000 micrometros. Una cantidad astronómica. Se han conseguido almacenar en un gramo de ADN, la friolera de 720.000 Gigabytes (700 Terabytes, 2^(40) bytes). Queda mucho todavía por lograr. La bacteria Esterichia Coli tiene una ADN de 4000 kb(kilobases) de longitud, lo que equivale a 1360 micrometros. En un virus bacteriófago T2, T4, T6 unos 166 kb de longitud y unos 55 micrometros y en el virus de la peste aviar unos 280 kb y 193 micrometros.

 

El caso es que, de en torno a las 3000 millones de bases (megabases) del genoma humano, solamente un 1% codifica proteínas, contenido en unos 21.000 genes que codifican 90.000 proteínas, según ha puesto de relieve el proyecto ENCODE, que también ha identificado unas 70.000 regiones que se ligan a proteínas para controlar la expresión de los genes, unas 400.000 regiones que regulan la expresión de los genes y unos 2.9 millones de regiones a las que se ligan proteínas, pero solamente unas 3.700 de estas regiones son compartidas por todas las células. Se le viene denominando a esta parte del ADN, “basura”, aunque, como podemos ver, se le van encontrando otras funciones de interés para el organismo. Gran parte del ADN no codificante, que no se expresa en proteínas, está implicado en funciones de regulación, por tanto puede estar relacionado con enfermedades. No obstante puede que partes del ADN basura, sigan sin tener sentido, por ser repeticiones de pautas complicadas, incluso. Es probable que parte del ADN siga sin tener utilidad en la supervivencia del animal, pudiendo ser útil para el que sobrevive y puede efectuar copias de sí mismo. Claro que el ADN que no se utilice es susceptible de variar, no asi los genes útiles que están muy limitados en su capacidad de cambio. Una mutación de un gen reduce su eficacia y en la mayoría de casos, el animal muere sin transmitirlo a su descendencia. Pero si la mutación tiene lugar en el ADN basura, es posible, incluso que se den en una zona de repeticiones y no sean advertidas por el mecanismo de la selección natural. Esto es lo que ha propiciado elegir esta parte del ADN, para efectuar las pruebas de ADN, dado que aquí es donde se sitúa la mayor parte de las variaciones. Es más, si las repeticiones son en doblete, resultan particularmente útiles, porque suponen una variación del número de repeticiones, y esto es relativamente fácil medirlo.

 

Jeffreys, de la Universidad de Leicester propuso examinar las repeticiones en doblete, porque cada persona tiene un número diferente de repeticiones en un lugar concreto. En cada región de repeticiones, cada uno de nosotros tenemos un número diferente de ellas. Esto es, como una huella dactilar. Nuestros padres nos las transmiten, ya que los cromosomas se heredan completos, incluyendo las zonas de repetición en doblete. Como cada uno de los cromosomas paternos se alinea con los maternos y se intercambian fragmentos, antes de que un cromosoma compuesto pase al espermatozoide que actúa engendrando, cada uno de ellos y cada óvulo tienen una mezcla única de genes maternos y paternos. Esto, naturalmente afecta, tanto a las secciones cromosómicas con sentido, como a las secciones con repeticiones en doblete. Esto supone que las repeticiones en doblete se heredan, como cualquier otra característica o rasgo. Solamente hay una diferencia y es que mientras que los rasgos, como el color de ojos, supone una respuesta conjunta de genes paternos y maternos, mientras que las repeticiones en doblete son propiedades de los cromosomas mismos y no se pueden medir por separado en los paternos y maternos. Es decir, en la región de repetición en doblete, hay dos posibles lecturas correspondientes al número de repeticiones del cromosoma paterno y al materno. En los cromosomas, pueden darse mutaciones (naturales, aleatorias) en el número de repeticiones en doblete, o bien puede darse una división por entrecruzamiento cromosómico y esto justifica que haya variación en el número de repeticiones en doblete dentro de la población.

 

La cuestión es la facilidad con la que podemos medirlo. Ni siquiera hace falta determinar la secuencia detallada de las bases del ADN. Se recurre a una técnica que recuerda la determinación de áreas mediante pesada del recorte de la figura. Veamos en qué consiste, por lo ingenioso del procedimiento. Se prepara una sonda de ADN, que consiste en una secuencia de unas 20 bases, que encaja con la secuencia de la zona de repetición en doblete. Hoy día es muy fácil conseguir esto, porque se producen secuencias cortas de ADN con cualquier especificación. Incluso se incorporan marcadores radiactivos, que facilitan el proceso. Otra herramienta necesaria es la llamada “enzima de restricción” que permite reconocer y cortar el ADN en determinados lugares. Su función es localizar una secuencia concreta en un cromosoma y cortar donde se encuentre otra secuencia preestablecida, con otra enzima de restricción. Normalmente, proceden de bacterias que hacen esto como acto de defensa. Si seleccionamos una enzima de restricción, cuya secuencia diana no figure en la zona de repetición en doblete, el resultado será que el ADN completo resultará cortado en fragmentos cortos que terminan en la secuencia especifica de la enzima de restricción. Bien, de esta forma, no necesariamente todos los fragmentos contendrán repeticiones en doblete, pero algunos sí y la longitud de los fragmentos tendrá relación con el número de repeticiones que contenga. La longitud se mide en una columna electroforética empleando gel de agarosa o acrilamida. Se vierte en la columna una disolución conteniendo los fragmentos cortados del ADN y al aplicar la corriente eléctrica los fragmentos resultan atraídos por el otro extremo (negativo) de la columna, desplazándose a través del gel. La velocidad de desplazamiento está relacionada con el tamaño de los fragmentos, viajando más deprisa los más pequeños. Al cabo de un tiempo la columna contendrá una distribución de fragmentos de todos los tamaños. Para visualizarlos se emplean las sondas radiactivas. Si se extiende el contenido de la columna sobre papel secante, que se ha rociado con una disolución de la sonda radiactiva especifica de la zona de repetición en doblete, objeto de análisis, el contenido resultará absorbido en el papel secante, pero las moléculas de la sonda radiactiva se alinean a lo largo del papel secante, emparejándose siguiendo las reglas del apareamiento de bases del ADN, con sus números opuestos en las repeticiones en doblete. Tras lavar el papel, solamente permanecerán las moléculas radiactivas enlazadas con sus opuestos exactos. Ahora aplicamos al papel rayos X, tras situarlo sobre un trozo de película, con lo que resulta impresionada por la radiactividad, grabando una serie de bandas oscuras (como un código de barras), cuya pauta es la que leemos y resulta ser como la huella dactilar.

 

Una estrategia para aplicar el procedimiento al ADN con objeto de identificación, consiste en bombardearlo con muchas sondas simultáneamente, con lo que obtenemos una mezcla de bandas oscuras, que se confunden y se produce una mancha borrosa, procedente de todos los tamaños de los posibles fragmentos del ADN. Esta vía no es útil a efectos de identificación. Otra alternativa es utilizar una sonda cada vez, buscando un locus genético concreto. Ahora se producen barras nítidas, dado que medimos longitudes de fragmentos de dobletes repetitivos. En la práctica lo que se utiliza en medicina forense es una media docena de sondas distintas.

 

La probabilidad de error es baja, pero si precisamos que se trata de que la libertad de la gente depende de ello, hay que afinar. La prueba se emplea para declarar a un sospechoso inocente o señalarlo como culpable. Si efectuamos            una única sonda de ADN para investigar un locus de repetición en doblete y las muestras que se comparan son diferentes, el sospechoso es exonerado. No hace falta investigar un segundo locus.   Si comparten el mismo código de barras, es compatible con que el sujeto sea culpable, pero no lo prueba. Podría darse que nuestro sospechoso compartiera el mismo código de barras con el verdadero delincuente. Hay que investigar algunos loci más. Supongamos que siguen coincidiendo. Hay que analizar la cuestión estadísticamente, para valorar que la coincidencia sea fortuita. Partamos de la probabilidad que hay de que dos personas de la población en general, tengan el mismo locus analizado. Supongamos el caso en que solamente una persona en un millón, tiene el modelo de código de barras identificado. La probabilidad de condena errónea no es de uno en un millón, ya que el sospechoso puede pertenecer a un grupo minoritario de población, que por alguna razón sus antepasados se asentaron en el lugar en el que se investiga. Esto genera que una población tenga frecuencias altas de genes locales concretos. Si el sospechoso y el verdadero delincuente pertenecieran al mismo grupo poblacional, la probabilidad de confusión casual puede ser espectacularmente mayor que si nos referimos a la población en general. Ahora precisamos conocer la frecuencia del modelo del código de barras en el grupo al que pertenece el sospechoso. Evidentemente, en todo caso, siempre que se examinen un suficiente número de loci genéticos distintos, se puede reducir la posibilidad de identificación errónea, por debajo de cualquier otro método de identificación.

 

Vemos como la Ciencia aporta útiles herramientas para aplicarlas con garantía sobrada a resolver complejos problemas. Cabe resaltar que se trata no solo de aplicar lo que saben los científicos, que también, sino de los métodos que aplican en sus trabajos para descubrir cosas y contribuir a construir el conocimiento que nos permite y fomenta el progreso.

DE LO MEJOR QUE PUEDE OCURRIR EN CIENCIA, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Cien años después del programa positivista de Hilbert tuvo lugar otro intento de codificar el conocimiento, pero esta vez fue nefasto gracias a la aparentemente simple reflexión de otro alemán, Kurt Gödel, que se interesó en la lógica. Su timidez y reticencia a grandes pronunciamientos, al contrario que Hilbert, redujeron la explosividad de sus teoremas de incompletitud, aunque iluminó a la comunidad matemática. Un sistema consistente en Matemáticas, como la familiar aritmética y sus operaciones (suma, resta, etc.) no puede ser ni completo ni consistente. La consistencia se refiere a las características de las reglas de un sistema que no producirán enunciados contradictorios, como por ejemplo que dos cosas sean y no sean iguales. Pese a que pueda parecer que esto es muy simple, es diabólicamente difícil asegurar que unas pocas sentencias, aparentemente simples, en cualquiera de las miles de formas posibles en que pueden ser usadas, no generen nunca una conclusión ilógica. Introduciendo conceptos, aparentemente razonables, como “cero” o “infinito” en la aritmética simple, por ejemplo, se pueden generar incompatibilidades extrañas o antinomias, como las denominan los matemáticos. El reto era demostrar que para un sistema particular de axiomas raíz, las reglas básicas fundamentales, nunca derivarán incompatibilidades. Lo que Gödel demostró, usando una extraña y nueva correspondencia entre matemática y lógica, de su invención, fue que si un sistema era consistente, nunca podría demostrar que es completo con las reglas de ese sistema. Esto significa  que algo que se demostrara cierto usando el sistema no podría ser probado, de hecho,  que lo era. Ya que las pruebas (demostraciones) son el fundamento de las matemáticas, resulta curioso que enunciados obviamente ciertos no se puedan demostrar.

 

El quid de la cuestión se puede apreciar considerando alguna de las paradojas que atormentaran su cerebro de forma poco placentera.  La más famosa de las paradojas es la de los cretenses, conocida también como la paradoja del embuste. Los enunciados son de la forma “los cretenses reclaman que todos los cretenses son mentirosos” ¿que cres tú? Otra versión dice “toma una carta blanca y escribe en una de las caras “el enunciado de la otra cara de esta carta es verdadero” y en la otra cara, “el enunciado de la otra cara es falso”. Para Gödel, estos juegos mentales fueron la base de la nueva forma de lógica que usaba para demostrar que en muchos casos no podemos decir nosotros mismos la verdad.

 

Claramente, podría pensarse que este fue el final del programa mesiánico que pretendía establecer la primacía de las matemáticas y del pensamiento lógico. Pero no fue así, ni mucho menos. Lo asombroso del caso son las oportunidades de investigación filosófica y técnica que supuso. Ideas, previamente no consideradas, sobre recursividad, paradojas, algoritmos e incluso conciencia deben su fundamento a las ideas de incompletitud de Gödel. Lo que, a primera vista parece como negativo, como la incompletitud eterna, resulta ser un ejercicio de imaginación fructífero.  Paradójicamente, buena parte de la ciencia de la computación, un área en la que se podría pensar que es muy dependiente de enunciados empíricos de lógica impecable, no podría haber progresado sin las ideas seminales de Gödel. Es más, la incosgnoscibilidad y la incompletitud son de las mejores cosas que le pueden ocurrir a la Ciencia.

 

Algunas cosas nunca pueden ser conocidas y esto no es cuestionable. No podemos conocer el valor exacto de pi, por ejemplo. Ciertamente esto tiene poco efecto práctico, incluso en Geometría. Los primeros pitagóricos se vieron sorprendidos cuando no pudieron soslayar la raíz de dos, que no podía ser representada precisamente sobre la recta numérica, que dejaba de ser discreta y pasaba a considerar distancias suaves. Es muy perturbador si el valor de la hipotenusa del triangulo rectángulo más simple, de lados unidad, no tenga sitio en la recta numérica de menos a más infinito. Hay una prueba más de esta aparente paradoja, consistente en la historia, aparentemente apócrifa de Hipassus, un pitagórico que mostró su demostración de esta extrañeza y fue declarado herético y ahogado por sus compañeros pitagóricos. Esto fue  consecuencia desagradable de obtener la respuesta correcta. ¡Las Matemáticas eran más duras en aquellos tiempos!. Poco después los matemáticos desarrollaron más trabajos al respecto, proponiendo los números irracionales, no porque fueran no razonables, sino porque no se pueden expresar como una fracción, como relación entre dos números. Los números irracionales, junto con los racionales constituyen la recta de los números reales. Ahora podemos trabajar con ellos más o menos que con los racionales. Mucha gente no ha reparado en ello, porque no ha tenido que preocuparse lo más mínimo, y posiblemente nunca lo hagan.

SOLO SEIS, ¡PERO VAYA SEIS!, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

 

Desde siempre nos fascina contemplar la magnificencia del Universo. Alzar la vista hacia el cielo en una noche estrellada nos conmueve ante el espectáculo grandioso que observamos. La reflexión sobre nuestra existencia sobreviene inevitablemente. El Universo está regido por unas leyes físicas que permiten que surja la vida. Sobrecogedor. Esas estrellas que contemplamos son las que nos han suministrado la mayor parte de los elementos químicos y ya es sabido que sin Química no podría darse la vida. Las leyes de la Física que rigen el Universo se han ido estructurando de forma que las teorías, que cada vez resultan ser más elegantes, tratan de reducir los fenómenos observados a fenómenos previamente conocidos, reduciendo el número de principios y de constantes fundamentales necesarias para describir los fenómenos.

 

El número de constantes físicas depende del sistema de unidades y por eso se utiliza el de Planck o de unidades natural, para que sea el mínimo posible, que son las que se denominan fundamentales. El modelo estándar requiere 25 constantes fundamentales: la constante de estructura fina, la constante de acoplamiento fuerte, el cociente entre la masa de varias partículas y la masa de Planck (seis cocientes para los seis tipos de quark (u,d,c,s,t,b), otros seis para los leptones (e, mu, tau, ve vmu y vtau), un cociente para el bosón de Higgs y dos para los bosones másicos de la teoría electrodebil (W,Z)), cuatro parámetros de la matriz de Cabibbo-Kobayashi-Maskawa, para describir como oscilan los quarks entre las distintas variedades y, finalmente, cuatro parámetros de la matriz de Maki-Nakagawa-Sakata que describen la oscilación de los neutrinos.

 

El astrónomo inglés Martin Rees, presento, en su libro Just Six Numbers, seis constantes cosmológicas que definen la estructura del Universo, cuyos valores son críticos para la existencia de la vida, de forma que, ligeros cambios imposibilitarían que existiéramos. N, que es la relación entre la fuerza de atracción de las masas y la de repulsión de las cargas, para dos protones. Su valor es 10^(-36). Este valor permite a los químicos despreciar la gravedad cuando se consideran varios átomos para formar moléculas. Los efectos de la carga se compensan, pero los efectos gravitatorios se acumulan y crean un campo de atracción gravitatoria que actúa sobre otros cuerpos, tanto más importante cuanto mayor es su masa. De haber sido menor, la gravedad nos aplastaría, las galaxias serían de pequeño tamaño y se habrían formado muy rápidamente y no hubiera habido tiempo para que tuviera lugar la evolución biológica.

 

El segundo número, epsilón,  es la proporción entre la masa de un núcleo de hidrógeno que se convierte en energía, cuando se fusionan dos átomos de hidrógeno para generar helio. Se mide con epsilón y en nuestro Universo vale 0.007. Tiene que ver con la fuerza que hay que superar cuando se divide el átomo. La existencia de la Química depende de este número, y resulta ser, por tanto, un prerrequisito para la existencia de la vida. La interacción fuerte sólo se manifiesta a distancias muy pequeñas. Es como el pegamento que mantiene unidos a los protones. Para formar un núcleo con dos protones, el pegamento es insuficiente para compensar la repulsión electrostática y hay que añadir dos neutrones para que aumenten “el pegamento” y acercarlos lo suficiente para que actúe la interacción fuerte y los mantenga unidos. Esto supone calentar la materia a millones de grados. Si la constante tuviera un valor de 0.006, no estaría unido un protón a un neutrón, el deuterio no sería estable y estaría clausurado la ruta para la formación de helio. No existiría la Química, porque solamente tendríamos hidrógeno, las estrellas no tendrían en marcha la fusión nuclear y no suministrarían ni calor a los planetas ni posibilitarían la vida y, ni siquiera, podrían formarse elementos más pesados para generar planetas rocosos como el nuestro. Un valor de 0.008 si permitiría la fusión nuclear, pero el hidrógeno no habría sobrevivido al Big Bang, de forma que dos protones se podrían unir, con lo que no tendríamos agua, ni tampoco se hubiera formado la biosfera que está basada en el carbono.

 

La relación entre la cantidad de materia del Universo, y la densidad crítica, nos da otro número, “omega” cuyo valor es 0.3. No se habrían formado ni las estrellas ni las galaxias si hubiera sido más bajo y si hubiera sido más elevado la expansión habría sido demasiado lenta. Un cuarto número denominado “Lambda” tiene un valor próximo a cero, pero ese valor ha permitido la evolución cósmica ya que controla la expansión  del Universo. Conforme el Universo en su expansión sea más oscuro y vacío, dominará a la gravedad. Pero es la gravedad la que mantiene la estructura de las Galaxias y la cantidad de energía necesaria para destruirlas y dispersarlas tiene que ver con su masa en reposo. Esta relación determina el quinto número, Q, Su valor es 1 en cien mil y si fuera menor las galaxias tendrían estructuras muy débiles, el Universo sería inerte; pero si fuera mayor el Universo sería violento con enormes agujeros negros colapsando grandes zonas.

 

Por último, el número clave del Universo es el número 3. Es la dimensión de nuestro espacio. La gravedad obedece la ley del inverso del cuadrado de la distancia. Las orbitas descritas en los sistemas “solares” son estables y no se advierte desviación en las velocidades mantenidas por los planetas. Si la dimensión no fuera tres, caerían los planetas sobre el Sol si la velocidad disminuyera, o describiría una espiral alejándose si aquélla aumentara. Pero, además, si la dimensión fuera menor de 3, no podríamos habernos incorporado nosotros a ese espacio, como tampoco las estructuras complejas que conforman la vida.

 

Estos seis números cósmicos establecen las reglas en las que nos movemos tras el Big Bang. Nuestro origen depende de la precisión de estos números, al igual que la Química y nuestra presencia se justifica por sus valores, nuestro colosal asombro se cierne en torno al misterio del Universo como el nuestro, que descansa en estos números y en sus valores concretos que lo hacen posible. ¡Fantástico! ¡Colosal! ¡Asombroso!

Alfabeto de pensamientos, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

La limitación del conocimiento, atribuida a Gödel, es un reto temerario a la completitud de las Matemáticas. El modesto Gödel comenzó a incubar sus ideas, cuando el pensamiento científico y filosófico estaba dominado por el positivismo, la sobredimensionada e intelectualmente agresiva creencia de que todo podría ser explicado a través de observaciones empíricas y lógicas, dado que el Universo y todo lo que contenía, eran esencialmente mecanicistas. En el ámbito de las Matemáticas, esta visión fue especialmente propiciada por David Hilbert, por cuanto propuso una filosofía, denominada formalismo, que pretendía describir toda la Matemática, mediante una serie de reglas formales, axiomas para los matemáticos, que fueran lógicos y consistentes y, finalmente, un sistema completo. No fue el único matemático que soportaba esta posición. En el siglo XVII Leibniz, uno de los promotores del Cálculo, emprendió un proyecto consistente  en construir un “alfabeto básico del pensamiento humano” que permitiría mediante la combinación de pensamientos simples formar cualquier idea, como si se tratase de que un número limitado de palabras se pudieran combinar fácilmente, para formar cualquier frase, independientemente de que anteriormente nunca se hubiera formulado ni pronunciado. Esto permitía valorar si un pensamiento sería válido, cierto o interesante, de la misma forma que se podrían construir nuevos e inéditos pensamientos, de forma automática. Cualquier disputa o debate podría ser resuelto calculando, por cuanto, se suponía, la deriva lógica estaba al alcance de la mecanización.

 

Fue, precisamente, la obsesión en todo esto, lo que llevó a Leibniz a desarrollar la matemática conocida hoy como combinatoria. En el fondo, subyacía que la “verdad” se podía deducir (se suponía) a partir de un número de sentencias previas (primitivas o primarias) mediante operaciones matemáticas. También todo esto supuso el comienzo de la moderna lógica y la contribución de Leibniz, ha sido considerada por muchos como la mayor aportación a la lógica desde Aristóteles. Puede pensarse que resultaba “naif” creer que cualquier pensamiento se podría derivar mediante un dispositivo de cálculo, como el propio Leibniz valoró, pero el “alfabeto del pensamiento” y sus implicaciones le obsesionó el resto de su vida.

 

El interés tanto para Leibniz, como para nosotros, no es que esta estructura y este dispositivo imaginario fuera capaz de construir los pensamientos humanos, sino que se pudieran identificar y evaluar pensamientos desconocidos. De esta manera se daba pie para poder sondear lo que sabemos, así también como lo que no conocemos. Este atributo es el que nos seduce, que pudiera contener más de lo que sabemos nosotros. La potencia del “alfabeto de pensamientos” de Leibniz y el “Algebra de pensamientos” que trabajaría, permitirían  mostrar el infinito del pensamiento humano y, por ende, la inmensidad de lo desconocido. Pero, el lenguaje es útil para lo que nos permite decir y es poderoso porque admite, por su estructura, que hay una infinidad de cosas que se podrían decir y que siempre queda más por decir que lo que decimos o está dicho. El alfabeto de Leibniz nunca se usó y la forma que él imaginó es menos importante que la demostración de qué cosas simples son las que se pueden combinar para componer nuevas cosas.

 

Las ideas centrales de Leibniz están inspiradas en el Ars Magna de Raimundo Lull y en el Computatio sive Logica de Hobbes. En el caso de Lull, la pretensión era disponer de un instrumento para convencer a los infieles de la verdad de los dogmas de la religión cristiana, pero también era un medio de generar conocimiento, Utilizó una tabla de categorías formadas por seis series, cada una de las cuales correspondía a nueve absolutos, nueve relaciones, nueve preguntas, nueve sujetos, nueves virtudes y nueve vicios. Leibniz se percató de las limitaciones, porque la tabla de categorías le parecía arbitraria y artificial, sin razones para adoptar nueve categorías por cada serie, ni mantener que los vicios y las virtudes eran ideas universales y se consideraban primitivas. Hobbes concibió el razonamiento como un cálculo, que pensaba que era lo único que realizaba nuestra mente, como reconoce Leibniz en su obra De arte combinatoria. Lebiniz sostenía que una lengua universal sería una lengua filosófica si fuera capaz de expresar directamente los pensamientos. Y es por eso que, en el Dissertatio del Ars Combinatoria afirmaba que se podría lograr construyendo un “alfabeto de pensamientos humanos”. Como representante del racionalismo sostuvo que el criterio de veracidad del conocimiento es la necesidad intrínseca de éste y no su adecuación con la realidad. Tenía la esperanza de crear un lenguaje que pudiera emplearse en el cálculo lógico universal. Por cierto, fue el promotor del sistema binario, fundamento de todas las arquitecturas de computadoras actuales.

 

El primer teorema de incompletitud de Gödel demuestra que en cualquier sistema formal de aritmética hay proposiciones verdaderas  que no pueden demostrarse, que tanto la sentencia como su negación son indecidibles. Esto conmocionó más allá del mundo de las matemáticas, en especial el corolario o segundo principio de incompletitud, que habla de que la consistencia de los axiomas no se puede demostrar en el interior del sistema.. Esto lleva a que no se puede demostrar la corrección de los razonamientos matemáticos basados en objetos infinitos, solo con razonamientos basados en objetos finitos. Esto implica que no toda la Matemática es computable y que la metamatemática del ser humano superará siempre a la capacidad de las máquinas. La comunidad científica recibió con frialdad la propuesta de Gödel. Se dice que la reacción de Wittgenstein fue similar a la que en su día dio Voltaire a los descubrimientos de Leibniz, en relación con el error en las interpretaciones de su teorema en su época. Gödel estudió concienzudamente las obras de Leibniz, al que siempre admiró. Siempre sospechó que la mayoría de las aportaciones de Leibniz se han soslayado. Opinaba que de haberse examinado las propuestas de Leibniz, la Humanidad sería hoy mucho más racional e inteligente y cometería menos errores.

LÍMITES E INCENTIVOS DEL CONOCIMIENTO, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

La Ciencia es la acumulación de conocimiento. Todo puede parecer indicar que no tiene límites. Puede que ello sea consecuencia de nuestra percepción que nos hace entrever su carácter indefinido y esa es la sensación que nos produce. Porque, ciertamente, cuando se escudriña más de cerca, se advierten otras cosas. En Ciencia, hay, al menos, y desde hace bastante tiempo, hay dos escenarios bien construidos en los que se evidencia que el conocimiento tiene límites. Por un lado, el conocido Principio de incertidumbre de Heisemberg, que nos dice que en el mundo microscópico existen límites impuestos teóricamente al conocimiento, ya que la posición y el momento de una partícula microscópica (y otras parejas de variables observacionales conjugadas) nunca pueden ser determinados simultáneamente. Por otro lado, en el universo matemático, los Teoremas de Incompletitud de Kurt Gödel demuestran que todo sistema lógico, suficientemente complejo para resultar interesante, debe permanecer incompleto. Si nos preguntamos si existen otros límites como estos, repararemos que en Biología podríamos pensar en el interrogante sobre si un cerebro puede comprenderse a sí mismo o que, en Meteorología, el tiempo atmosférico es esencialmente impredecible. No sabemos, todavía, explicar estas cosas. Es posible que desde la ignorancia tampoco nos las cuestionemos,

 

En el mundo microscópico, la “incertidumbre” establece una diferencia, pero lo hace a un nivel que pudiera parecer de poca incidencia en los seres macroscópicos, como nosotros mismo. Pero no deja de ser un ejemplo útil de limitación, que emergió inesperadamente y tuvo consecuencias de tipo físico. En efecto, puso de manifiesto nuevas incógnitas desconocidas previamente, inaugurando décadas de avances fructíferos no previstos y dio lugar a nuevos e interesantes problemas, algunos de los cuales siguen como incógnitas todavía hoy día. El enredo cuántico es uno de los más peculiares resultados en el mundo de la Físicoquímica Cuántica, emergido, casi directamente, de la incertidumbre desvelada por Heisemberg.

 

Aclaremos que el resultado de Heisemberg no es un simple caso de falta de bondad en un instrumento de medida, como era usual en el ámbito de la Ciencia Clásica. La naturaleza del Universo, denominada dualidad onda – partícula de las entidades microscópicas, es la que hace imposible esas medidas y es, justamente, esta imposibilidad la que prueba la validez de esta descripción profunda del Universo: algunas cosas fundamentales nunca pueden ser conocidas con certeza. El hecho, difícil de asimilar, es que si no somos capaces de medir los valores de partida, nunca podremos predecir el estado futuro de un sistema. Si no podemos medir la posición o el momento exactos de una partícula a tiempo cero, no podemos saber, de ninguna manera, donde se encontrará la partícula en cualquier instante posterior. El Universo, de esta forma, no es determinista, sino probabilista y no se puede predecir el futuro con certeza. Ahora bien, ciertamente, en el ámbito práctico, cuando las masas de los cuerpos se sitúan en torno a 10^(-28) gramos, las probabilidades llegan a ser tan grandes que es posible predecir cómo actúan. Todo el mundo es capaz de reaccionar cuando le tiran un tomate al escenario desde el lado derecho del patio de butacas de un teatro y sabe que la mejor elección es apartar la cabeza hacia el lado izquierdo, pronosticando la trayectoria de tan usual proyectil antaño, cuando las cosas no iban, bajo juicio de la audiencia, todo lo bien que debieran.

 

Este escalón o discontinuidad entre los mundos cuánticos y clásico es el que hace que la incertidumbre cuántica sea tan difícil de apreciar. El comportamiento cuántico es contra-intuitivo. Los pioneros de la Mecánica Cuántica ya advirtieron que estos fenómenos solamente se pueden comprender por una voluntad decidida de aceptar una descripción sensible del Universo. Resulta irónico que los resultados extraños e indiscutibles de la Mecánica Cuántica descansan sobre rigurosos armazones matemáticos, aunque solamente están disponibles conceptualmente en alusiones metafóricas del tipo “enredo cuántico” o el conocido “gato de Schrödinger”, que al mismo tiempo está vivo y muerto y ninguno de los dos. En cualquiera de los casos en que se pueda estar, lo importante a saber sobre el principio de incertidumbre es que, aunque lo pueda parecer, no es ninguna limitación, sino más bien un incentivo para realizar más investigación, formular más preguntas y generar nuevas ideas. A veces, las limitaciones al conocimiento, son realmente fértiles y útiles.

 

VIAJAR A TRAVÉS DEL TIEMPO, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

No somos todavía capaces de construir una máquina del tiempo, pero es posible que la Naturaleza haya hecho ya alguna cosa que podemos aprovechar para ello. Los agujeros de gusano son una posibilidad. Si somos capaces de encontrar uno, podríamos desplazarnos haciendo uso del mismo. De momento son experimentos mentales, basados en conceptos científicos sólidos, pero está por demostrar que sea posible para los objetos reales.

 

De siempre ha sido un anhelo de la humanidad el construir una máquina del tiempo. Hoy día, el colisionador de hadrones puede tener la respuesta. Somos capaces de percibir 3+1 dimensión, tres espaciales y una temporal, como introduce la teoría de la relatividad. Si hay más dimensiones están ocultas a nuestra percepción. Las teorías de cuerdas requieren once o más coordenadas para describir el universo. Si exploramos esas otras dimensiones, una nueva Física nos permitiría aproximarnos a la barrera de la velocidad de la luz o superarla. Ésta puede ser la mejor forma para viajar en el tiempo. El Colisionador de Hadrones acelera protones  en una circunferencia  de 27 km hasta casi la velocidad de la luz. Imaginemos que podría acontecer con una circunferencia de 1000 años luz.  Richard Obousy estudia velocidades mayores de la luz y describe una onda que se desplazaría como un surfista sobre una ola, cuando se eleva detrás de él y lo impulsa por el océano. La estructura del espacio y la nave tiran unos de otros. El espacio se está expandiendo a voluntad, si se expande por detrás de la nave y se contrae por delante. De esta forma, viajaría sin violentar la limitación de la velocidad de la luz de Einstein. Alcubierre elaboró la matemática que la describe, aunque otra cosa es construirla, cuando una nave tiene que verse desplazada mediante un impulso por deformación. Una civilización avanzada, podría viajar a través del tiempo.

 

Los viajes a través del tiempo requieren estrategias para concretar el impulso por deformación, entre otras cuestiones. No es nada fácil viajar sobre burbujas del espacio como si se tratara de surf sobre las olas. Alcanzar el impulso por deformación es complicado. No hay más que ver a los surfistas novatos. El mar es quien manipula, mucho más que el surfista. El control es un problema real. Una nave impulsada por deformación tiene una desconexión causal con la burbuja, no puede controlarla. Si se controlara, con nuevas leyes podría introducirse una nave que se desplazara sobre una onda, como si se tratara de un tren de alta velocidad para ir a las estrellas. La energía que usaría es muy superior a la imaginable, quizás la emitida por una estrella. Tenemos que convenir que no hay ingeniería para lograrlo.

 

Que el Universo se expande es una evidencia. Se atribuye a una energía oscura. Precisamente, esta energía se puede aprovechar para las naves o viajes a través del tiempo. No sabemos qué es ni cómo aprovecharla. O bien es una propiedad del espacio y no se puede aprovechar o es una densidad que es difícil de manejar. Muchos científicos descartan el impulso por deformación, la máquina del tiempo o los agujeros de gusanos. Es posible que sea un error o se base en un error. Hay leyes de la Física que no se pueden violar, pero la tecnología puede, ya que estas son las leyes de la Física que permiten imaginar, pero es posible que lleguemos a otros esquemas, muy diferentes de los que hoy son usuales.

 

Puede haber planetas en un sistema binario, que se pueden aprovechar. No es concebible que se pueda orbitar entre los dos, haciendo un ocho, dado que sería una trayectoria inestable y saldría despedido. Alfa Centauro, es el sistema estelar más cercano del sol, a tan solo 4,37 años luz de distancia y considerada desde la antigüedad como una única estrella, la más brillante de la constelación de Centauro, que se observa como superposición de las dos estrellas brillantes de un sistema de tres y el sistema alberga también a un planeta que es el exoplaneta más cercano a la Tierra. Es posible que haya planetas orbitando las dos estrellas del sistema binario. Están tan lejos de la estrella que parecen una sola, pero es un sistema binario. Alfa Centauro A y B, orbitan cada una alrededor de la otra. Cada una tiene una zona habitable, al igual que ocurre con el Sol. Sería posible viajar allí en el tiempo de una vida humana. Es la Estrella más cercana y es posible viajar a ella. Con la Física que hoy conocemos precisamos que 4 años luz se recorran en 45 días. Será, probablemente, el primer destino de una nave para iniciar y examinar los viajes en el tiempo. No conocemos la tecnología. Si vamos al 99.99% de la velocidad de la luz, con menos de dos meses, a esa velocidad, llegaríamos. Eso sí, sujetos a una brutal aceleración. Para no perder tiempo precioso, James Cameron la elige como una especie de pandora, como si fuera la luna de su avatar. Alfa Centauro B es la mejor estrella para encontrar planetas de masa relativamente pequeña. Con un telescopio es complicado verlos, ya que ver un planeta del tamaño de la Tierra es imposible. Habría que estudiarla por la variación, increíblemente pequeña, de unos 8.4 centímetros a 6.9 millones de kilómetros de distancia. Descubrir un planeta orbitando a una de las estrellas de Alfa Centauro, sin duda impulsaría los viajes en el tiempo.

 

El tiempo se ralentiza al tratarse de una máquina del tiempo (velocidad prácticamente de la luz). El impulso gravitatorio de Alfa Centauro A, nos podría acercar a la B. Con un viaje de algunos meses, a una velocidad muy alta, se ralentizna los relojes y en la Tierra solamente ha pasado una década. Es posible que viajar en el tiempo sea rutinario en el viaje del hombre por el Universo en el futuro. No es descabellado pensar en un desarrollo de tecnología para avanzar diez mil años hacia el futuro, cumpliendo solamente un año durante el viaje. Otra cosa es la energía que consumiríamos. En realidad hoy, en cualquier misión espacial, es preciso tener en cuenta las distorsiones del tiempo, aunque los efectos sean demasiado pequeños para que tengan incidencia en términos humanos o a lo largo de una vida humana. Pero esas minúsculas fracciones de segundo si tienen importancia si se trata de viajar en una nave espacial a través del sistema Solar.

Rapidez nerviosa, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

Desde el tiempo de Galeno (129 d.C.) se venía estudiando la cuestión de cómo trabajan los nervios. Nombres como Descartes y Borelli sugirieron que el espíritu animal era un fluido real que se comportaba como otros fluidos. Siguieron otros físicos que estudiaron la cuestión con detalle. Galvani, basándose en los estudios de la recientemente creada nueva disciplina, la Química y las propuestas de Volta, sugirió la importancia de la estructura de los nervios con una envoltura aislante y un conductor en su interior, que conciliaba los experimentos efectuados hasta ese momento.   Helmholtz en 1850 midió la velocidad a la que se transmitía el estímulo por el nervio ciático de una rana, hasta contraer el músculo del muslo, concluyendo que, aproximadamente, la velocidad de propagación era de unos 30 metros por segundo. No llegaba a un tercio de la velocidad del sonido, cuando, anteriormente, se había propuesto que llevaba la velocidad de la luz.

 

Posteriormente, se abordó la medida de la velocidad a la que se propagaba la diferencia de potencial de membrana de un nervio excitado, también en el nervio ciático de una rana. Du Bois-Reymond lo intentó, pero fracasó. Su discípulo Bernstein, lo heredó como trabajo de investigación y en 1868, 18 años después de Hemlholtz y, justamente, en su laboratorio de Heidelberg lo logró. Medir la propagación del potencial de acción fue más complicado que medir la velocidad de la señal que causaba la contracción del músculo. La única forma de medir cuando el potencial de acción llega a un punto del nervio suponía controlar el potencial de membrana en ese punto. La única forma de medir el potencial de membrana era usar un galvanómetro, que era muy lento de respuesta. Lo que ideó Bernstein fue realmente elegante. Sorprendentemente simple, en teoría, pero requiriendo una imaginación notable para llevarlo a la práctica. Para conocer la diferencia de potencial en la membrana del nervio en un punto determinado de éste y en un instante (breve momento) concreto, la única forma de lograrlo con un galvanómetro lento, era efectuar un montaje, de forma que el cable que conecta el nervio con el galvanómetro solo lo haga durante un breve tiempo. Pero debido a la lentitud del galvanómetro para tener suficiente sensibilidad a la respuesta, ésta dependerá del potencial eléctrico durante ese momento. Si se quiere saber cómo cambia el potencial en un punto concreto del nervio, como consecuencia de una estimulación de aquel en un punto distante (detectar la llegada del potencial de acción) se necesita analizar una sucesión de breves momentos elegidos para que empiecen a intervalos diferentes de la estimulación. Una vez establecido el patrón de cambio, se puede repetir el procedimiento estimulando el nervio en un punto más cercano al punto en el que registramos la respuesta. Encontraríamos que la respuesta es la misma, pero con un retardo más reducido y comparando la reducción del retardo con la reducción de la distancia entre el punto de estimulación y el de medida, se puede calcular la velocidad a la que el potencial de acción se ha propagado a través del nervio. Si la acción potencial se mueve a la misma velocidad que la señal que contrae el músculo, debería ser la velocidad de unos 30 metros por segundo.

 

Se llevó a cabo el experimento del siguiente modo: Se requería un sistema de estimulación que aplicara una descarga eléctrica para estimular el nervio; un sistema de registro de la diferencia de potencial entre cualquiera de los puntos escogidos sobre la superficie del nervio y el corte final y un sistema de medida del tiempo para controlar los momentos de la descarga estimulante y el comienzo y duración del periodo durante el que el galvanómetro está conectado. El primero se solventó con una bobina de inducción, una batería y un interruptor. El segundo, también parece sencillo y se puede pensar que se trata de un galvanómetro y dos hilos para conectarlo, pero hubo problemas. Como el galvanómetro tiene una resistencia eléctrica extremadamente baja, al conectarlo entre la superficie de la fibra de un nervio y el final del corte, tenía el efecto de producir un cortocircuito en la membrana del nervio. El efecto era que reducía mucho el potencial de membrana en las vecindades del punto de contacto entre el hilo y la superficie de la fibra del nervio y esto reducía la excitación del nervio. Bernstein introdujo en el circuito del galvanómetro una batería y un juego de resistencias dispuestas de forma que proporcionaba un voltaje que se equilibraba con el generado por la restante membrana del nervio. De esta forma, cuando el nervio estaba en reposo, no fluía corriente a través del galvanómetro y después de que era estimulado, la llegada del potencial de acción perturbaba el balance y el galvanómetro entonces respondía. El mayor problema que tuvo que solventar Bernstein fue el control del tiempo. Precisaba un coordinador que controlara tres operadores: uno que operara el interruptor del circuito para producir la descarga de estimulación; otro conectaría el galvanómetro al circuito de registro en un momento variable, pero conocido, tras la estimulación; el tercero desconectaría el galvanómetro al final de un periodo de control determinado. Lo consiguió sustituyendo el coordinador por una “caja de música” (un volante de latón horizontal que giraba a una velocidad controlada precisamente por un motor eléctrico). En diferentes puntos cerca del borde del volante, se situaron agujas dirigidas hacia abajo, operadas por interruptores, situados por debajo del volante. Ajustando las posiciones relativas de los interruptores se controló precisa y fácilmente el retardo entre la descarga de la estimulación y el comienzo del periodo en el que el galvanómetro controlaba los eventos y, por tanto, la duración del periodo.

 

Para adecuar la resolución del tiempo, redujo el periodo de control a un tercio de milisegundo, pero al ser tan corto el tiempo, implicaba que el flujo de la corriente durante un simple periodo, tenía muy poca incidencia en la aguja del galvanómetro. Esta dificultad la soslayó haciendo que el volante girara continuamente de forma que el nervio se estimulaba repetidamente y el resultado de los potenciales de acción fue controlado durante un tercio de milisegundo en el mismo punto del nervio y durante el mismo intervalo después del estímulo. Al responder el galvanómetro tan lentamente, los efectos de las muestras individuales se acumularon y (para una velocidad fija de rotación) la posición final de la aguja del galvanómetro reflejó la magnitud promedio del potencial de membrana durante los sucesivos periodos controlados por el galvanómetro.

 

Midiendo el potencial en puntos fijos sobre la superficie del nervio y variando el retardo entre la estimulación y el comienzo del periodo de control, Bernstein fue capaz de calcular la forma en la que el potencial eléctrico que cruza la membrana varía con el tiempo como el potencial de acción pasa a través del punto. Con esta técnica elegante e ingeniosa, comparó los tiempos entre el estímulo y el comienzo del potencial activo, cuando el nervio se estimulaba a dos distancias diferentes del punto de registro. A partir de la diferencia de los retardos, calculó la velocidad a la que el potencial de acción viajaba por el nervio. Encontró el valor de 28.7 metros por segundo, en excelente acuerdo con la estimación de Helmholtz que fue de unos 30 metros por segundo para la velocidad de la señal que causaba la contracción del músculo. Elegante y bellísimo forma de hacer Ciencia, aplicando el ingenio al diseño de las experiencias. ¡Cuánto hay que aprender de los maestros!

 

Comprendiendo la gravedad, por el Prof. Dr. D. Alberto Requena, académico numerario

albertorequena

La mecánica de Newton, formulada en 1686,  ha explicado durante más de dos siglos la acción entre dos masas. En su día fue un gran avance. El poder de una teoría científica es extraordinariamente relevante porque logra dar una explicación de fenómenos o procesos y permite predecir comportamientos. Es decir, describe las regularidades que logramos desentrañar los humanos de esa Naturaleza esquiva para explicarse. Vamos, a lo largo del tiempo, arrancando uno a uno los enigmas en los que discurre nuestra existencia y vamos logrando armonizar todas las variables implicadas. Pero la Ciencia disfruta de una conducta sin par entre las obras humanas: la falsabilidad. Lo que propone vale, mientras no se formula otra teoría que concilie mejor los componentes y las interacciones entre ellos en un sistema que, en último término se identifica con el Universo. Así, la teoría de Newton fue válida mientras que otra no describía más acertadamente que ella y era capaz de describir sistemas y/o condiciones que aquélla no era capaz de describir. Tiene en su favor haber servido, dada la precisión con que describía el movimiento, para descubrir Urano a partir de las variaciones de la órbita de Neptuno. Pero andando el tiempo, se fueron acumulando situaciones en las que la descripción no era tan acertada.

 

Recientemente, la sonda Casini envió señales desde el otro lado del Sol que, como objeto suficientemente pesado que es, deforma la geometría del espacio, y consigue curvar la trayectoria. La teoría de la relatividad general explica y describe estas cosas. Es una teoría de la gravitación, desarrollada por Einstein entre 1907 y 1915, ahora hace 100 años. Mientras que Newton suponía que entre dos masas actuaba una fuerza a distancia que las hacía interactuar, lo que resultaba ser una especie de acción mágica, por cuanto la acción era instantánea, independientemente de la distancia que mediara entre las masas y se propagaba a velocidad infinita, que es la única forma mediante la cual dos masas, como la Tierra y la Luna, pongamos por caso, podían interactuar entre ellas a distancia. La teoría de la relatividad general nos dice que la atracción entre dos masas se debe a una curvatura del espacio-tiempo y esto es un reflejo de la geometría del mismo, excluyendo, por tanto, las acciones de fuerzas a distancia, como describe la mecánica clásica de Newton.

 

Ya en la teoría de la relatividad especial, formulada en 1905, se descartaban las acciones a distancia instantáneas como describiera Newton, dado que Einstein imponía la condición de que no podía haber una propagación que superara la velocidad de la luz. A la vista estaba que Newton infringía en su teoría de la gravitación la condición de límite de velocidad de la luz que imponía la teoría de la relatividad. Por eso, surgió la necesidad de formular otra teoría de la gravedad que explicara ésta, sin contradecir la teoría especial de la relatividad. Así, se lograron explicar las anomalías de la órbita de Mercurio y de otros planetas, la curvatura de la luz y la contracción del tiempo. La curvatura de la luz es la responsable de que se lleguen a observar múltiples imágenes de un solo objeto astronómico, fenómeno conocido como lente gravitacional.

Al mismo tiempo, impulsó nuevos retos, como las ondas gravitacionales o los agujeros negros, entendidos estos como regiones del espacio en las que la atracción gravitacional es tan intensa que ni siquiera la luz es capaz de escapar a su efecto. El modelo estándar cosmológico del Big Bang también se basa en la teoría de la relatividad general.

 

No es la teoría de la relatividad general, la única formulación relativista de la gravedad, pero si es la más simple. No obstante, tampoco parece ser la teoría final, dado que deja abiertas puertas que hay que reconciliar con la mecánica cuántica, que describe los sistemas microscópicos y que requiere una teoría consistente sobre la gravedad cuántica. Hace ahora, un siglo de su formulación. Sigue tan tonificada como en el primer momento. Más que fruto de una idea, lo fue de un trabajo brillante y de varios. Y es posible que lo sea durante mucho tiempo todavía.