Te puede interesar:
Poincaré, Heisenberg, Gödel. Algunos límites del conocimiento científico
Seminario del Grupo Ciencia, Razón y Fe.
Fernando Sols. Pamplona, 25 de mayo de 2010
Resumen:
El siglo XX nos ha dejado la formulación de dos importantes limitaciones del conocimiento científico. Por un lado, la combinación de la dinámica no lineal de Poincaré y el principio de incertidumbre de Heisenberg nos lleva a una imagen del mundo donde la realidad está, en muchos sentidos, indeterminada. Por otro lado, los teoremas de Gödel nos revelan la existencia de teoremas matemáticos que, siendo ciertos, no pueden ser demostrados. Más recientemente, Chaitin ha demostrado, inspirándose en los trabajos de Gödel y Turing, que el carácter aleatorio de una secuencia matemática no puede ser demostrado (es “indecidible”). Reflexiono aquí sobre las consecuencias de la indeterminación del futuro y la indecidibilidad del azar. Se concluye que el diseño externo (inteligente) y el azar no son demostrables. La ciencia puede sugerir la existencia de diseño, pero no puede demostrarlo. Tampoco puede demostrar su ausencia. Y las cuestiones sobre finalidad deben quedar fuera del debate científico.
Texto desarrollado:
¿Puede la ciencia ofrecer una explicación última de la realidad?
Autor: Fernando Sols. Departamento de Física de Materiales, Universidad Complutense de Madrid
Publicado en: Francisco Molina, ed. Ciencia y Fe. En el camino de la búsqueda. Madrid. CEU Ediciones.
Fecha de publicación: 2014
Breve CV
Fernando Sols es catedrático de Física de la Materia Condensada desde 2004 y director del Departamento de Física de Materiales de la Universidad Complutense de Madrid. Licenciado en Física (Universidad de Barcelona, 1981). Doctor en Física (Universidad Autónoma de Madrid, 1985). Ha sido becario Fulbright en la Universidad de Illinois en Urbana-Champaign, profesor titular en la UAM, director del Instituto Nicolás Cabrera (UAM) y miembro del Comité Editorial del New Journal of Physics (IOP-DPG). Es Fellow del Institute of Physics (RU). Investiga en problemas de física teórica relacionados con la dinámica y el transporte de electrones y átomos fríos y con los fenómenos cuánticos macroscópicos.
Resumen
La ciencia no puede ofrecer una explicación completa de la realidad debido a la existencia de límites fundamentales en el conocimiento que puede proporcionar. Algunos de esos límites son internos en el sentido de que hacen referencia a conceptos que pertenecen al dominio de la ciencia pero que están fuera del alcance de la ciencia. El siglo XX nos ha dejado la formulación de dos importantes limitaciones del conocimiento científico. Por un lado, la combinación de la dinámica no lineal de Poincaré y el principio de incertidumbre de Heisenberg nos lleva a una imagen del mundo donde la realidad está, en muchos sentidos, indeterminada. Por otro lado, los teoremas de Gödel nos revelan la existencia de teoremas matemáticos que, siendo ciertos, no pueden ser demostrados. Más recientemente, Chaitin ha demostrado, inspirándose en los trabajos de Gödel y Turing, que el carácter aleatorio de una secuencia matemática no puede ser demostrado (es "indecidible"). Reflexiono aquí sobre las consecuencias de la indeterminación del futuro y la indecidibilidad del azar. Concluyo que la cuestión de la presencia o ausencia de finalidad en la naturaleza queda fundamentalmente fuera del alcance del método científico1.
Palabras clave: Incompletitud, caos, indeterminación cuántica, criterio de falsación, azar, diseño, método científico.
Introducción: Sobre los límites del conocimiento científico
Uno puede preguntarse si la ciencia puede potencialmente ofrecer una explicación última de la realidad. Una cuestión equivalente es si existen límites al conocimiento científico. Algunos límites son obvios. Podemos llamarles provisionales. Son los límites que cualquier proyecto científico bien planteado aspira a desplazar. Más allá de esos límites, existen conceptos o realidades que pertenecen al dominio de la ciencia y que son eventualmente alcanzables por la ciencia. Es una cuestión de tiempo el llegar a descubrir esas verdades científicas que nos son actualmente desconocidas pero que nosotros o nuestros descendientes descubrirán eventualmente. O quizás no, pero son objetivos en principio alcanzables por la ciencia. Podemos afirmar que existe un gran consenso sobre la existencia de estos límites provisionales de la ciencia. Un error no infrecuente es el de invocar (explícita o implícitamente) esos límites para probar o sugerir la existencia de Dios. Semejante "Dios de los agujeros" es el señor de un reino que se encoge de forma inexorable a medida que progresa la ciencia. Aunque no siempre es invocado explícitamente con este nombre, se trata de un concepto particularmente caro a los filósofos materialistas (porque es fácil de refutar) y a ingenuos apologetas cristianos por igual. El "Dios de los agujeros" no es el Dios de la fe cristiana, siendo éste último mucho más profundo y sutil.
Hay otros límites del conocimiento científico cuya aceptación explícita requiere la adopción de una posición filosófica concreta. Podemos llamarlos límites externos de la ciencia. Más allá de esos límites existen realidades que no pertenecen al dominio de la ciencia y que (por lo tanto) no pueden ser alcanzados por la ciencia. Entre esas realidades podemos incluir los conceptos de Dios, alma, creación a partir de la nada metafísica, la conciencia como experiencia subjetiva, los derechos humanos (la ética), o la belleza (estética). Por supuesto, las cosmovisiones materialistas cientificistas tenderán a ignorar al menos algunos de esos conceptos como irreales o constructos puramente mentales. Pero para otras personas esos conceptos describen ideas cuya posible realidad les intriga.
Hay todavía un tercer tipo de limitación del conocimiento científico que ha sido descubierto recientemente y que se refiere a los que podríamos llamar límites internos de la ciencia. Más allá de esos límites abundan realidades que pertenecen al dominio de la ciencia pero que están fuera de su alcance. Esos límites internos han sido descubiertos por la misma ciencia. Los dos ejemplos principales pertenecen ya al legado del siglo XX, concretamente, la indeterminación física y la incompletitud matemática. En el resto de este artículo, describimos ambas ideas y argumentamos que nos llevan a la conclusión de que el debate sobre la existencia o ausencia de finalidad de la naturaleza está fundamentalmente fuera del alcance del método científico.
Incertidumbre, incompletitud y la cuestión de la finalidad
Desde la publicación de El origen de las especies en 1859 por Charles Darwin, ha existido un importante debate sobre la presencia o ausencia de diseño en la naturaleza. Durante el siglo XX, el progreso en cosmología ha permitido llevar este debate más allá de sus límites iniciales restringidos a la evolución de la vida para incluir la historia del universo. La discusión intelectual se ha intensificado especialmente en las últimas décadas tras la propuesta del llamado "diseño inteligente" como posible programa científico que aspiraría a demostrar la existencia de finalidad en la evolución biológica [Dembski, 2006]. En esta polémica, con frecuencia innecesariamente agria, se contraponen el azar combinado con la selección natural por un lado y el diseño inteligente por otro lado, como posibles mecanismos motores del progreso de las especies. El azar es sin duda un concepto esencial para trabajar en diversas disciplinas científicas, no solo en biología de la evolución sino en física cuántica y física estadística. Sin embargo, resulta sorprendente que, dentro de la polémica antes mencionada, apenas se haya reparado en que, dentro del ámbito de las matemáticas, el azar no es demostrable. Más precisamente, Gregory Chaitin ha demostrado que el carácter aleatorio de una secuencia matemática es en general indecidible, en el sentido que dieron a este adjetivo los matemáticos Kurt Gödel y Alan Turing. Las consecuencias epistemológicas de esta observación son de gran alcance.
En este capítulo argumentaremos que el trabajo de Chaitin, combinado con el conocimiento actual de física cuántica, lleva inevitablemente a la conclusión de que el debate sobre la presencia o ausencia de finalidad en la naturaleza queda fuera del ámbito del método científico, aunque puede tener interés filosófico. Para ello repasaremos algunos momentos clave de la historia de la física, de las matemáticas y de la filosofía de la ciencia. En ese itinerario hablaremos de la física de Newton, la dinámica no lineal de Poincaré, el principio de incertidumbre de Heisenberg, el colapso de la función de onda, los teoremas de Gödel, el problema de la parada de Turing, la teoría algorítmica de la información de Chaitin, la filosofía de la biología de Monod, la propuesta del diseño inteligente, y el criterio de falsación de Popper. El hilo conductor de nuestra argumentación será el intento de responder a una pregunta fundamental, tan sencilla de formular como difícil de responder: "¿Qué o quién determina el futuro?". Esperamos que estas reflexiones sean clarificadoras y ayuden a poner cada cuestión en su sitio, distinguiendo entre lo que es conocimiento científico establecido de lo que es reflexión filosófica alrededor de ese saber científico.
Indeterminación práctica en la física clásica: Newton y Poincaré
En su monumental obra Philosophiae naturalis principia mathematica (1687), Isaac Newton (1642-1727) formuló la ley de la gravitación universal y las leyes de la mecánica clásica que llevan su nombre. El estudio de estas leyes mediante el cálculo infinitesimal que él mismo creó2 lleva a una imagen determinista del mundo, según la cual el futuro de un sistema dinámico está completamente determinado por sus condiciones iniciales, concretamente, la posición y el momento lineal3 de cada una de las partículas que forman el sistema, si se conoce su ley de fuerzas4. Esta visión mecanicista se impuso con fuerza, avalada por el impresionante éxito con el que la mecánica de Newton permitía explicar simultáneamente el movimiento de los planetas y la gravedad en la vida ordinaria, en lo que puede considerarse la primera unificación de fuerzas. La imagen determinista de la naturaleza arraigó con gran fuerza y, a pesar de que, como veremos, no está corroborada por la física moderna, sigue contando con algunos partidarios en la actualidad.
A finales del siglo XIX, Henry Poincaré (1854-1912) aborda el problema de tres cuerpos y concluye que la evolución de dicho sistema dinámico es en general caótica, en el sentido de que pequeñas variaciones en las condiciones iniciales dan lugar con el tiempo a trayectorias muy diferentes. Cuanto más largo es el intervalo de tiempo durante el que deseamos predecir la evolución del sistema con una determinada precisión, mayor es la precisión con la que necesitamos conocer las condiciones iniciales, es decir, menor tiene que ser el error inicial en nuestro conocimiento de la posición y el momento lineal del sistema5. La conclusión es que, en el contexto de la mecánica clásica, la regularidad del problema de dos cuerpos, cuyo paradigma sería el caso de un planeta girando alrededor del sol, es más la excepción que la regla. En la dinámica no lineal desarrollada por Poincaré, la mayoría de los sistemas dinámicos son caóticos, lo cual implica que la predicción de su comportamiento a largo plazo es, en la práctica, imposible. Llegamos pues al concepto de indeterminación práctica dentro de la física clásica.
Cabría todavía pensar que, si bien el determinismo es rechazado por razones prácticas, este todavía puede sobrevivir como concepto fundamental. Es decir, cabría argumentar que el futuro de la naturaleza y el universo, incluidos nosotros mismos, están determinados pero de forma que en la práctica sólo podemos hacer predicciones fiables en los casos más sencillos. Ese determinismo sería, a efectos prácticos, indistinguible del aparente indeterminismo en el que creemos movernos. En la siguiente sección veremos que la mecánica cuántica descarta esa imagen determinista no ya de forma práctica sino de forma fundamental.
Indeterminismo intrínseco en la física cuántica: Heisenberg
Durante el primer tercio del siglo XX se descubrió y formuló la mecánica cuántica. Esta ofrece una imagen del mundo microscópico que en muchos sentidos se aleja de forma radical de nuestras intuiciones basadas en el conocimiento ordinario del mundo macroscópico. Puede decirse que, en relación con la física clásica (pre-cuántica y pre-relativista), la mecánica cuántica representa una ruptura conceptual de mayor calado que la introducida por la otra gran revolución de la física del siglo XX, la teoría de la relatividad. Esta última nos enseña que espacio, tiempo, masa, energía y gravedad no son conceptos independientes que se yuxtaponen sino que están interrelacionados por sutiles ecuaciones matemáticas que hoy comprendemos bien. La mecánica relativista permite en principio que posición y momento estén simultáneamente bien definidos y en general no tiene consecuencias prácticas en nuestra vida ordinaria más allá del uso de la energía nuclear y los dispositivos GPS.
La mecánica cuántica hace afirmaciones más fuertes. Entre otras: posición y momento no pueden estar simultáneamente bien definidos; en el mundo microscópico no hay una diferencia cualitativa entre partícula y onda; la ecuación fundamental no puede extrapolarse a escala macroscópica porque predice superposiciones que no observamos en la práctica; solo se predice con éxito el comportamiento estadístico de los experimentos; los sistemas microscópicos son radicalmente alterados cuando son observados. Por otro lado, las consecuencias de la física cuántica en la vida ordinaria son numerosas. Cabe mencionar: la estabilidad de la materia y la rigidez de los sólidos en particular son impensables sin la mecánica cuántica; la química, el magnetismo, la electrónica, así como todas las tecnologías derivadas, solo son posibles gracias a las propiedades cuánticas de la materia. Por último, la imagen indeterminista que ofrece la física cuántica nos permite pensar que nuestra experiencia de libre albedrío puede ser real y no meramente subjetiva.
Para nuestra discusión, nos concentramos en un aspecto concreto de la mecánica cuántica: el principio de incertidumbre de Heisenberg6 Formulado en el lenguaje actual, el principio de incertidumbre es una consecuencia inmediata de la mecánica ondulatoria de Schrödinge7, pero se asocia al nombre de Heisenberg porque este fue quien lo dedujo primero a partir de su mecánica matricial (equivalente a la de Schrödinger) y, sorprendido por el resultado, trató de encontrar una explicación intuitiva. El principio de incertidumbre nos dice que, debido a su naturaleza ondulatoria, una partícula no puede tener bien definidos simultáneamente la posición y el momento. Concretamente, si Δx y Δp son la incertidumbre en la posición y el momento lineal, respectivamente, se satisface siempre la desigualdad
ΔxΔp≥h/4π (1)
donde h es la constante de Planck. Una consecuencia inmediata es que si el estado de una partícula es tal que, por ejemplo, la posición está muy bien definida (Δx→0), entonces necesariamente la incertidumbre en el momento lineal tiene que ser grande (Δp→infinito) para que la desigualdad (1) se satisfaga.
Si combinamos la dinámica no lineal de Poincaré con el principio de incertidumbre de Heisenberg, llegamos a la conclusión de que, para predecir satisfactoriamente el futuro cada vez más lejano, llega un momento en el que es necesario conocer las condiciones iniciales con una precisión que viole el principio de incertidumbre. La razón es que la condición Δx→0 y Δp→0 (necesaria para la predicción de un futuro lejano) es incompatible con la desigualdad (1). Llegamos pues a la conclusión de que, dentro de la imagen del mundo que nos ofrece la moderna física cuántica, la predicción del futuro lejano es imposible, no ya en un sentido práctico sino en un sentido fundamental: la información física sobre lo que un sistema caótico hará en un futuro lejano no está en ningún lugar8. Teniendo que en cuenta que los sistemas dinámicos no caóticos son en general una excepción y siempre una aproximación a la realidad, podemos afirmar que el futuro está abierto9.
Como ejemplo significativo, podemos señalar que, para un sistema tan macroscópico como Hiperión, luna alargada de Saturno de unos 300 km de diámetro medio y unos 6×1018 kg de masa, cuya rotación es caótica, Zurek ha estimado que la mecánica cuántica impide hacer predicciones sobre su rotación10 para tiempos superiores a 20 años [Zurek, 1988].
A pesar de no venir avalada por la física moderna, la imagen de un mundo determinista tiene todavía algunos defensores. En el contexto de la física cuántica, las teorías de variables ocultas proponen la existencia de variables no medibles cuyos valores precisos determinarían el futuro11. Entre sus seguidores se encuentran Albert Einstein, David Bohm y, más recientemente, Gerard ‘t Hooft (n. 1946). En 1964, John S. Bell (1928-1990) demostró que una importante clase de teorías de variables ocultas, las llamadas teorías locales, podían ser sometidas a observación. Propuso un experimento para el que una teoría local de variables ocultas predice el cumplimiento de unas determinadas desigualdades, hoy conocidas como desigualdades de Bell. Por el contrario, la mecánica cuántica convencional permite la violación de dichas desigualdades. Los principales experimentos fueron realizados por Alain Aspect (n. 1947) a principios de los 80 y arrojaron resultados contrarios a las predicciones de las teorías locales de variables ocultas y consistentes con la interpretación convencional de la mecánica cuántica. Buena parte de la incipiente tecnología de la comunicación cuántica (que permite el uso de códigos esencialmente indescifrables) está basada en la violación de dichas desigualdades.
A pesar del gran prestigio científico de algunos de sus defensores, las teorías de variables ocultas ocupan un lugar relativamente marginal dentro de la física actual12. La escasa relevancia de las teorías de variables ocultas puede entenderse como una aplicación del criterio de la navaja de Ockham: entre dos teorías que compiten con capacidad explicativa similar, se escoge la más sencilla13.
Incertidumbre e indeterminación
Esta sección es algo técnica y tiene como objetivo hacer unas puntualizaciones que generalmente se echan a faltar en los textos de Mecánica Cuántica. Se trata de discutir una pequeña pero importante diferencia entre dos conceptos que con frecuencia se presentan como prácticamente sinónimos, y de ver cómo, dentro de la física cuántica, uno implica al otro. Aunque la discusión es asequible para un público amplio, el lector que no esté especialmente interesado en esta sutileza y se sienta cómodo pensando en incertidumbre e indeterminación como sinónimos, puede prescindir de la lectura de esta sección.
Consideremos un sistema físico que está en un estado que, siguiendo una convención habitual en mecánica cuántica, describimos por el símbolo |ψ⟩. Supongamos que este sistema cuántico tiene asociada una magnitud física S que es medible. Este "observable" (o cantidad física medible) S puede tomar dos valores, s1 y s2, y denotamos con los símbolos |s1⟩ y |s2⟩ dos estados que tienen perfectamente definidos (sin incertidumbre) el observable S. Se dice entonces que |s1⟩ y |s2⟩ son autoestados del observable S con autovalores s1 y s2. La naturaleza ondulatoria de las partículas cuánticas se refleja en el principio de linealidad de la mecánica cuántica. Según este principio, si |s1⟩ y |s2⟩ son dos estados posibles de un sistema cuántico, entonces una combinación lineal de ellos es también un estado posible14. En particular, un estado realizable es (ignorando la normalización)
|ψ⟩=|s1⟩+|s2⟩ (2)
Este estado |ψ⟩ ya no tiene el observable S bien definido, pues es combinación lineal de dos autoestados de S con autovalores distintos, s1 ≠ s2. Podemos decir que existe incertidumbre en el valor del observable S en el estado |ψ⟩15.
Ahora supongamos que queremos realizar una medida sobre este estado y que, en particular, queremos medir cuánto vale el observable S. En mecánica cuántica, la medida ideal de un observable sólo puede arrojar autovalores de dicho observable. Como la cantidad física S no está bien definida en el estado (2), el resultado es a priori incierto. Concretamente, hay una probabilidad ½ de que el resultado sea s1o s2.
Más concretamente, la medida de un observable se describe del siguiente modo. Supongamos que acoplamos el sistema cuántico a un aparato macroscópico cuyo estado inicial denotamos por |0⟩. La interacción entre el sistema cuántico y el aparato macroscópico es tal que, al cabo de un cierto tiempo, el aparato evoluciona hacia el estado |A1⟩, si el sistema cuántico está en el estado |s1⟩, o al estado |A2⟩, si el sistema está en el estado |s2⟩, donde |A1⟩ y |A2⟩ son autoestados de un observable A del aparato macroscópico que puede ser medido a simple vista, por ejemplo, la posición de la aguja de un amperímetro. Como la evolución en mecánica cuántica es lineal, si el sistema está inicialmente en la combinación (2), entonces el estado final del "universo" (sistema conjunto formado por el sistema cuántico que es medido y es aparato macroscópico que lo mide) también es un combinación lineal de los estados finales respectivos. Concretamente podemos escribir la evolución del universo durante la medida de la siguiente forma
(|s1⟩+|s2⟩)|0⟩→|s1⟩|A1⟩+|s2⟩|A2⟩ (3)
En (3), el estado de la izquierda es uno en el que el sistema se halla en el estado (2) y el aparato en el estado |0⟩. Es el estado inicial, anterior al comienzo de la interacción que implementa la medida. El sistema y el aparato están todavía desacoplados. Por ello el estado conjunto puede escribirse como un "producto" de estados de cada uno de ellos por separado. El estado de la derecha es el del universo tras la interacción, cuando la medida ya ha sido realizada. Se dice que es un estado "entrelazado" porque, debido a la interacción mutua que han experimentado, el estado del aparato está correlacionado con el sistema. A diferencia de lo que ocurría en el estado inicial, el estado del universo ya no puede "factorizarse" en uno del sistema y otro del aparato.
Llegamos aquí a un aspecto central de la mecánica cuántica, el de la proyección en el proceso de medida. Si interpretamos el esquema (3) como una evolución del estado cuántico del "universo", vemos que se trata de una evolución determinista en el sentido de que, considerado el universo en su conjunto, el estado inicial determina el estado final. Es cierto que ambos estados contienen una incertidumbre en el valor del observable S del sistema pero, aun siendo portadores de esa incertidumbre, podemos afirmar que un estado evoluciona hacia el otro de forma determinista.
La cuestión clave es que, si bien la mecánica cuántica permite una combinación lineal como la indicada en la derecha de (3), en la práctica esta combinación no se observa en la naturaleza, porque |A1⟩ y |A2⟩ son estados macroscópicamente distintos16. Es decir, el estado final tras la medida no se comporta como el de la derecha de (3) sino que, de forma aleatoria, se concreta en |s1⟩|A1⟩ o |s2⟩|A2⟩, con una probabilidad ½ para cada posibilidad. Esquemáticamente lo podemos escribir como
|s1⟩|A1⟩+|s2⟩|A2⟩→|s1⟩|A1⟩ ó |s2⟩|A2⟩ con probabilidad ½. (4)
Se habla entonces de la "colapso de la función de onda" o de la proyección de von Neumann17. La mecánica cuántica predice correctamente la estadística de los resultados posibles. Es decir, predice que, si realizamos el mismo experimento muchas veces, preparando siempre el "universo" en el mismo estado [el de la izquierda de (3)], el resultado será similar al de una moneda que se lanza muchas veces para ver si sale cara o cruz: a medida que aumentamos el número de ensayos, la predicción estadística de mitad cara y mitad cruz se irá cumpliendo con precisión relativa creciente, en virtud de la ley de los grandes números.
La eficacia con que la mecánica cuántica predice la estadística de una medición realizada muchas veces en condiciones iniciales idénticas contrasta con su notoria incapacidad para predecir lo que ocurre en un experimento particular18. Decimos entonces que el resultado de un ensayo particular está indeterminado. Por lo tanto, concluimos que la incertidumbre en el conocimiento inicial del observable S tiene como consecuencia la indeterminación en el resultado obtenido al intentar medirlo. Es decir, si vemos el proceso de medida como una evolución dinámica regida por la interacción entre sistema y aparato, la incertidumbre inicial se traduce en indeterminación del resultado futuro de la medición. Notando que la realización de un experimento particular genera una información que no existía antes, Wheeler19 se refería a la medida cuántica individual como "acto elemental de creación" [Wheeler, 1983].
La incertidumbre es una consecuencia natural de la mecánica ondulatoria, regida por la ecuación de Schrödinger. Sin embargo, la indeterminación requiere del postulado de la proyección, que no está contenido en la mecánica de Schrödinger sino que se introduce como un postulado adicional de la mecánica cuántica.
Terminamos esta sección con una precaución. La analogía con el lanzamiento de una moneda, siendo muy visual, tiene el peligro de inducir a la imagen equivocada de que la indeterminación no es fundamental sino práctica, ya que, en principio, la moneda evoluciona de forma clásica y determinista. Admitir eso para el caso de un sistema fuertemente cuántico sería equivalente a invocar las teorías de variables ocultas que, como hemos indicado antes, han sido descartadas por la experimentación en un amplio rango de casos.
¿Qué o quién determina el futuro?
Hemos visto que, dentro de la imagen que nos ofrece la física cuántica moderna, el futuro no está determinado. En particular, se rechaza la imagen determinista según la cual el futuro estaría completamente determinado por las condiciones iniciales y las leyes de fuerzas operantes. La indeterminación que propugna la visión convencional de la física moderna es fundamental y no meramente práctica, como podría ser en un contexto de caos determinista compatible con la mecánica clásica.
Esta indeterminación es compatible con la experiencia personal que tenemos de libre albedrío. Es decir, nos permite pensar que nuestra experiencia de libertad puede ser real y no meramente subjetiva20. Si el resultado de un proceso cuántico puede estar indeterminado, ¿por qué no pueden estarlo algunos eventos neuronales que en último término pueden ser amplificación de procesos microscópicos en los que la indeterminación cuántica juega un papel esencial?21
Seguimos adelante en nuestro intento de responder a la pregunta fundamental que da título a esta sección y que es el hilo conductor de este capítulo: "¿Qué o quién determina el futuro?". Hemos rechazado el determinismo de las condiciones iniciales. Nos queda la posibilidad de invocar algún diseño, o finalidad, que condicionaría la evolución de un sistema a la consecución de un determinado objetivo.
Hay un tipo de diseño, que llamaremos aquí interno, que no es especialmente polémico. Salvo deterministas recalcitrantes, casi todos estamos de acuerdo en que el conjunto de acciones físicas que llevan a la construcción de un coche, un edificio, o a la consecución de cualquier objetivo simple de la vida ordinaria como conducir una bicicleta o lavar un plato, tienen lugar de una forma determinada porque uno o varios seres racionales, con capacidad de libre albedrío, deciden alcanzar ese objetivo previamente deseado. Utilizando el lenguaje aristotélico, una causa eficiente (el ser racional y libre) persigue una determinada causa final (por ejemplo, la contemplación del plato lavado). Aunque la existencia de diseño interno es generalmente aceptada, tampoco resuelve enteramente la cuestión antes formulada porque en la naturaleza se dan muchos fenómenos que no son directamente inducidos por el ser humano.
Hay otro tipo de diseño, que podemos llamar externo, que sí puede ser polémico, porque sugiere la idea de trascendencia. Si el diseño interno refleja la acción de la libertad de los seres humanos, el diseño externo reflejaría, utilizando un lenguaje teológico, la acción de la providencia divina, entendiendo por esta la influencia de Dios en el mundo sin necesidad de alterar de forma manifiesta el comportamiento habitual de la naturaleza. La imagen de un mundo indeterminado deja margen para –aunque por supuesto no demuestra– la existencia de la libertad y la providencia. El libre albedrío puede actuar a través de procesos cuánticos de resultado a prioriindeterminado que probablemente tienen lugar en nuestro cerebro. Hemos mencionado en la sección anterior una propuesta concreta del neurobiólogo Eccles.
El posible medio de acción de la providencia es más difícil de delimitar, probablemente porque es más general. Sin embargo, la ubicuidad de sistemas macroscópicos caóticos, empezando por la meteorología y continuando por la formación del sistema solar y las primitivas fluctuaciones cosmológicas, sugiere fuertemente la posibilidad de que la indeterminación a largo plazo de estos sistemas es, en último término, de naturaleza cuántica y por lo tanto está intrínsecamente abierta a una diversidad de evoluciones. Volviendo al ejemplo antes mencionado de un sistema tan masivo como Hiperión, si tratamos de anticipar cómo será el movimiento de rotación de este satélite de Saturno dentro de un siglo, nos damos cuenta de que una multitud de evoluciones drásticamente diferentes son posibles, siendo todas ellas compatibles con las leyes de la física y con el conocimiento más preciso que podamos tener de su estado actual. La razón es, como hemos indicado antes, que una predicción detallada de la rotación de Hiperión dentro de un siglo requeriría conocer su estado actual con una precisión tan alta que, incluso para un sistema de 1018 kg, se violaría el principio de incertidumbre de Heisenberg. Cualquiera que sea el comportamiento rotacional detallado de Hiperión dentro de un siglo, a ningún observador futuro le sorprenderá especialmente y, sin embargo, la información sobre lo que Hiperión hará entonces no está ahora mismo en ningún lugar, pues no tiene soporte físico posible.
Dentro del contexto de la biología de la evolución se ha propuesto en los últimos años la idea del diseño inteligente, cuya existencia sería necesaria para explicar la aparición de estructuras biológicas complejas supuestamente muy improbables a priori. El diseño inteligente no es muy distinto al diseño externo que acabamos de mencionar. El problema con el programa del diseño inteligente es que se plantea como un programa científico cuando, como argumentaremos más tarde, las cuestiones de finalidad en la naturaleza quedan fuera del alcance del método científico. El diseño inteligente puede ser una interesante propuesta filosófica o teológica, pero no una propuesta científica. También veremos que lo mismo puede afirmarse de la ausencia de diseño.
Para explicar el comportamiento aparentemente impredecible de sistemas complejos, y muy especialmente cuando se habla de la evolución biológica, se invoca con frecuencia el concepto de azar, que puede entenderse como indeterminación sin finalidad. El azar es un concepto ubicuo en las interpretaciones, no sólo de la teoría de la evolución, sino de la física estadística y la física cuántica. Hemos visto antes cómo el resultado de una medida cuántica particular puede estar altamente indeterminado. Entendemos entonces que los resultados de la medición son aleatorios y que la mecánica cuántica solo predice –y con mucho éxito– la estadística de los resultados siempre que –importante– el experimento se pueda repetir muchas veces en condiciones iniciales idénticas. A nadie se le escapa que esta última condición es difícil de cumplir en la evolución biológica y en nuestras vidas personales. La mecánica cuántica tiene escaso poder predictivo en experimentos de resultado incierto que solo se pueden realizar una vez.
Por lo tanto, el azar es un concepto útil cuando se analiza el comportamiento estadístico de muchos procesos cada uno de los cuales lleva asociada una cierta indeterminación. El problema del azar es que, como veremos, nunca puede asignarse con seguridad a una secuencia concreta de sucesos convenientemente cuantificados. La razón de esta imposibilidad es de carácter fundamental, pues es consecuencia de los teoremas de Gödel, que constituyen quizás el resultado más importante de la historia del conocimiento.
En las próximas secciones tratamos de entender el significado y las consecuencias epistemológicas de la imposibilidad de la demostración del azar.
Los teoremas de Gödel
En los años 20, David Hilbert (1862-1943), quizás el matemático más influyente de la época, propuso un programa que tenía como objetivo la demostración de que, para la aritmética axiomática y la teoría axiomática de conjuntos [Fernández-Prida 2009, Leach 2011]:
(i) Debería ser posible demostrar la consistencia de sus axiomas, es decir, demostrar que no se deriva lógicamente de ellos (es decir, según las reglas de la lógica) ninguna contradicción (es decir, una fórmula y su negación)
(ii) Debería ser posible demostrar su completitud, es decir que toda fórmula expresable en el lenguaje de la teoría sea lógicamente derivable de los axiomas de la teoría, o bien lo sea su negación.
(iii) Debería ser posible demostrar su decidibilidad, es decir la existencia de un algoritmo tal que ejecutado sobre cualquier fórmula expresable en el lenguaje de la teoría termine siempre, y termine con el resultado "sí" cuando la fórmula es lógicamente derivable de los axiomas de la teoría, y termine con el resultado "no", cuando no es lógicamente derivable de los axiomas de la teoría.
El joven matemático austríaco Kurt Gödel se entregó de lleno al proyecto y, primero de todo, demostró la completitud de la lógica de primer orden, es decir que una fórmula es lógicamente derivable de un conjunto de fórmulas si y solo si es verdadera en toda interpretación semántica de la teoría en la que esas fórmulas son verdaderas (esto equivale a decir, como consecuencia, que una teoría lógica es consistente si y sólo si tiene un modelo). Animado con este resultado, decidió afrontar los problemas propuestos por Hilbert. Para sorpresa y decepción de todos, dio respuesta negativa a esas expectativas, tanto para el caso de la aritmética como para el caso de la teoría de conjuntos. Más precisamente, Gödel demostró en 1931 que, para la aritmética de Peano (o cualquier extensión de ella por adición de axiomas) y también para la teoría de conjuntos axiomatizada por Zermelo y Fraenkel (o cualquier extensión de ella por adición de axiomas), suponiendo que la teoría es consistente, se cumple:
1) Es incompleta, es decir que existe al menos una fórmula tal que ni ella ni su negación pertenecen a la teoría. Es decir, ni ella ni su negación se derivan de los axiomas.
Ahora bien, la aritmética, es decir el conjunto de fórmulas verdaderas acerca de los números naturales, es obviamente una teoría completa (pues una fórmula sobre los números naturales, o es verdadera ella, o es verdadera su negación). Por lo tanto ni la aritmética de Peano, ni ninguna extensión de ella que sea también axiomática, es toda la aritmética: habrá siempre fórmulas que pertenecen a la aritmética (es decir, son verdaderas) pero no son deducibles de esos axiomas.
2) No es teorema de la teoría, es decir fórmula deducible de sus axiomas, la fórmula que expresa que la teoría es consistente.
Esto es especialmente grave para la teoría de conjuntos, pues las fórmulas que se derivan de los axiomas de la teoría de conjuntos son las matemáticas22. Todos estamos internamente convencidos de que las matemáticas son consistentes. Si resultara que no lo son, se podría demostrar un día, al aparecer una contradicción. Si resulta que lo son, como todos creemos, nunca podremos demostrarlo dentro las mismas matemáticas, sino acudiendo a otra teoría lógica de la cual habrá que probar a su vez que es consistente, y para ello acudir a otra teoría lógica distinta, y así sucesivamente, sin llegar nunca a probar la consistencia.
3) Es indecidible, es decir, no existe ningún algoritmo para decidir si una fórmula escrita al azar en el lenguaje de la teoría, es derivable o no de los axiomas de la teoría.
Estos sorprendentes resultados, de carácter negativo, echaban por tierra las expectativas de Hilbert, según las cuales las matemáticas se reducirían a un juego mecánico en el que, a partir de unos axiomas y unas reglas de inferencia lógicas, se podrían ir demostrando, con suficiente paciencia y habilidad (o con la ayuda de un ordenador moderno), todos las fórmulas matemáticas que son verdaderas; y según las cuales habría además un algoritmo –hoy diríamos programa de ordenador– que permitiría decidir sobre cualquier fórmula matemática (bien definida) si es o no deducible de un conjunto de axiomas dado.
Los inesperados resultados de Gödel obligaban en cierto modo a un cambio de paradigma en el pensamiento matemático: el sueño de la certeza matemática y de la sistemática exploración de las verdades matemáticas se desvanecía. Nuestra idea de lo que son las matemáticas pasa a ser análoga a nuestra idea de lo que es una teoría física. Si en una teoría física se postulan unas leyes universales y se espera que no haya experimentos que las refuten, en matemáticas, se postulan unos axiomas y se espera que no se llegue con ellos a contradicciones.
De los sorprendentes teoremas arriba enunciados, el que interesa para nuestra presente discusión es el teorema de indecidibilidad, y no el que demostró Gödel propiamente sino uno análogo demostrado por Turing. La demostración que propuso Gödel de sus teoremas era muy abstracta y no parecía que fuera a tener importantes consecuencias prácticas en la actividad matemática23. El matemático inglés Alan Turing (1912-1954), considerado el padre de la ciencia de la computación, tuvo la intuición de llevar el teorema de indecidibilidad de Gödel a un terreno más concreto, el del comportamiento de un ordenador cuando ejecuta un determinado programa24. En los años 30 no existían ordenadores pero Turing anticipó su posible existencia. Ese concepto ideal de ordenador universal que maneja secuencias de ceros y unos según unas reglas prescritas, es conocido con el nombre de máquina de Turing.
Turing demostró que no existe una máquina (hoy diríamos un programa) que decida si un programa autocontenido25 arbitrario termina o no. Es decir, no existe una máquina que alimentada como input con el número que codifica un programa autocontenido cualquiera emita siempre una respuesta, siendo ésta 1 si el programa autocontenido se para, y 0 si el programa autocontenido no se para.
En este contexto, un ordenador sería un objeto físico determinista que es diseñado para evolucionar de forma discontinua entre un conjunto discreto de estados siguiendo unas reglas físicas. Podemos considerar la evolución del ordenador bajo la acción de un programa que incluye, no solo las reglas lógicas, sino los datos de entrada, y hacernos la sencilla pregunta de si el ordenador se detendrá en algún momento o no. En algunos casos sencillos, la respuesta puede ser clara, pero en general no es evidente. Turing demostró que el problema de si un programa se detiene o no, es indecidible. Se dice entonces que el problema de la parada ("the halting problem") es indecidible.
Desde el trabajo de Turing, se han identificado clases de problemas indecidibles, junto con problemas cuya indecibilidad se sospecha pero no se ha demostrado. Un ejemplo muy importante de problema indecidible es el de la demostración del carácter aleatorio de una secuencia matemática.
El azar
El azar es un concepto que, de forma vaga, se ha invocado desde tiempos remotos. Aparece en los escritos de los clásicos griegos, especialmente Aristóteles, e incluso en la Biblia26. En general, el azar se entiende de una forma dinámica, como indeterminismo sin diseño27. A finales del siglo XX, Gregory Chaitin ha dado una definición más estática pero probablemente más fundamental del azar (o aleatoriedad) que se puede aplicar a secuencias matemáticas [Chaitin, 1975, 1988, 1997, 2005, 2006]. Esto no tiene por qué ser una limitación importante si pensamos que, en último término, la ciencia se reduce a física, la física se expresa con matemáticas, y las matemáticas son reducibles a la aritmética28. Dentro de la teoría algorítmica de la información que propone y funda Chaitin, resulta más sencillo empezar por definir la ausencia de azar. Decimos que una secuencia matemática (por ejemplo, de ceros y unos) no es aleatoria si se puede comprimir, esto es, si existe una secuencia más breve que, aplicada a una máquina de Turing, arroja como resultado la secuencia larga. Se dice entonces que la secuencia breve contiene la información de la secuencia larga de forma comprimida. Una secuencia larga se dice que es aleatoria si no es comprimible, esto es, si no existe una secuencia corta que la determine.
Un ejemplo canónico de secuencia no aleatoria es la sucesión de los dígitos del número π. Se han calculado hasta diez billones (españoles) de decimales de este célebre número trascendente. Si imprimimos, por ejemplo, el primer millón de decimales, gastando un montón de papel, la apariencia es de aleatoriedad total, incluso bajo el escrutinio detallado de diversas comprobaciones realizadas con la ayuda de un ordenador. Y sin embargo, la secuencia no es aleatoria, porque podemos crear un programa, de longitud muy inferior a un millón de dígitos, que tras ser ejecutado por un ordenador nos proporcione el primer millón de dígitos. Por ejemplo, Leibniz demostró que el resultado de multiplicar por 4 la suma de todos los inversos de números impares alternando su signo, tiende a π. Cuantos más números impares consideremos, más dígitos de π podremos obtener. Pero la longitud del programa depende muy débilmente de la cantidad de números impares consecutivos que, empezando por 1 y siguiendo un orden ascendente, estemos dispuestos a incluir en la serie truncada.
Chaitin ha demostrado que la cuestión de si una larga secuencia de números es o no aleatoria es en general indecidible, en el sentido de Gödel y Turing. No existe un algoritmo general que, aplicado a una secuencia arbitraria, arroje un sí o no a la pregunta de si la secuencia es aleatoria.
La consecuencia es que, si bien el azar es una hipótesis útil, e incluso necesaria, en muchos contextos, no se puede asignar con seguridad total a ninguna secuencia matemática y por lo tanto a ningún proceso físico o biológico. Esta consideración puede no tener importantes implicaciones prácticas, pero sin duda tiene importantes consecuencias epistemológicas: En la medida en que el azar es entendido como indeterminación en ausencia de diseño, nunca puede ser legítimo presentar la ausencia de diseño como una conclusión científica. La existencia de azar puede ser una hipótesis de trabajo razonable, una interpretación filosófica defendible, pero no puede presentarse como un dato científico establecido cuando se están debatiendo cuestiones de principio, tales como la presencia o ausencia de finalidad en la naturaleza.
El concepto de azar no es demostrable en sentido estricto, ya que no puede asignarse con seguridad absoluta a ningún proceso. El azar solo puede invocarse como concepto fenomenológico (en el sentido que a esta palabra se le da en Física).
El criterio de falsación de Popper
En su obra Logik der Forschung (1934), el filósofo y teórico de la ciencia Karl Popper (1902-1904) propone que la línea de demarcación que distingue una teoría genuinamente científica de otras que no lo son, es la posibilidad de ser falsada, es decir, la posibilidad de realizar un experimento entre cuyos posibles resultados existiría a priori al menos uno que contradice una predicción de la teoría [Popper, 1985]. En la lógica del descubrimiento científico que propone Popper, las teorías de la ciencia natural se formulan mediante enunciados universales (del tipo "para todo… se cumple…"), por lo que pueden ser refutadas, en principio, si se encuentra un solo contraejemplo que incumple una consecuencia lógica que se deriva de la teoría29.
Los enunciados universales pueden ser falsados pero no verificados, por la sencilla razón de que, para su verificación, se necesitaría comprobar una infinidad de casos particulares, algo claramente inviable. Por el contrario, los enunciados existenciales (del tipo "existe un… que cumple…") son verificables pero no falsables, ya que su negación es un enunciado universal que, como hemos señalado, no puede ser verificado. Los enunciados particulares (del tipo "mi coche cumple la propiedad de medir entre 3 y 5 metros de longitud") son verificables y falsables, porque tanto el enunciado como su negación son verificables mediante un número finito de experimentos.
Según el criterio de Popper, nunca podemos llegar a tener certeza total sobre la veracidad de una teoría científica, ya que solo podemos falsarla. Sin embargo, cuando la capacidad predictiva de una teoría cosecha numerosos éxitos a lo largo de décadas, sin que se encuentre un solo experimento que obligue a revisarla sustancialmente, podemos llegar a alcanzar una certeza prácticamente total sobre dicha teoría. Este es el caso, por ejemplo, de las teorías atómica y cuántica. Habiendo empezado como conjeturas audaces a principios del siglo XIX y del siglo XX, respectivamente, hoy forman parte del conocimiento establecido sobre el que se basa una ingente cantidad de ciencia y tecnología. De la existencia de átomos y moléculas tenemos tan pocas dudas como de la esfericidad de la Tierra.
Los enunciados universales que componen una teoría científica se proponen a partir de la verificación empírica de numerosos enunciados particulares (o singulares) siguiendo un proceso inductivo. Para ello es necesario que los enunciados particulares describan certezas legítimas, tanto en lo que se refiere al lenguaje matemático utilizado como a la pretensión de correspondencia con la realidad y a nuestra capacidad de confirmarla. Por ejemplo, cuando se resume una serie de observaciones empíricas en el enunciado "la Tierra describe una trayectoria elíptica alrededor del Sol", estamos implícitamente suponiendo la veracidad de varias suposiciones. Entre ellas, que somos capaces de medir, con cierta precisión, la posición relativa de la Tierra con respecto al Sol en diversos instantes, y que podemos identificar la trayectoria con una elipse, dentro de un margen de tolerancia, ya que diversos factores impiden ese comportamiento ideal. Implícitamente, estamos también suponiendo algo que parece obvio pero que es muy importante para nuestra discusión: estamos admitiendo que el concepto matemático de elipse está bien definido y que tenemos derecho a afirmar que, dentro de un margen de error, un conjunto de puntos observados experimentalmente conforman una elipse.
Esta última suposición, la que nos permite asociar una serie de números obtenidos empíricamente con un objeto matemático, es la que no puede adoptarse cuando una supuesta ley universal invoca el azar. La razón es que, como hemos señalado, el azar no puede asignarse con seguridad a secuencia matemática alguna. Y aquí no cabe invocar el matiz de "dentro de un margen de error". Supongamos que tomamos el segundo millón de decimales del número π. Su apariencia es totalmente aleatoria y, sin embargo, sabemos que es una secuencia radicalmente no aleatoria.
Por supuesto, esta observación es compatible con el hecho de que, para muchos fines prácticos, el segundo millón de dígitos de π pueda tomarse como aleatorio. Sin embargo, la puntualización anterior es importante cuando nos referimos a leyes que invocan el azar con pretensión de universalidad, especialmente si la asociación con el azar se utiliza para llegar a conclusiones metafísicas (tales como la ausencia de diseño en la naturaleza) y más especialmente aun si esas propuestas filosóficas se presentan como parte del conocimiento científico establecido. De nuevo, esta observación es compatible con el hecho de que el azar sea una hipótesis útil, incluso esencial, en muchos contextos de la ciencia. Sin embargo, no es un dato científico que pueda utilizarse para llegar a conclusiones filosóficas.
El azar en la interpretación de la biología de la evolución
La evidencia científica a favor de la continuidad histórica y el parentesco genético de las diversas especies biológicas es abrumadora, comparable a la seguridad que tenemos de la validez de la teoría atómica [Ayala 1997, 2006]. Sin embargo, por razones que ya hemos ido adelantando, no se puede decir lo mismo de un elemento que siempre se incluye en las descripciones de la biología de la evolución. El problema no es metodológico, ya que, como hemos señalado, el azar es una hipótesis de trabajo útil y esencial en muchos campos de la ciencia, en particular en la física cuántica y en la biología de la evolución que ahora nos ocupa. El problema surge cuando el papel del azar se considera suficientemente establecido como para llevarlo al terreno de los principios, en el dominio donde se debaten las ideas filosóficas.
En 1970, el biólogo francés Jacques Monod (1910-1976) publicó su obra Le hasard et la necessité (Essai sur la philosophie naturelle de la biologie moderne), que ha tenido una gran influencia en el pensamiento biológico del último medio siglo. Monod contrapone azar y selección natural como los dos mecanismos motores de la evolución, el primero indeterminista y el segundo determinista. Identifica el azar con indeterminismo sin proyecto, pero nunca llega a definirlo de forma cuantitativa, salvo alguna referencia a su posible origen cuántico (lo cual tampoco despeja el problema matemático). La falta de una definición precisa no es óbice para que Monod invoque con frecuencia el azar como un concepto esencial. Lo presenta como la única fuente posible de las mutaciones genéticas y de toda novedad en la biosfera, para a continuación afirmar que el azar es la única hipótesis compatible con la experiencia. Como puede parecer que exagero, reproduzco a continuación un párrafo suficientemente autocontenido. Tras describir algunos tipos de mutaciones genéticas, afirma30:
"Decimos que estas alteraciones son accidentales, que se producen al azar. Y ya que constituyen la única fuente posible de modificaciones del texto genético, único depositario, a su vez de las estructuras hereditarias del organismo, se deduce necesariamente que sólo el azar está en el origen de toda novedad, de toda creación en la biosfera. El puro azar, sólo el azar, la libertad absoluta pero ciega, en la raíz misma del prodigioso edificio de la evolución: esta noción central de la biología moderna no es ya una hipótesis, entre otras posibles o al menos concebibles. Es la única concebible, como única compatible con los hechos de observación y de experiencia. Y nada permite suponer (o esperar) que nuestras concepciones sobre este punto deberán o incluso podrán ser revisadas."
Se puede entender que el profesor Monod no conociera los trabajos de Chaitin, cuyo trabajo sobre la fundamental indemostrabilidad del azar, aunque empieza en los años 60, aún no parece haber llegado a los biólogos, pero es más difícil de justificar que ignorara, en primer lugar, la vieja intuición (previa al trabajo de Chaitin) de que el azar es, si no imposible, al menos difícil de demostrar y, en segundo lugar, el criterio de falsación de Popper, sabiendo que es difícil idear un experimento u observación que arroje como resultado contundente la ausencia de azar (al menos Monod no proponía ninguno), es decir, que la hipótesis del azar no es refutable. Sobre esta cuestión nos extendemos a continuación.
Diseño y azar quedan fuera del alcance del método científico
Relacionando los trabajos de Chaitin sobre el azar con el debate sobre la finalidad, el matemático austríaco Hans-Christian Reichel (1945-2002) hizo la siguiente observación [Reichel, 1997]31:
"¿Es la evolución de la vida aleatoria o se basa en alguna ley?…La única respuesta que las matemáticas pueden dar acaba de ser indicada: la hipótesis de la aleatoriedad es indemostrable en principio, y, a la inversa, la tesis teleológica es irrefutable en principio."
Esta conclusión lógica puede verse como una fortaleza de las teorías de diseño, ya que no pueden ser rebatidas, pero también puede entenderse como una debilidad, ya que, según el criterio de Popper, una teoría que es irrefutable en principio, no puede ser científica.
Llegamos a la conclusión de que, debido a que (i) el azar no se puede verificar para una sucesión particular de eventos naturales (convenientemente matematizados), entonces, de forma equivalente, (ii) la finalidad no se puede refutar como ley general que pretende describir muchas de esas secuencias32. A esta conclusión hemos llegado por razones muy fundamentales que tienen su raíz en los teoremas de Gödel, con independencia de que antes ya pudiera parecer intuitiva a muchos.
De forma análoga, podemos preguntarnos si es legítimo afirmar (iii) que el diseño no se puede verificar para una secuencia particular de eventos naturales, o su equivalente, (iv) que la hipótesis del azar no es refutable como ley universal aplicable a una amplia clase de secuencias. Para demostrar estas dos últimas afirmaciones equivalentes, puede parecer que carecemos de un teorema fundamental del tipo invocado en los párrafos anteriores. Sin embargo, la debilidad de la hipótesis del azar no reside tanto en que es prácticamente irrefutable cuando es invocada como ingrediente de una ley general, sino en que es fundamentalmente inverificable cuando se asigna a cualquier evento singular propiamente caracterizado por una secuencia matemática. El criterio de falsabilidad de Popper enfatiza que, para ser considerada científica, una afirmación universal debe ser susceptible de refutación por la hipotética observación de un evento singular que contradijera la propuesta general. Sin embargo, en dicho criterio se da por supuesto que la ley general puede al menos ser verificada en un número finito de casos individuales que proporcionan la base de la inducción. Este último requisito no puede ser satisfecho por la hipótesis del azar, por razones fundamentales ancladas en los teoremas de Gödel.
Dicho en pocas palabras, el trabajo de Chaitin sobre la indecibilidad del azar nos lleva a la conclusión que la hipótesis del diseño es irrefutable como ley general mientras que la hipótesis del azar es inverificable en cualquier caso particular. Ambos tipos de suposiciones quedan fuera del alcance del método científico.
Podemos llegar a una conclusión similar siguiendo un razonamiento más intuitivo no ligado a teoremas fundamentales. Para ello imaginamos una conversación entre dos científicos que son también filósofos de la naturaleza.
Supongamos que enfrentamos (amistosamente) a Alberto y Beatriz. Les mostramos dos largas secuencias de cifras que han sido generadas por un mecanismo cuya interpretación es polémica. Unos dicen que el mecanismo es aleatorio; otros piensan que alguien con un poco de paciencia las diseña a mano. A su vez, no se les informa sobre si esas secuencias han sido elegido aleatoriamente entre otras muchas generadas por el mismo mecanismo, o si han sido escogidas a propósito para complicar el debate. Alberto está convencido de que el mecanismo es aleatorio; Beatriz de que hay un diseñador. Ambos están poco dispuestos a ceder en sus posturas. De las dos secuencias, la primera tiene apariencia aleatoria, sin una pauta clara, mientras que la segunda muestra unos evidentes patrones repetitivos. Las dos secuencias describen fenómenos naturales completamente distintos. Es decir, los debates sobre el carácter aleatorio de cada una de las secuencias son independientes. Sin embargo, tiene en común que Alberto sostiene la aleatoriedad de ambas y Beatriz el diseño de ambos. Ambos defienden sus posturas de forma apasionada, aunque cada uno se esfuerza honestamente por ser racional y objetivo.
Empieza el debate. Ambos desconocen los trabajos de Chaitin sobre Gödel y Turing. Discuten sobre la primera secuencia. Alberto dice que obviamente es aleatoria, pues no presenta un patrón claro. Beatriz defiende, por el contrario, que la primera secuencia está diseñada, aunque no de forma evidente. Según ella, el diseñador ha procurado dar una apariencia de azar, tratando de evitar cualquier patrón repetitivo o correlación en general. No llegan a un acuerdo.
Si conocieran los trabajos de Chaitin, el debate no cambiaría de forma decisiva. Alberto seguiría diciendo que la primera secuencia no es aleatoria, aunque reconocería que no lo puede demostrar. Beatriz insistiría en la habilidad disimuladora del diseñador y recordaría complacida la esencial imposibilidad de demostrar el carácter aleatorio de la secuencia. Tampoco llegarían a un acuerdo sobre el origen de la secuencia.
Ahora pasan a discutir sobre la segunda secuencia. Beatriz dice que obviamente ha sido diseñada, pues muestra unos patrones claros fáciles de programar. Alberto defiende el carácter aleatorio de la secuencia y argumenta, que entre muchas sucesiones aleatorias, existe siempre una probabilidad no nula de que alguna muestre algunos patrones repetitivos. Además, en virtud del significado físico y biológico que atribuyen a esa segunda secuencia de números, Alberto afirma que esos patrones de apariencia no aleatoria son necesarios para la existencia de ambos debatientes; si la secuencia no hubiera mostrado esas pautas regulares, ellos dos no habrían llegado a existir y no estarían allí para debatirlo. Por lo tanto, no hay que sorprenderse de que la secuencia muestre ciertas regularidades, pues son condición necesaria para la existencia de los debatientes. Es más, añade, es posible que existan otros muchos mundos, pasados o futuros, en los que el equivalente a esa segunda secuencia sea verdaderamente aleatoria, pero esos mundos no pueden alumbrar seres racionales que se reúnan para debatir sobre su diseño. Tampoco se ponen de acuerdo.
En ningún caso llegan a un acuerdo y no parece que haya un experimento u observación que pueda resolver sus discrepancias. El debate presentado es obviamente una caricatura de una discusión real. Sin embargo, es fácil encontrar en él pautas de razonamiento que se oyen con frecuencia en debates actuales sobre la presencia o ausencia de diseño en procesos naturales, ya sean biológicos o cosmológicos. Cuando hay una fuerte motivación filosófica para mantener una interpretación, siempre hay un argumento para defenderla ante cualquier apariencia experimental. Pero es natural que esto sea así porque, en el debate sobre finalidad, no puede haber un experimento u observación decisivos.
Nos vemos abocados a la conclusión de que los debates sobre presencia o ausencia de finalidad quedan fueran del alcance del método científico33. En cualquier escenario empírico, incluso suponiendo que ambos contendientes se han puesto de acuerdo sobre lo que la evidencia experimental parece sugerir a primera vista, el contrincante en desventaja siempre tendrá un argumento para negar la interpretación que parece ganadora. Hemos argumentado que la aparente irreductibilidad del debate azar-diseño es de carácter fundamental ya que puede verse como una consecuencia de los teoremas de Gödel.
Parece más constructivo que, en su quehacer científico, los dos investigadores de la tertulia se concentren en escoger en cada contexto la hipótesis de trabajo que más estimule el progreso del conocimiento, dejando para el ámbito de la interpretación filosófica las consideraciones sobre finalidad que pueden debatirse con las herramientas de la razón pero no con las del método científico.
Conclusión
Hemos visto que la indeterminación física y la incompletitud matemática representan dos límites internos del conocimiento científico, siendo una de sus consecuencias la incapacidad fundamental del método científico para zanjar el debate sobre la existencia de finalidad en la naturaleza. Si la ciencia reconoce explícitamente que no puede alcanzar todas las realidades que nominalmente caen dentro de su dominio, entonces es la misma ciencia la que está revelando que la ciencia no puede explicar toda la realidad. Podríamos ahora invocar además aquellos conceptos metafísicos que ni siquiera pertenecen al dominio de la ciencia. Pero ese ejercicio ya no es necesario si uno tan solo quiere responder a la pregunta "¿Puede la ciencia ofrecer una explicación última de la realidad?" La misma ciencia nos está diciendo que la respuesta es: no.
Si uno quiere invocar esta limitación aceptada por la misma ciencia para inferir la existencia de realidades fuera del dominio de la ciencia, con un elemento de inmaterialidad, ya es una cuestión de elección filosófica. Muchos encontrarán natural concluir que la probada existencia de límites internos de la ciencia refuerza la noción de que también hay límites externos, esto es, que hay realidades que no están fundamentalmente asociadas al dominio de la materia.
Quiero agradecer a Gregory Chaitin, Javier Leach, Anthony Leggett, Miguel Angel Martín-Delgado, Javier Sánchez Cañizares, Ignacio Sols, Ivar Zapata y Wojciech Zurek, las interesantes conversaciones que he tenido con ellos sobre las diversas cuestiones aquí tratadas. A título póstumo, también quisiera agradecer conversaciones con John Eccles y Rolf Landauer. Este agradecimiento no implica acuerdo ni desacuerdo, por parte de las personas mencionadas, con las tesis presentadas en este capítulo. Todos los posibles errores e imprecisiones son responsabilidad mía.
Referencias
Ayala, F. J. (1997). Teoría de la evolución. Barcelona: Planeta.
Ayala, F. J. (2006). Darwin y el diseño inteligente. Bilbao: Ediciones Mensajero.
Chaitin, G. (1975). Randomness and Mathematical Proof. Sci. Am. 232, pp. 47-52.
Chaitin, G. (1988). Randomness in Arithmetic. Sci. Am. 259, pp. 80-85.
Chaitin, G. (1997). Number and randomness: algorithmic information theory - new results on the foundations of mathematics. En: Driessen, A., y Suarez, A. eds. Mathematical Undecidability, Quantum Nonlocality and the Question of the Existence of God. Dordrecht (the Netherlands): Kluwer Academic Publishers, p. 15.
Chaitin, G. (2005). Meta Math! The Quest for Omega. New York: Vintage Books.
Chaitin, G. (2006). The limits of reason. Sci. Am., March 2006, 74-81.
Dembski, W. A. (2006). Diseño Inteligente. Madrid: Homo Legens.
Eagle, A. (2005). Randomness is unpredictability. British Journal for the Philosophy of Science, 56 (4), 749–790.
Eccles, J. C. (1992). Evolution of consciousness. Proc. Natl. Acad. Sci. USA 89, pp. 7320-7324; Beck F., Eccles J. C. (1992). Quantum aspects of brain activity and the role of consciousness. Proc. Natl. Acad. Sci. USA 89, pp. 11357-11361.
Fernández-Prida, José (2009). Lógica matemática. Madrid: Marova.
Koch, K., Hepp, K. (2006). Quantum mechanics in the brain. Nature 440, 611-612.
Landauer, R. (1991). Information is Physical.Physics Today, May 1991, p. 23.
Leach, J. (2011). Matemáticas y Religión. Santander: Sal Terrae.
Monod, J. (2007). El azar y la necesidad. Barcelona: Tusquets Editores.
Popper, K. (1985). La lógica de la investigación científica. Madrid: Tecnos.
Popper, K. (1986). El universo abierto. Madrid: Tecnos.
Reichel, H. C. (1997). How can or should the recent developments in mathematics influence the philosophy of mathematics? En: Driessen, A., y Suarez, A. eds. Mathematical Undecidability, Quantum Nonlocality and the Question of the Existence of God. Dordrecht (the Netherlands): Kluwer Academic Publishers, p. 3.
Smith, K. (2011). Taking aim at free will. Nature 477, 23-25.
Wheeler, J. A. (1983). Law without Law. En: Wheeler, J. A., y Zurek, W. H. eds. Quantum Theory and Measurement, eds. J. A. Wheeler and W. H. Zurek, Princeton University Press, Princeton (1983) 182.
Zurek, W. H. (1998). Decoherence, Chaos, Quantum-Classical Correspondence, and the Algorithmic Arrow of Time. Physica Scripta T76, pp. 186-198.
Notas
(1) Muchas de las ideas presentadas en este artículo están ya discutidas en [F. Sols, Can Science offer an ultimately explanation of reality? Revista Pensamiento (ICAI, Universidad Pontificia de Comillas, Madrid)], [F. Sols, Uncertainty, incompleteness, chance, and design, in Intelligible Design, M. M. Carreira and Julio Gonzalo, eds., World Scientific (Singapore, 2013), in press;http://arxiv.org/abs/1301.7036], [F. Sols, Heisenberg, Gödel y la cuestión de la finalidad en la ciencia, in Ciencia y Religión en el siglo XXI: recuperar el diálogo, Emilio Chuvieco and Denis Alexander, eds., Editorial Centro de Estudios Ramón Areces (Madrid, 2012)].
(2) El cálculo infinitesimal fue desarrollado en paralelo por su contemporáneo Gottfried Leibniz (1646-1716).
(3) Producto de la masa por la velocidad, también llamado cantidad de movimiento.
(4) Más precisamente, podemos decir que la posición x(t) y momento lineal p(t) en el tiempo t están determinados por la posición x(0) y el momento p(0) en el instante inicial t=0. Para un sistema de muchas partículas en más de una dimensión, las variables x,p pueden interpretarse como vectores multidimensionales cuyas componentes son las posiciones y momentos de cada una de las partículas en las tres direcciones del espacio.
(5) El error en la posición y el momento en el instante inicial, Δx(0) y Δp(0), deben tender a cero para que, en un tiempo t muy posterior (que tiende a infinito), la predicción tenga un error en dichas variables, Δx(t) y Δp(t), igual a un valor previamente fijado.
(6) Werner Heisenberg (1900-1976).
(7) La mecánica que es descrita por la ecuación de onda que lleva el nombre del físico Erwin Schrödinger (1887-1961), quien la propuso en 1925.
(8) Rolf Landauer (1927-1999) solía decir que "la información es física" [Landauer, 1991]. El corolario es que, si no hay soporte físico, no hay información. Esta emerge a medida que las diversas posibles evoluciones futuras se van concretando.
(9) La indeterminación como base de un futuro abierto es defendida por el filósofo Karl Popper (1902-1904) en sus libros El universo abierto: un argumento a favor del indeterminismo [Popper, 1986] y Die Zukunft is offen (1985), esta última escrita junto con el zoólogo austríaco Konrad Lorenz (1903-1989).
(10) El movimiento de traslación es mucho más estable.
(11) Aunque las teorías de variables ocultas han estado generalmente motivadas por el deseo de restaurar el determinismo en la visión del mundo, en sentido estricto lo característico de dichas teorías es el realismo, es decir la perfecta definición simultánea de todas las variables físicas. De hecho, existen modelos de variables ocultas estocásticas donde el realismo no va acompañado de determinismo.
(12) Prestigio y marginalidad son en este caso compatibles porque un científico puede disfrutar de un merecido prestigio labrado con éxitos en ciencia convencional mientras que en otro ámbito, y motivado por sus preferencias filosóficas, defiende propuestas teóricas de difícil o imposible comprobación experimental que no tiene el respaldo mayoritario de la comunidad científica.
(13) Citando literalmente a Guillermo de Ockham (1288-1348), entia non sunt multiplicanda praeter necessitatem (las entidades no se deben multiplicar más allá de lo necesario).
(14) Esta afirmación no es cierta para algunas cantidades físicas conservadas (tales como la carga eléctrica) debido a las llamadas reglas de superselección. Suponemos que S no pertenece a ese tipo de observables.
(15) Podemos pensar en un orbital molecular que combina dos orbitales atómicos localizados en átomos distintos. En este caso los orbitales atómicos no serían estrictamente autoestados de la posición pero cada uno de ellos estaría más localizado (tendrían menor incertidumbre en la posición) que el orbital molecular que resulta de combinar ambos.
(16) El caso paradigmático sería el de un experimento imaginario formulado por Schrödinger que tendría como resultado la superposición de un gato vivo y un gato muerto, algo que no esperamos observar en la realidad. En los últimos años, se ha investigado mucho sobre el problema de un sistema cuántico acoplado a un baño disipativo que actúa como aparato de medida macroscópico. Bajo el liderazgo de Anthony J. Leggett (n. 1938), se ha concluido y comprobado experimentalmente que, en determinadas condiciones, pueden existir superposiciones lineales de estados macroscópicamente distintos. Sin embargo, esto solo ocurre en casos muy especiales que quedan fuera del alcance de una discusión básica como la presente.
(17) John von Neumann (1903-1957).
(18) Esta afirmación general es compatible con la existencia de un amplio rango de situaciones en el que la mecánica cuántica predice un determinado resultado con probabilidad cercana a uno. Este el caso de la mecánica clásica (entendida como límite de la cuántica) lejos de bifurcaciones potencialmente problemáticas. El proceso indicado en (3)-(4) está radicalmente alejado de ese límite clásico determinista.
(19) John Archibald Wheeler (1911-2008).
(20) Nos referimos aquí un acto de libertad elemental tal como levantar un brazo u otro, o mirar a uno u otro lado. No entramos aquí en la cuestión del determinismo sociológico.
(21) En los últimos años de su vida, el neurofisiólogo australiano John C. Eccles (1903-1997) identificó un proceso neuronal que podría reunir todos los requisitos para estar en la base de una decisión objetivamente libre [Eccles, 1992]. Otros neurocientíficos cuestionan la realidad del libre albedrío [Koch, 2006; Smith, 2011]. En relación con la referencia [Koch, 2006], queremos notar que la mecánica cuántica es bastante más amplia que la computación cuántica.
(22) En sentido estricto, hay que decir este es el punto de vista logicista en matemáticas, y por tanto es solo una opinión, aunque la opinión más extendida. Lo que no es una opinión, sino un hecho, es que todas las matemáticas que guardamos en nuestras bibliotecas son lógicamente deducibles de los axiomas de la teoría de conjuntos.
(23) Muy posteriormente, el teorema de completitud ha tenido aplicaciones matemáticas convencionales
(24) Ideas similares fueron propuestas en paralelo por el norteamericano Alonzo Church (1903-1995).
(25) Forma abreviada de referirnos a un programa que contiene su propio input, o sea, un par (máquina, input) o (programa, input).
(26) En el libro de la Sabiduría, escrito probablemente en el siglo I a.C., la referencia al azar se pone en boca de los impíos (Sab, 2, 2), a quienes se atribuyen afirmaciones que sugieren que el debate sobre la finalidad es bastante más antiguo de lo que puede parecer.
(27) Conviene hacer una precisión terminológica. En inglés hay dos palabras que son prácticamente sinónimas: chance y randomness. La primera se puede traducir como azar y la segunda como aleatoriedad, siendo random equivalente a aleatorio. En contextos de biología se utiliza más el término chance, mientras que randomness es el término favorecido en física y matemáticas. La palabra chance tiene una connotación dinámica, propia de la biología, y randomness un matiz estático, propio de la matemática. En muchos casos prácticos se pueden tomar como equivalentes, ya que la incapacidad de anticipar el futuro está directamente relacionada con la incapacidad de encontrar un patrón claro en los sucesos del pasado, una vez registrados de forma cuantitativa y por lo tanto matemática. Sin embargo, no son equivalentes en sentido estricto. Por ejemplo, como resultado del azar, se puede, con probabilidad baja, generar una secuencia no aleatoria. Para una discusión detallada, ver ej. [Eagle, 2005].
(28) Nos referimos aquí a las matemáticas que se utilizan en física experimental y física computacional, que son siempre finitas. Al matemático alemán Leopold Kronecker (1823-1891), que era un convencido constructivista, se le atribuye la frase: "Dios hizo los números naturales; todo lo demás es obra del hombre".
(29) (Por supuesto, en la práctica una teoría solo se revisa con las debidas cautelas (entre ellas, la reproducción independiente de los experimentos que contradicen teoría), y estas tienen que ser tanto más esmeradas cuanto mayor ha sido la capacidad de predicción exitosa que la teoría ha mostrado hasta entonces.
(30) Texto tomado de la edición castellana [Monod, 2007]. Los énfasis en itálica son de Monod.
(31) La traducción al castellano es mía. Los énfasis son de Reichel.
(32) En este contexto, una secuencia sería un conjunto ordenado de números que caracterizan las propiedades y el calendario de las mutaciones genéticas que conducen de una especie biológica a otra, suponiendo que algún día pudiéramos disponer de esa información con suficiente precisión.
(33) Es curioso notar que en otros contextos la existencia de diseño no es polémica. Por ejemplo, nadie duda de la existencia de diseño en un avión y, sin embargo, en sentido estricto, no es más demostrable o menos refutable que el diseño en la evolución biológica. En particular, no cabe diseñar un experimento que arroje como resultado que el avión ha sido diseñado. La diferencia es que en la vida ordinaria tenemos experiencia directa del diseño. Sabemos que hay ingenieros que diseñan y, sin necesidad de mucha formación, cualquier persona puede decidir la distribución de objetos en su habitación. Pero no hay la misma evidencia sobre un diseñador externo que haya podido facilitar el progreso de algunas especies. Por eso la cuestión del diseño en la evolución biológica siempre será más controvertida.