miércoles, 19 de junio de 2013

LAS REVOLUCIONES DE LA CIENCIA


A principios del siglo XX se produjeron dos grandes revoluciones en la ciencia física, en los dos extremos de su campo de estudio, en el campo de lo muy pequeño, con la mecánica cuántica, y en el campo de lo muy grande, con la teoría de la relatividad. Las connotaciones filosóficas de estas dos maravillosas teorías han sido enormes, al punto de que han planteado la posibilidad e incluso la necesidad de un cambio de paradigmas, es decir, de los núcleos teóricos desde los cuales comprendemos el mundo.

a. La Teoría de la Relatividad

Esta teoría fue elaborada por Albert Einstein en los primeros años del siglo XX, e implicó la transformación de la visión de mundo imperante en el mundo occidental, a partir de la física newtoniana y las ideas de Descartes, el mecanicismo.

  Aunque Einstein nunca lo quiso ver así, sus ideas contribuyeron para que la ciencia nos revele un mundo marcado fuertemente por la indeterminación. El hecho de que el resultado de una medición dependa del sistema de referencia empleado, y no del fenómeno en cuanto tal nos muestra la complejidad que ha alcanzado la física con la teoría de la relatividad.

   La teoría de la relatividad especial revela tres fundamentales axiomas que ponen en cuestión los principios de la mecánica clásica: primero, que la velocidad de la luz es constante en el vacío, y no depende de la velocidad de la fuente luminosa ni de la velocidad del observador; segundo, no existe el éter; tercero, las ecuaciones de transformación de Galileo deben ser reemplazadas por las de Lorentz. Desde estos cambios el positivismo es salvado a fuerza de “operacionalismo”, es decir, que desde la teoría de la relatividad un fenómeno natural encuentra sentido a partir de las operaciones que se llevan a cabo para registrarlo. En ello va impresa la presencia del observador, nuevo protagonista del juego científico.

   A su vez, con la teoría de la relatividad general, las nuevas geometrías (de Lovatchevski y Riemann) cobran validez física, y nos permiten comprender el espacio más allá de los principios newtonianos.

b. La Mecánica Cuántica

A fines del siglo XIX se perfilaba la unidad de todas las ciencias naturales en esa búsqueda ilusoria del control total de la naturaleza, como si ella fuera un simple animal de carga, o una máquina que respondía obedientemente a los cálculos numéricos. Surgió así el intento de conjugar la termodinámica y el electromagnetismo.

   Uno de los principales problemas de la termodinámica a principios del siglo veinte era el de la radiación de la materia bajo la acción del calor. Para llevar a cabo las pruebas experimentales se utilizaba el llamado “cuerpo negro”, que tenía la ventaja de que absorbía e irradiaba por completo la luz  con la que era bombardeado, por lo cual no se coloreaba. El problema consistía en que se conocía la distribución energética de la zona violeta del espectro de ondas, mientras que se ignoraba la zona roja; luego se idearon experimentos que explicaban la zona roja pero a la vez la zona violeta quedaba inexplicada. El problema fue solucionado por Max Planck, a través de la formulación de una ecuación (E=hv) que implicaba la descontinuidad tanto de la materia como de la energía, en paquetes o cuantos. Esto venía a poner en duda los principios más fundamentales del electromagnetismo, lo que acarrearía al final la crisis del edificio de la ciencia física.

   Planck había elaborado la ecuación para sortear un problema empírico, pero hasta 1905 no se pudo dilucidar el sentido de esta expresión matemática. Y fue Albert Einstein quien  basándose en los cuantos de Planck explicó el “efecto fotoeléctrico” abriendo con ello una nueva perspectiva para la explicación de la naturaleza.

   Pero si según las investigaciones de Einstein las ondas se comportaban como partículas, también era cierto a la inversa, es decir, también las partículas se comportaban como ondas. La explicación de este fenómeno fue obra del científico Louis De Blogie, a través de su principio de la dualidad onda-partícula.  Esto implicaba que uno de los principios fundamentales de la lógica, el “tercero excluido”, quedaba momentáneamente invalidado, puesto que una partícula era y no era a la vez una partícula, puesto que también se mostraba como onda. Solo en un segundo momento, a través de la participación del observador se podía dilucidar la duda.

   El hecho de que el hombre observara la naturaleza no era ya una situación insignificante, sino antes bien, se relacionaba con una modificación radical del objeto observado. El “principio de incertidumbre” de Werner Heisenberg revela esta asombrosa expresión de la teoría cuántica. En él se sostiene que a medida que se conoce con mayor claridad la posición de una partícula, más se ignora su cantidad de movimiento, y a la inversa.    

      Las implicancias teóricas de la mecánica cuántica llegaron a tal punto que la misma naturaleza terminaba por  ser explicaba por complejas ecuaciones matemáticas antes que por sólidas experimentaciones empíricas.  El principio de simetría (basado en ecuaciones matemáticas) desprendido de la filosofía de Platón, repentinamente empezó mayor sentido científico que la concepción atómica y materialista de Demócrito.

   Einstein y Planck se negaron durante toda sus vidas a aceptar esta interpretación de la mecánica cuántica; es muy famosa la frase acuñada por Einstein de que “Dios no juega a los dados con el mundo”.   A su vez, sostenía que la indeterminación que revelaba la mecánica cuántica se debía a la existencia de unas “variables ocultas”, que una vez descubiertas permitirían ver al mundo en forma determinista.  

   Para apoyar su posición, Einstein ideó junto a dos de sus discípulos, un ingenioso experimento mental, que constituye a la conocida paradoja Einstein-Podolski-Rosen (EPR). En ella (basándose en los resultados de su teoría de la relatividad, que explica que ninguna partícula puede viajar más rápido que la velocidad de la luz)  se demuestra claramente, según Einstein, el carácter determinista de la naturaleza y se soluciona el problema de la incertidumbre en la mecánica cuántica.

   En respuesta a este desafiante planteamiento, Niels Bohr propuso la llamada “interpretación de Copenhague”. En ella se sostiene que las propiedades microscópicas de una partícula deben ser consideradas dentro del contexto macroscópico total. Esto significa que en un sistema cuántico, aunque una partícula A y otra B estén separadas por distancias siderales, de todas maneras se encuentran interconectadas. Esto lo ironizó Einstein llamándolo “acción fantasmal a distancia”. 

   Para dilucidar este enigmático problema hacía falta encontrar alguna prueba experimental que apoyara a una de las dos posturas. Y así, en 1965 apareció el teorema o la desigualdad de Bell, que proponía algunas condiciones experimentales como: realidad exterior del observador y la propiedad de localidad (no existe acción instantánea, velocidad máxima: la de la luz). En este marco experimental, si Bohr tuviera razón, en ciertas condiciones el grado de “conexión” entre A y B debería sobrepasar el límite de Bell.

   El momento de la contrastación experimental de este teorema llegó en el año 1982, con el experimento de Aspect. Y se cumplió lo fantástico, lo mágico, lo maravilloso, pues al final, al parecer, no existen variables ocultas y Dios efectivamente juega a los dados con el mundo. Aparentemente Bohr tenía razón.   




Extracto, ampliación y modificación de “Retorno. Ensayo de antropología filosófica”.




Bibliografía:

-Chalmers, Alan. ¿Qué es esa cosa llamada ciencia? Siglo XXI, Buenos Aires, 1982.

-Hawking, Stephen. Historia del tiempo. Grigalbo, Barcelona, 1998.

-Heisenberg, Werner. La imagen de la naturaleza en la física actual. Planeta, Bs As, 1993.

-Morin, Edgar. Introducción al pensamiento complejo. Gedisa, Barcellona, 2007.

-Navarro Cordón-Calvo Martínez. Historia de la filosofía. Anaya, Madrid, 1992.

-Popper, Karl. Teoría cuántica y cisma en física. Tecnos, Madrid, 1992.
 

 

 
 


 

 

No hay comentarios: