A principios del siglo XX se
produjeron dos grandes revoluciones en la ciencia física, en los dos extremos
de su campo de estudio, en el campo de lo muy pequeño, con la mecánica
cuántica, y en el campo de lo muy grande, con la teoría de la relatividad. Las
connotaciones filosóficas de estas dos maravillosas teorías han sido enormes,
al punto de que han planteado la posibilidad e incluso la necesidad de un cambio
de paradigmas, es decir, de los núcleos teóricos desde los cuales comprendemos
el mundo.
a. La Teoría de la Relatividad
Esta teoría fue elaborada por Albert
Einstein en los primeros años del siglo XX, e implicó la transformación de la
visión de mundo imperante en el mundo occidental, a partir de la física
newtoniana y las ideas de Descartes, el mecanicismo.
Aunque
Einstein nunca lo quiso ver así, sus ideas contribuyeron para que la ciencia
nos revele un mundo marcado fuertemente por la indeterminación. El hecho de que
el resultado de una medición dependa del sistema de referencia empleado, y no
del fenómeno en cuanto tal nos muestra la complejidad que ha alcanzado la
física con la teoría de la relatividad.
La teoría de la relatividad especial revela tres fundamentales axiomas
que ponen en cuestión los principios de la mecánica clásica: primero, que la
velocidad de la luz es constante en el vacío, y no depende de la velocidad de
la fuente luminosa ni de la velocidad del observador; segundo, no existe el
éter; tercero, las ecuaciones de transformación de Galileo deben ser
reemplazadas por las de Lorentz. Desde estos cambios el positivismo es salvado
a fuerza de “operacionalismo”, es decir, que desde la teoría de la relatividad
un fenómeno natural encuentra sentido a partir de las operaciones que se llevan
a cabo para registrarlo. En ello va impresa la presencia del observador, nuevo
protagonista del juego científico.
A su vez, con la teoría de la relatividad general, las nuevas geometrías
(de Lovatchevski y Riemann) cobran validez física, y nos permiten comprender el
espacio más allá de los principios newtonianos.
b. La Mecánica Cuántica
A fines del siglo XIX se perfilaba
la unidad de todas las ciencias naturales en esa búsqueda ilusoria del control
total de la naturaleza, como si ella fuera un simple animal de carga, o una
máquina que respondía obedientemente a los cálculos numéricos. Surgió así el
intento de conjugar la termodinámica y el electromagnetismo.
Uno de los principales problemas de la termodinámica a principios del
siglo veinte era el de la radiación de la materia bajo la acción del calor.
Para llevar a cabo las pruebas experimentales se utilizaba el llamado “cuerpo
negro”, que tenía la ventaja de que absorbía e irradiaba por completo la
luz con la que era bombardeado, por lo
cual no se coloreaba. El problema consistía en que se conocía la distribución
energética de la zona violeta del espectro de ondas, mientras que se ignoraba
la zona roja; luego se idearon experimentos que explicaban la zona roja pero a
la vez la zona violeta quedaba inexplicada. El problema fue solucionado por Max
Planck, a través de la formulación de una ecuación (E=hv) que implicaba la
descontinuidad tanto de la materia como de la energía, en paquetes o cuantos.
Esto venía a poner en duda los principios más fundamentales del
electromagnetismo, lo que acarrearía al final la crisis del edificio de la
ciencia física.
Planck había elaborado la ecuación para sortear un problema empírico,
pero hasta 1905 no se pudo dilucidar el sentido de esta expresión matemática. Y
fue Albert Einstein quien basándose en
los cuantos de Planck explicó el “efecto fotoeléctrico” abriendo con ello una
nueva perspectiva para la explicación de la naturaleza.
Pero si según las investigaciones de Einstein las ondas se comportaban
como partículas, también era cierto a la inversa, es decir, también las
partículas se comportaban como ondas. La explicación de este fenómeno fue obra
del científico Louis De Blogie, a través de su principio de la dualidad
onda-partícula. Esto implicaba que uno
de los principios fundamentales de la lógica, el “tercero excluido”, quedaba
momentáneamente invalidado, puesto que una partícula era y no era a la vez una
partícula, puesto que también se mostraba como onda. Solo en un segundo
momento, a través de la participación del observador se podía dilucidar la
duda.
El hecho de que el hombre observara la naturaleza no era ya una
situación insignificante, sino antes bien, se relacionaba con una modificación
radical del objeto observado. El “principio de incertidumbre” de Werner Heisenberg
revela esta asombrosa expresión de la teoría cuántica. En él se sostiene que a
medida que se conoce con mayor claridad la posición de una partícula, más se
ignora su cantidad de movimiento, y a la inversa.
Las implicancias teóricas de la mecánica cuántica llegaron a tal punto
que la misma naturaleza terminaba por
ser explicaba por complejas ecuaciones matemáticas antes que por sólidas
experimentaciones empíricas. El
principio de simetría (basado en ecuaciones matemáticas) desprendido de la
filosofía de Platón, repentinamente empezó mayor sentido científico que la
concepción atómica y materialista de Demócrito.
Einstein y Planck se negaron durante toda sus vidas a aceptar esta
interpretación de la mecánica cuántica; es muy famosa la frase acuñada por
Einstein de que “Dios no juega a los dados con el mundo”. A su vez, sostenía que la indeterminación
que revelaba la mecánica cuántica se debía a la existencia de unas “variables
ocultas”, que una vez descubiertas permitirían ver al mundo en forma
determinista.
Para apoyar su posición, Einstein ideó junto a dos de sus discípulos, un
ingenioso experimento mental, que constituye a la conocida paradoja
Einstein-Podolski-Rosen (EPR). En ella (basándose en los resultados de su
teoría de la relatividad, que explica que ninguna partícula puede viajar más
rápido que la velocidad de la luz) se
demuestra claramente, según Einstein, el carácter determinista de la naturaleza
y se soluciona el problema de la incertidumbre en la mecánica cuántica.
En respuesta a este desafiante planteamiento, Niels Bohr propuso la
llamada “interpretación de Copenhague”. En ella se sostiene que las propiedades
microscópicas de una partícula deben ser consideradas dentro del contexto
macroscópico total. Esto significa que en un sistema cuántico, aunque una
partícula A y otra B estén separadas por distancias siderales, de todas maneras
se encuentran interconectadas. Esto lo ironizó Einstein llamándolo “acción
fantasmal a distancia”.
Para dilucidar este enigmático problema hacía falta encontrar alguna
prueba experimental que apoyara a una de las dos posturas. Y así, en 1965
apareció el teorema o la desigualdad de Bell, que proponía algunas condiciones
experimentales como: realidad exterior del observador y la propiedad de
localidad (no existe acción instantánea, velocidad máxima: la de la luz). En este
marco experimental, si Bohr tuviera razón, en ciertas condiciones el grado de “conexión”
entre A y B debería sobrepasar el límite de Bell.
El momento de la contrastación experimental de este teorema llegó en el año
1982, con el experimento de Aspect. Y se cumplió lo fantástico, lo mágico, lo
maravilloso, pues al final, al parecer, no existen variables ocultas y Dios
efectivamente juega a los dados con el mundo. Aparentemente Bohr tenía razón.
Extracto, ampliación y modificación de
“Retorno. Ensayo de antropología filosófica”.
Bibliografía:
-Chalmers, Alan. ¿Qué es esa cosa
llamada ciencia? Siglo XXI, Buenos Aires, 1982.
-Hawking, Stephen. Historia del tiempo. Grigalbo, Barcelona, 1998.
-Heisenberg, Werner.
La imagen de la naturaleza en la física actual. Planeta,
Bs As, 1993.
-Morin, Edgar. Introducción al pensamiento
complejo. Gedisa, Barcellona, 2007.
-Navarro Cordón-Calvo Martínez. Historia
de la filosofía. Anaya, Madrid, 1992.
-Popper, Karl. Teoría cuántica y cisma
en física. Tecnos, Madrid, 1992.
No hay comentarios:
Publicar un comentario