6.1 ¿Es el micromundo intrínsecamente aleatorio?

OPINIONES

¿Es el micromundo intrínsecamente aleatorio?


RESUMEN: una explicación dada por D’Broglie de una famosa demostración de Von Neumann nos sirve de pretexto para puntualizar y repasar aspectos de la causalidad, y el significado de la probabilidad en la física cuántica.


D’Broglie trata magistralmente el tema del determinismo en el capítulo 10, Azar y contingencia en la física cuántica, de su libro FÍSICA Y MICROFÍSICA.

Las ideas sobre el determinismo son muy variadas y equivocas. En ningún término como en este es necesario puntualizar que entiende por tal quien hace uso de él.

Este concepto como muchos otros ha evolucionado con el tiempo y sin embargo nos encontramos a veces discusiones sobre temas superados. Nosotros hemos llegado sobre el mismo a las siguientes conclusiones:

  1. El determinismo en el sentido de Laplace,—todo está determinado—ES FALSO. Allí donde interviene el hombre con su capacidad de elegir entre diferentes posibilidades de acción, y su voluntad transformadora, no es posible, en general, establecer a priori el curso de acción que tomarán los acontecimientos.

 

  1. Aun en el terreno puramente físico (no social) el determinismo es incapaz de predecirlo todo. En la naturaleza no deja de cumplirse una rigurosa causalidad; pero la posibilidad de predicción está condicionada por nuestro conocimiento de las variables que intervienen en el fenómeno y de las relaciones que las ligan, así como por nuestra capacidad técnica de cálculo.

 

  1. La causalidad se manifiesta siempre. Aun en el caso en que interviene el hombre, nos falte conocimiento, o el azar sea realmente objetivo.

ESTA ES UNA FORMA DE PENSAR

QUE NOS ES INHERENTE.

 

  1. Si enmarcamos dentro del plano de lo posible que no sea el hombre el único con la capacidad de escoger, lo que parece aceptable en la esfera biológica, la aleatoriedad esencial —la que no es fruto de la falta de conocimientos— se amplia.

 

  1. Por último, la historia científica conocida del mundo manifiesta un propósito: el logro de estructuras (entes) cada vez más organizados en el sentido de una mayor capacidad de acción. La sustancia parece moverse hacia una mayor espiritualidad.

¿Esto nos autoriza a extender la capacidad para decidir, en alguna medida, a átomos, moléculas, y partículas elementales?

Un sí parece demasiado atrevido; pero no deja de estar dentro de la esfera de lo posible.

  1. Cualquiera que sea el caso el principio de causalidad subsiste.

Y RESULTA INVARIANTE

CON EL COMPORTAMIENTO DE LO EXTERNO

E INHERENTE

A NUESTRAS FORMA DE PENSAMIENTO.

**********

D’Broglie nos cuenta: “En su obra capital que publico en Berlín antes de partir para los Estados Unidos el eminente físico matemático Johann Von Neumann dirigió, en particular contra la extensión, a su entender arbitraria, del determinismo aparente de los fenómenos macroscópicos, a los fenómenos de la  escala atómica, una severa requisitoria de la que he aquí algunos pasajes”[1]:

 

“Puede resumirse como sigue el estado de la causalidad[2] en la física de hoy. En física macroscópica ninguna experiencia prueba la causalidad, pues el orden causal aparente del mundo macroscópico no tiene otro origen que la ley de los grandes números, y esto del todo independiente del hecho de que los procesos elementales (que son los verdaderos procesos físicos) sigan o no leyes causales. Que objetos macroscópicos semejantes se comporten de la misma manera poco tiene que hacer con la causalidad; estos objetos no son realmente idénticos pues las coordenadas que fijan el estado de sus átomos casi nunca coinciden y los fenómenos observables macroscópicamente resultan de promedios tomados sobre estas coordenadas.”

 

En física macroscópica todas las experiencias prueban la causalidad con independencia de que representen valores medios de infinitos procesos microscópicos[3].

lo que no es de esperarse de una aleatoriedad

que se considera algo más que falta de conocimiento.

Y que resulta asombrosa aun cuando se considere tal.

Señalemos también al trabajo de Neumann que los fenómenos macroscópicos no son solo una suma o conjunto de procesos elementales, que entre los más simples de ellos y el fenómeno macroscópico

se encuentra una pirámide de organizaciones

que originan la emergencia de nuevas propiedades

y característica de la materia

no explicables a partir de los elementos

que la constituyen.

 

EL PRINCIPAL AGENTE DE TRANSFORMACIÓN

DEL MICRO AL MACROMUNDO

ES LA ORGANIZACIÓN.

CONSIDÉRESE SOLO  LA UNIÓN

DE DOS ATOMOS DE HIDROGENO Y UNO DE OXIGENO CUANDO FORMAN EL AGUA.[4]

¿Acaso al levantarnos cada día debemos aprender nuevas formas de comportamiento en un mundo que nos cambia las reglas del juego a cado momento, como cabría esperar de una aleatoriedad sin causalidad? ¿y hacerlo de que nos serviría? Nuestros zapatos ¿estarán donde los dejamos?¿podremos abrochárnoslo como siempre lo hacemos?¿Al abrir el grifo del baño brotara como es costumbre el agua para lavarnos? Si no, no debemos preocuparnos buscando una causa de lo ocurrido, porque la causalidad no existe, sencillamente no nos lavaremos la cara.

     Para Von Neumann el hecho de aplicar a un problema un método estadístico ya anula la causalidad, y por otra parte los resultados de un análisis estadístico no pueden, en modo alguno, estar sujetos a ningunas causas.

EN AMBOS CASOS SE EQUIVOCA.

Cuando hacemos un análisis estadístico vamos en busca de causas, o queremos probar que determinadas cosas (un medicamento por ej.) son la causa de algo, (la cura o alivio de cierta enfermedad) y estamos rodeados de eventos con probabilidad de ocurrencia igual a 1.Al cortar una naranja la dividimos en dos partes, nuestro centro de trabajo estará donde siempre, y si no, habrá una causa que lo explique.

Hay que ver que fue para el Sr. Neumann la causalidad y el determinismo. Parece ser que la causalidad, para él, solo es propia de los sistemas absolutamente idénticos, y en esto también se equivoca.

“Es tan solo en escala atómica, en los procesos elementales mismos que la cuestión de la causalidad pueda realmente ser sometida a la experiencia; pero en esta escala en el estado actual de nuestros conocimientos todo habla contra ella, pues la única teoría formal que de cerca concuerda con la experiencia y la resume es la mecánica cuántica, y ella está en total conflicto lógico con la causalidad… no subsiste ahora ninguna razón que permita afirmar la existencia de la causalidad en la naturaleza; ninguna experiencia puede aportar la prueba de ello, puesto que los fenómenos macroscópicos son, por su naturaleza misma, incapaces de suministrarla y que la única teoría compatible con nuestros conocimientos de los fenómenos elementales conduce a rechazarla.”

Lo de formal no es el principal mérito de una teoría. Se puede formalizar cualquier cosa, hasta las más aberrantes. Nosotros personalmente, encontramos la formalización bastante alejada de la factualidad, la experiencia, y la vida. Pero algunos prefieren encerrarse en ejercicios mentales como el escolasticismo medieval.

LA CAUSALIDAD SE JUSTIFICA Y PRUEBA

EN EL MUNDO FACTUAL

POR EL CUMPLIMIENTO DEL SI — ENTONCES,

 ESE CUMPLIMIENTO LA DEFINE,

CON INDEPENDENCIA DE SU GÉNESIS,

LOS EJEMPLOS SOBRAN

La teoría cinética de los gases es determinista; pero si no lo fuera, no importa, si se cumple la regla que la precisa.

POR EL USO DE UNA HERRAMIENTA MATEMÁTICA COMO LA PROBABILIDAD Y LA ESTADÍSTICA

LA CAUSALIDAD NO DEJA DE SER LO QUE ES.

Sobre lo mismo, pero en otro orden de cosas, se trata de utilizar la precisión de las mediciones como una prueba de la falta de determinismo y causalidad.

ESO ES ABSOLUTAMENTE ABSURDO.

EL DETERMINISMO PUEDE FALLAR,

LO HACE CON FRECUENCIA

CUANDO FALTA CONOCIMIENTO

PERO LA CAUSALIDAD SIEMPRE ESTARÁ PRESENTE.

EN PRIMER LUGAR EL VALOR EXACTO

DE UNA MAGNITUD CONTINUA NO ES CONOCIBLE;

 

¡¡¡PORQUE NI SIQUIERA ES DEFINIBLE.!!!

La precisión de las mediciones se logra en la práctica indicando un margen de variabilidad alrededor del valor deseado. Por ejemplo 10  0.3mm.

Y DESDE EL PUNTO DE VISTA DE LA CAUSALIDAD SOLO SE NECESITA LA PRECISIÓN QUE PERMITA

EL CUMPLIMIENTO DEL SI… ENTONCES

QUE SE TRATE.

Medítese en el poder tecnológico de nuestras normas de ajustes y tolerancias que hacen posible la intercambiabilidad de las piezas.

Estas disquisiciones de Von Neumann no son sino más de lo mismo, que ya hemos analizado sobre el tema, y por las cuales no se le recordaría en este contexto. Sin embargo, él dice haber probado, que los datos con que trabajamos en el micromundo son intrínsecamente aleatorios. Puesto de otra forma; que las indeterminaciones que se presentan en la física cuántica nada tienen que ver con falta de conocimiento y medios para conseguirlos y/o procesarlos.

Y en cierto sentido, no en el de Von Neumann, así es, ya que la teoría cuántica POSTULA la aleatoriedad del micromundo en la interpretación que da del cuadrado de la amplitud de onda en la solución de la ecuación de Schrödinger.

LA TEORÍA CUÁNTICA HACE ALEATORIO

EL MICROMUNDO

POR DEFINICIÓN.

 

CLARO QUE NO ES POR CAPRICHO,

SINO A FALTA DE UNA HERRAMIENTA MEJOR.

     No cuestionamos esta interpretación y nos es perfectamente comprensible la misma en la investigación de un medio nuevo y prácticamente desconocido, como lo era en su momento, y lo sigue siendo a pesar de los avances logrados, el micromundo.

     Pero luego de hecho es poco comprensible que se nos diga que las investigaciones del micromundo nos lo muestran como intrínsecamente aleatorio. Si se escogió como red para pescar en el océano del conocimiento, LA PROBABILIDAD, es obvio lo que habríamos de pescar.

Respecto a la demostración de Von Neumann no sabemos si los métodos estadísticos han llegado a poder determinar esto absolutamente. En cierta medida ellos pueden decir cosas de lo que aún ignoramos. Por lo poderoso que sería este procedimiento me inclino a pensar que lo que se afirma es “un farol[5]”, de hecho la demostración de Von Neumann está viciada en su comienzo.

D’Broglie nos da la demostración de Von Neumann sin entrar en detalles, por considerar los análisis directos fuera de lugar en su libro.

Von Neumann dice:“consideremos un sistema regido por el determinismo clásico; todos sus elementos deben estar a cada instante caracterizados por magnitudes que tengan valores perfectamente determinados. Tal sería el caso de un gas concebido con arreglo a la imagen clásica de la teoría cinética, para el cual debían conocerse las posiciones y velocidades de todas las moléculas.

En lugar de un sistema consideremos un gran numero N de sistemas de la misma constitución. Si todos estos sistemas están en el mismo estado, es decir, si cada variable tiene para todos el mismo valor, Von Neumann dice que se trata de un conjunto causal.

 

 

Y ASÍ ES.

PERO SUS SISTEMAS NO TIENEN EXISTENCIA

EN EL MUNDO FACTUAL.

 

En primer lugar, en estos sistemas para presentar el mismo estado (macroscópico, se entiende)

Los conjuntos de moléculas no tienen que mostrar

los mismos valores de velocidad y posición

en cada sistema.[6]

Piénsese como los valores que caracterizan cada una de las moléculas cambian en cada instante de tiempo sin alterar el estado del sistema,

SU POSTULADO ES FACTUALMENTE UN ABSURDO.

     La igualdad de los sistemas para los mismos estados no se presenta en el sentido de que todos los conjuntos de moléculas tengan que estar caracterizadas por los mismos juegos de valores;

SINO, EN ESTAR EL GAS CONTENIDO

EN UN MISMO VOLUMEN,

Y A LA MISMA TEMPERATURA.

Parece que Von Neumann cree que para que la causalidad se presente los sistemas tienen que ser absolutamente iguales en todos los sentidos.Ya vimos que esto no es necesario; sino que la igualdad debe cumplirse solo con relación a ciertas variables principales[7].

Alguien duda que la causa de una enfermedad viral que padece un grupo disímil de personas sea el virus. Es el curso de la enfermedad el que puede variar de acuerdo al afectado. Era necesaria una penetración cualquiera del virus de la enfermedad para que estos enfermaran, o podemos decir que todos enfermarían a partir de ciertos valores de infestación. Obsérvese como el manejo eficaz de los problemas, en la práctica, se centra alrededor de valores máximos o mínimos o ambos, y no de un valor cualquiera. Las generalizaciones causales en un plano cualitativo son más directas y fáciles de descubrir y expresar  que las cuantitativas.

Consideremos como sistemas un auto, un hombre, un caballo y un bulto de ropa, con la característica común de estar todos a la intemperie, SI llueve ENTONCES todos se mojarán. Obsérvese como podemos pasar por alto todas las características de estos sistemas excepto una, cada uno de ellos se encuentra a la intemperie. Y para el cumplimiento de la causalidad solo hemos debido atender a dos causas llamadas comúnmente causas principales. Por otra parte, no hemos atendido en este nivel de generalización a la intensidad con que llueve.

 

En tal conjunto continua diciendo Von Neumann el valor medio del cuadrado de una magnitud debe evidentemente ser igual al cuadrado del valor medio de esa magnitud, puesto que una y otra de esas cantidades son iguales a un valor bien determinado, el mismo para todos los sistemas, del cuadrado de la magnitud considerada.

Sí “a” designa una magnitud cualquiera del conjunto se tendrá

la media de (a2) = (la media de a)2

y puede sin dificulta demostrarse que la valides de esta relación para toda magnitud es la condición necesaria y suficiente para que el conjunto sea causal.

 

Si lo anterior se cumple con independencia de que las colecciones de valores que caracterizan cada sistema, no tengan que ser iguales,, si no, el planteamiento está viciado desde el comienzo. Esto es una condición suficiente, no puede ser, de ningún modo, una condición necesaria.

 

Pero, en forma general, si se considera un conjunto de N sistemas de la misma constitución cada variable tendrá valores diferentes para los distintos sistemas. Así la variable “a” tendrá un valor a1 en el sistema n1, a2 en el sistema n2, etc. Entonces no se tendrá que:

la media de (a2) = (la media de a)2

y el conjunto no será causal.

 

Pero, si como el mismo asegura, esto no se cumple en general para sistemas con diferentes valores en sus conjuntos de variables, entonces,indudablemente, parte de suposiciones equivocadas.

Sin embargo, si n1 sistemas en un mismo estado están caracterizados por ciertos valores de las variables n2 en otro estado caracterizados por otros valores de las variables etc. … el conjunto global que no es causal, se descompondrá en un cierto número de conjuntos, irreducibles ellos mismos, que se llamaran “conjuntos puros”, se dirá entonces que el conjunto global es una “mezcla” de conjuntos puros, estando definida la composición de la mezcla por las proporciones n1/N, n2/N, etc. es fácil entonces darse cuenta, y esto es un punto esencial, que si existen variables ocultas que permitan establecer un ¿determinismo exacto? de los fenómenos(los signos de interrogación son míos) todo conjunto no causal para quien

la media de (a2) ≠ (la media de a)2

deberá poder descomponerse en una mezcla de conjuntos puros, irreducibles, de carácter causal, para los cuales

la media de (a2) = (la media de a)2

Además, y esto también es esencial, todo conjunto causal deberá ser puro, es decir, irreducible, en una mezcla. Precisamente este es el caso que siempre se realizaba en las teorías estadísticas de base determinista de la física clásica, por ejemplo en la teoría cinética de la materia.

Y ahora apliquemos estas consideraciones generales a la física cuántica. Según la mecánica ondulatoria el estado de todo sistema está definido por la función de onda. Evidentemente, puede imaginarse un conjunto de N sistema de la misma constitución de los cuales n1 tendría un función de onda1 n2 una función de onda2 etc.; se obtendría así un conjunto global que no sería causal y podría ser considerado como una mezcla de conjuntos puros definido por las proporciones n1/N, n2/N, etc. hasta aquí nada hay de nuevo.

Pero fijemos nuestra atención sobre uno de los sistemas que tengan por ejemplo la función de onda1 o lo que estadísticamente es igual, sobre los conjuntos de n1 sistemas que tengan esa función de onda. Estaremos en presencia de un conjunto irreducible de un conjunto puro. Ahora bien de las leyes de la mecánica ondulatoria, leyes bienverificadas por la experiencia, resulta que para un tal conjunto puro e irreducible, todas las magnitudes no pueden tener a un mismo tiempo un valor único bien determinado de modo que no se tiene en general

la media de (a2) = (la media de a)2

De donde esta conclusión capital: EN FISICA CUANTICA, UN CONJUNTO PURO, IRREDUCIBLE EN UNA MEZCLA, NO TIENE EL CARÁCTER DE UN CONJUNTO CAUSAL. Esta conclusión imposibilita admitir que detrás del indeterminismo de las leyes de la física cuántica actual se oculta un determinismo subyacente que nos seria evidente si pudiéramos conocer la evolución de ciertas variables ocultas.

SU DEMOSTRACIÓN NO ES VALIDA

 COMO PUDO APRECIARSE DESDE EL COMIENZO

LOS CONJUNTOS CAUSALES NO TIENEN QUE SER EXACTAMENTE IGUALES.

DE HECHO, NINGUNO LO ES.

 

Desde la epistemología intentemos responder las preguntas:

¿QUÉ ES LO QUE REALMENTE SABEMOS?

¿CUÁL ES SU SIGNIFICADO?


[1] Nos cuenta De Broglie en su excelente libro FISCA Y MICROFISICA.

[2] “En este texto Von Neumann emplea la palabra causalidad—nos dice De Broglie, y agrega— ahí donde nosotros emplearíamos con más agrado la palabra determinismo. Pensamos, en efecto, que el indeterminismo cuántico deja subsistir una especie de causalidad débil.” Ver Continu et Discontinu en PhysiqueModerne, Albin Michel (1941), pag. 64

[3] El mismo perro con un collar diferente. El fenómeno visto con otra óptica mejor que la suya por razones que más adelante se verán.

[4] Acaso podemos explicar el ente emergente a partir solo de valores promedios. El comportamiento del agua es totalmente anómalo del que cabría esperar de los dos elementos que la constituyen.

[5] Conducta aparente con que se pretender afirmar algo que no es cierto.

[6] en un cm3 de aire en condiciones normales hay 2.7×1019 moléculas y cada una sufre unas 109 colisiones por segundo, cambiando por lo tanto su velocidad y sus posición en relación a las que tendría antes de establecerse el choque. si consideramos ahora N sistemas aislados de un cm3ninguno presentara la misma colección de posiciones y velocidades en sus moléculas y sin embargo todos son factualmente equivalentes en cuanto a su estado como sistema, y también en cuanto a los resultados que arrojará su tratamiento estadístico.

[7] Véase las OPINIONES: CAUSALIDAD Y DETERMINISMO y QUE ES EL PRINCIPIO DE CAUSALIDAD.


Deja una respuesta