top of page

Werner Heisenberg: física atómica y ley causal

«Una de las más interesantes consecuencias generales de la moderna Física atómica la constituyen las transformaciones que bajo su influjo ha sufrido el concepto de las leyes naturales o de la regularidad de la Naturaleza. En los últimos años, se ha hablado a menudo de que la moderna Física atómica parece abolir la ley de la causa y el efecto, o por lo menos dejar parcialmente en suspenso su validez, de modo que no cabe seguir admitiendo propiamente que los procesos naturales estén determinados por leyes. Incluso llega a afirmarse simplemente que el principio de causalidad es incompatible con la moderna teoría atómica. Ahora bien, tales formulaciones son siempre imprecisas, en tanto no se expliquen con suficiente claridad los conceptos de causalidad y de regularidad. Por eso, en las páginas que siguen trazaré en primer lugar un esbozo del desarrollo histórico de dichos conceptos. Luego trataré de las relaciones entre la Física atómica y el principio de causalidad según se pusieron de manifiesto ya mucho antes de la teoría de los cuantos. Finalmente, discutiré las consecuencias de la teoría cuántica y estudiaré el desarrollo de la Física atómica en los años más inmediatamente próximos. Este desarrollo no ha traslucido todavía para el público sino muy escasamente y, sin embargo, parece probable que también los más recientes descubrimientos hayan de tener consecuencias filosóficas.


»1. EL CONCEPTO DE “CAUSALIDAD”


»El uso del concepto de causalidad como designación de la regla de la causa y el efecto es relativamente reciente en la Historia. En la filosofía de otras épocas, el término latino causa tenía un significado mucho más general que ahora. La escolástica por ejemplo, continuando a Aristóteles, contaba hasta cuatro formas de “causa”. Eran ellas la causa formalis, a la que hoy llamaríamos acaso la estructura o el contenido espiritual de una cosa, la causa materialis, o sea la materia de que una cosa se compone, la causa finalis, que es el fin para que una cosa ha sido hecha, y finalmente la causa efficiens. Sólo esta causa efficiens corresponde aproximadamente a lo que hoy entendemos por el término de causa.


»La transformación del concepto antiguo de causa en el actual se ha ido produciendo a lo largo de los siglos, en estrecha conexión con la transformación del conjunto de la realidad percibida por el hombre, y con la aparición de la ciencia de la Naturaleza a principios de la Edad Moderna. En la medida en que los procesos materiales fueron adquiriendo un grado mayor de realidad, el término de causa fue siendo referido a la ocurrencia material que precediera a la ocurrencia que en determinado caso se tratara de explicar y que de algún modo la hubiera producido. Ya en Kant, que en muchos pasajes no hace más que sacar las consecuencias filosóficas del desarrollo de las ciencias naturales a partir de Newton, encontramos el término de causalidad explicado en la forma que se nos ha hecho usual desde el siglo XIX: “Cuando experimentamos que algo ocurre, presuponemos en todo caso que algo ha precedido a aquella ocurrencia; algo de lo que ella se sigue según una regla”. Así fue paulatinamente restringiéndose el alcance del principio de causalidad, hasta resultar equivalente a la suposición de que el acontecer de la Naturaleza está unívocamente determinado, de modo que el conocimiento preciso de la Naturaleza o de cierto sector suyo basta, al menos en principio, para predecir el futuro. Precisamente la Física newtoniana se hallaba estructurada de modo tal que a partir del estado de un sistema en un instante determinado podía preverse el futuro movimiento del sistema. El sentimiento de que, en el fondo, así ocurren las cosas en la Naturaleza, ha encontrado tal vez su expresión más general e intuitiva en la ficción, concebida por Laplace, de un demonio que en cierto instante conoce la posición y el movimiento de todos los átomos, con lo cual tiene que verse capacitado para calcular de antemano todo el porvenir del Universo. Cuando al término de causalidad se le da una interpretación tan estricta, acostumbra hablarse de “determinismo”, entendiendo por tal la doctrina de que existen leyes naturales fijas, que determinan unívocamente el estado futuro de un sistema a partir del actual.


»2. LA REGULARIDAD ESTADÍSTICA


»La Física atómica ha desarrollado desde sus inicios concepciones que no se ajustan propiamente a este esquema. Cierto que no lo excluyen en forma radical; pero el modo de pensamiento de la teoría atómica hubo de distinguirse desde el primer momento del que es propio del determinismo. En la antigua teoría atómica de Demócrito y Leucipo ya se admite que los procesos de conjunto tienen lugar gracias a la concurrencia de muchos procesos irregulares de detalles. Para mostrar que en principio tal fenómeno es posible, la vida cotidiana ofrece innumerables ejemplos. Al campesino le basta saber que una nube se deshace en lluvia y moja el suelo, sin que a nadie le importe el particular punto de caída de cada gota. U otro ejemplo: todos sabemos muy bien lo que entendemos por la palabra “granito”, a pesar de que no se conocen con precisión la forma ni la composición química de cada pequeño cristal, ni tampoco la proporción de su mezcla ni su color. De modo que repetidamente utilizamos conceptos que se refieren al comportamiento de un conjunto sin que nos interesen los individuales procesos en el detalle.




»Esta idea de la colaboración estadística de muchos pequeños sucesos individuales sirve, ya para la antigua teoría atómica, como fundamento de su explicación del Universo; y se le generalizó en la noción de que todas las cualidades sensibles de las materias son producidas indirectamente por la colocación y el movimiento de los átomos. Ya en Demócrito se encuentra la frase: “Sólo en apariencia es una cosa dulce o amarga, sólo en apariencia tiene color; en realidad no hay más que átomos y el espacio vacío”. Explicando en esta forma los procesos perceptibles por los sentidos mediante la colaboración de muchos pequeños procesos individuales se hace casi inevitable considerar a las regularidades de la Naturaleza únicamente como regularidades estadísticas. Cierto que también las regularidades estadísticas pueden ser fundamento de proposiciones cuyo grado de probabilidad es tan elevado que linda con la certeza. Pero en principio siempre pueden darse excepciones. A menudo, el concepto de regularidad estadística es sentido como contradictorio. Se dice, por ejemplo, que es posible concebir intuitivamente que los procesos de la Naturaleza estén determinados por leyes, y también que ocurran sin norma de orden, pero que la regularidad estadística no expresa nada concebible. Frente a ello hemos de recordar que en la vida ordinaria usamos en todo momento las regularidades estadísticas, y en ellas basamos nuestra actuación práctica. Cuando el ingeniero, por ejemplo, construye un pantano, cuenta con una precipitación anual media, a pesar de que no tiene el menor barrunto de cuándo ni cuánto va a llover.


»Las regularidades estadísticas significan por lo común que el correspondiente sistema físico sólo se conoce imperfectamente. El ejemplo más ordinario de esta situación lo da el juego de dados. Como ninguna cara del dado se distingue de las demás en lo que afecta al equilibrio del dado, y por lo tanto no podemos de ningún modo prever qué cara mostrará éste al caer, es lícito admitir que, entre un número elevado de tiros, precisamente la sexta parte mostrarán por ejemplo la cara de 5 puntos.


»Al iniciarse la Edad Moderna, no tardó el intento de explicar el comportamiento de las materias mediante el comportamiento estadístico de sus átomos, y no sólo cualitativa sino también cuantitativamente. Ya Robert Boyle consiguió demostrar que las relaciones entre presión y volumen de un gas resultan inteligibles admitiendo que la presión representa la multitud de choques de los átomos singulares contra las paredes del recipiente. De modo parecido se explicaron los fenómenos termodinámicos admitiendo que los átomos se mueven con mayor rapidez en un cuerpo caliente que en uno frío. Se ha logrado dar una formulación matemática cuantitativa a esta proposición, y con ello hacer inteligibles las leyes de los fenómenos térmicos.




»Este empleo de las regularidades estadísticas recibió su forma definitiva en la segunda mitad del pasado siglo, en la llamada mecánica estadística. Esta teoría, que ya en sus principios fundamentales diverge considerablemente de la Mecánica newtoniana, estudia las consecuencias que pueden sacarse del conocimiento imperfecto de un sistema mecánico complicado. En principio, por lo tanto, no se renunciaba al determinismo estricto, admitiéndose que el acontecer en su detalle se ajustaba enteramente a la Mecánica newtoniana. Gibbs y Boltzmann lograron dar adecuada formulación matemática al modo de imperfecto conocimiento, y en particular, Gibbs pudo mostrar que el concepto de temperatura está en estrecha conexión con la insuficiencia del conocimiento. Cuando conocemos la temperatura de un sistema, esto quiere decir que dicho sistema forma parte de un conjunto de sistemas equivalentes. A este conjunto de sistemas se le puede describir matemáticamente, pero no al sistema especial de que se trata en cada caso. Con ello dio Gibbs propiamente, medio sin darse cuenta, un paso que más adelante había de producir las más importantes consecuencias. Gibbs introdujo en la Física, por vez primera, un concepto que sólo puede aplicarse a un objeto natural en cuanto nuestro conocimiento del objeto es insuficiente. Si, por ejemplo, conociéramos el movimiento y la posición de todas las moléculas de un gas, hablar de la temperatura de dicho gas sería una insensatez. El concepto de temperatura no puede aplicarse más que cuando el sistema es insuficientemente conocido, y cuando queremos sacar conclusiones estadísticas de este conocimiento insuficiente.


»3. CARÁCTER ESTADÍSTICO DE LA TEORÍA DE LOS CUANTOS


»A pesar de que, según queda descrito, a partir de Gibbs y Boltzmann la insuficiencia del conocimiento de un sistema ha quedado incluida en la formulación de las leyes matemáticas, la Física permaneció en el fondo fiel al determinismo hasta el célebre descubrimiento con que Max Planck inició la teoría de los cuantos. Lo que halló Planck en sus investigaciones sobre la teoría de la radiación no fue por lo pronto más que un elemento de discontinuidad en los fenómenos de radiación. Demostró que un átomo radiante no despide su energía continua sino discontinuamente, a golpes. Esta cesión discontinua y a golpes de la energía, y con ella todas las concepciones de la teoría atómica, conducen a admitir la hipótesis de que la emisión de radiaciones es un fenómeno estadístico. Pero no fue sino al cabo de un cuarto de siglo que se manifestó que la teoría de los cuantos obliga a formular toda ley precisamente como una ley estadística, y por ende abandonar ya en principio el determinismo.


»Desde las investigaciones de Einstein, Bohr y Sommerfeld, la teoría de Planck ha demostrado ser la llave que permite abrir la puerta del entero dominio de la Física atómica. Con ayuda del modelo atómico de Rutherford y Bohr se han podido explicar los procesos químicos, y desde entonces la Química, la Física y la Astrofísica se han fundido en una unidad. Pero al formular matemáticamente las leyes de la teoría cuántica ha sido preciso abandonar el puro determinismo. Ya que no puedo aquí referirme a los desarrollos matemáticos, me limitaré a enunciar diversas formulaciones en las que queda expresada la notable situación ante la cual la Física atómica ha puesto al físico. Por una parte, la desviación respecto a la Física precedente puede simbolizarse en las llamadas relaciones de indeterminación. Se demostró que no es posible determinar a la vez la posición y la velocidad de una partícula atómica con un grado de precisión arbitrariamente fijado. Puede señalarse muy precisamente la posición, pero entonces la influencia del instrumento de observación imposibilita hasta cierto grado el conocimiento de la velocidad; e inversamente, se desvanece el conocimiento de la posición al medir precisamente la velocidad; en forma tal, que la constante de Planck constituye un coto inferior del producto de ambas imprecisiones. Esta formulación sirve desde luego para poner de manifiesto con toda claridad que a partir de la Mecánica newtoniana no se alcanza gran cosa, ya que para calcular un proceso mecánico, justamente, hay que conocer a la vez con precisión la posición y la velocidad en determinado instante; y esto es lo importante, según la teoría de los cuantos. Una segunda formulación ha sido forjada por Niels Bohr, al introducir el concepto de complementariedad. Dicho concepto significa que diferentes imágenes intuitivas destinadas a describir los sistemas atómicos pueden ser todas perfectamente adecuadas a determinados experimentos, a pesar de que se excluyan mutuamente.


»Una de ellas, por ejemplo, es la que describe al átomo de Bohr como un pequeño sistema planetario: un núcleo atómico en el centro, y una corteza de electrones que dan vueltas alrededor del núcleo. Pero para otros experimentos puede resultar conveniente imaginar que el núcleo atómico se halla rodeado por un sistema de ondas estacionarias, siendo la frecuencia de las ondas determinante de la radiación emitida por el átomo. Finalmente, el átomo puede ser considerado como un objeto de la Química, calculando su calor de reacción al combinarse con otros átomos, pero renunciando a saber al propio tiempo algo del movimiento de los electrones. De modo que dichas distintas imágenes son verdaderas en cuanto se la sutiliza en el momento apropiado, pero son incompatibles unas con otras; por lo cual se las llama recíprocamente complementarias. La indeterminación intrínseca a cada una de tales imágenes, cuya expresión se halla precisamente en las relaciones de indeterminación, basta para evitar que el conflicto de las distintas imágenes implique contradicción lógica. Estas indicaciones permiten, incluso sin ahondar en la matemática de la teoría cuántica, comprender que el conocimiento incompleto de un sistema es parte esencial de toda formulación de la teoría cuántica. Las leyes de la teoría de los cuantos han de tener carácter estadístico. Sea un ejemplo: sabemos que un átomo de radio puede emitir rayos a. La teoría de los cuantos puede indicarnos la probabilidad, por unidad de tiempo, de que una partícula abandone el núcleo; pero no puede predeterminar el instante preciso en que ello ocurrirá; dicho instante queda por principio indeterminado. Y no cabe tampoco esperar que más adelante se descubran nuevas regularidades, tales que nos permitan determinar aquel instante con precisión, ya que en caso contrario constituiría un absurdo el hecho de que podemos también concebir la partícula a como una onda que se separa del núcleo, y demostrar experimentalmente que esto es en efecto. Los diferentes experimentos que demuestran la naturaleza ondulatoria de la materia atómica, y a la vez su naturaleza corpuscular, nos obligan, para salvar su paradoja, a formular regularidades estadísticas. En los procesos en grande, este elemento estadístico de la Física atómica no desempeña por lo general ningún papel, ya que las leyes estadísticas, aplicadas a tales procesos, proporcionan una probabilidad tan alta que en la práctica puede decirse que el proceso queda determinado. Por lo demás, sedan también casos en que el proceso en grande depende del comportamiento de un átomo o de unos pocos átomos, y en tales casos el proceso en grande tampoco puede preverse más que estadísticamente. Existe de ello un ejemplo muy conocido aunque bien poco satisfactorio, a saber, el de la bomba atómica. Tratándose de una bomba ordinaria, la energía de la explosión puede calcularse previamente, si se conoce el peso y la composición química de la materia explosiva. Para una bomba atómica, todo lo que puede darse es un coto inferior y uno superior de la energía de la explosión; pero razones de principio se oponen a que dicha energía sea prevista con exactitud, ya que depende del modo como unos pocos átomos vayan a comportarse en el proceso de inflamación. De modo semejante, es verosímil que en la Biología, según Jordán ha destacado expresamente, se den procesos cuyo desarrollo engrande siga a remolque del comportamiento de átomos individuales; así, en particular, parece ocurrir en las mutaciones de los genes en el proceso hereditario. Estos dos ejemplos permiten apreciar las consecuencias prácticas del carácter estadístico de la teoría cuántica, y en lo que a este aspecto se refiere, el desarrollo dela teoría está concluso desde hace más de dos decenios, de modo que no cabe esperar que el futuro aporte grandes novedades en los fundamentos.


»4. HISTORIA RECIENTE DE LA FÍSICA ATÓMICA


»A pesar de todo, los últimos años han visto abrirse un nuevo punto de vista sobre el problema de la causalidad; según dije al principio, ello se debe a los más recientes desarrollos de la Física atómica. Las cuestiones que ahora ocupan el centro del interés provienen lógicamente del progreso de la ciencia en los últimos dos siglos, lo cual me obliga a rememorar brevemente una vez más la historia de la moderna Física atómica. Al comienzo de la Edad Moderna, la noción de átomo se enlazaba con la de elemento químico.

»Un elemento se caracteriza por el hecho de que no puede ser descompuesto químicamente, de modo que a cada elemento le corresponde una determinada suerte de átomo. Un pedazo del elemento carbono, por ejemplo, contiene sólo átomos de carbono, mientras que un pedazo del elemento hierro contiene sólo átomos de hierro. Ello obligó a admitir la existencia de tantas clases de átomos como elementos químicos había. Como finalmente se descubrieron 92 elementos químicos, había pues 92 clases de átomos. Mirada desde las hipótesis fundamentales de la teoría atómica, tal concepción es sin embargo muy insatisfactoria. En principio, la posición y el movimiento de los átomos deberían bastar para explicar las cualidades de las distintas materias. Partiendo de ahí, no obtenemos nada que valga como explicación si los átomos no son todos iguales, o a lo sumo se dan muy pocas clases de átomos; es decir, si los átomos no carecen por su parte de cualidades. Pero en cuanto nos vemos obligados a admitir la existencia de 92 clases de átomos cualitativamente distintos, no obtenemos nada sensiblemente mejor que aceptar simplemente la existencia de materiales cualitativamente distintos. Por consiguiente, hace ya mucho tiempo que se consideró insatisfactoria la idea de que existan 92 clases radicalmente distintas de partículas ínfimas, y se intuyó la posibilidad de reducir aquellas 92 clases de átomos a un número menor de partículas elementales. De acuerdo con tal idea, pronto se hicieron intentos para demostrar que los átomos químicos eran ya unos compuestos de unos pocos entes básicos. Las más antiguas tentativas para transformar unas en otras las materias químicas partían precisamente del supuesto de que la materia es en definitiva unitaria. Y finalmente, en los últimos cincuenta años se ha comprobado que en efecto los átomos químicos son compuestos, y que los componentes son tres, a los que se dan los nombres de protones, neutrones y electrones. El núcleo atómico se compone de protones y neutrones, y le circundan cierto número de electrones. El núcleo de un átomo de carbono, por ejemplo, se compone de 6 protones y 6 neutrones, y a su alrededor, a distancias relativamente considerables, giran 6 electrones. De modo que, desde el desarrollo de la Física nuclear en el cuarto decenio de nuestro siglo, en lugar de las 92 clases distintas de átomos no hallamos ya más de tres diferentes partículas elementales; y en este particular, la teoría atómica ha seguido en efecto el rumbo que le trazaban sus supuestos previos. Una vez se hubo verificado que todos los átomos químicos eran combinaciones de tres componentes, quedaba abierta la posibilidad práctica de transmutar unos en otros los elementos químicos. Es de dominio público que la teoría física fue en efecto seguida inmediatamente por la realización práctica. Desde que en 1938 Otto Hahn descubrió la fisión nuclear y que este descubrimiento fue seguido de los correspondientes desarrollos técnicos, se ha podido realizar, incluso en grandes cantidades, la transmutación de los elementos.


»Pero es el caso que en los últimos decenios, el cuadro ha vuelto a embrollarse. Ya en el cuarto decenio del siglo otras partículas elementales se añadieron a los mencionados protones, neutrones y electrones, y en los últimos años el número de partículas distintas ha aumentado de modo alarmante. Las nuevas partículas, en contraste con los tres tipos básicos, son inestables, es decir, no tienen existencia más que por cortos períodos de tiempo. A las nuevas partículas se les da el nombre de mesones; uno de los tipos posee una duración aproximada de una millonésima de segundo, otro tipo no vive más que la centésima parte de dicho tiempo, y un tercer tipo, desprovisto de carga eléctrica, no dura más que una cienbillonésima de segundo. Pero aparte dicha inestabilidad, las nuevas partículas elementales se comportan de modo idéntico al de los tres componentes estables de la materia. A primera vista, parece que nos vemos obligados a admitir de nuevo que existen partículas elementales cualitativamente distintas, en considerable número, lo que, de acuerdo con los supuestos fundamentales de la Física atómica, sería altamente insatisfactorio. Pero los experimentos de los años más recientes han mostrado que las partículas elementales, al entrar en colisión con gran desplazamiento de energía, pueden transformarse unas en otras. Cuando chocan dos partículas elementales dotadas de gran energía cinética, el choque produce la aparición de nuevas partículas elementales, de modo que las partículas primitivas y su energía se transforman en nueva materia. El modo más sencillo de describir este estado de cosas consiste en decir que todas las partículas están constituidas por idéntica materia, o sea que no constituyen más que distintos estados estacionarios de una y la misma materia. De modo que el número de los componentes básicos de la materia se ha reducido todavía; de 3 ha pasado a 1. Sólo existe una materia única, pero que puede darse en distintos estados estacionarios discretos. Algunos de dichos estados, los de protón, neutrón y electrón, son estables, mientras que muchos otros son inestables.


»5. LA TEORÍA DE LA RELATIVIDAD Y EL FIN DEL DETERMINISMO


»Aun cuando, basándose en los resultados experimentales de los últimos años, no cabe dudar de que el desarrollo de la Física atómica tendrá lugar siguiendo la indicada pauta, no se ha conseguido todavía formular matemáticamente las leyes de la formación de las partículas elementales. Éste es precisamente el problema sobre el que trabajan en la actualidad los físicos atómicos, tanto experimentalmente, descubriendo nuevas partículas e investigando sus propiedades, como teóricamente, esforzándose por coordinar regularmente las propiedades de las partículas elementales y por expresarlas en fórmulas matemáticas.


»Tales tentativas han dado lugar a la aparición de dificultades involucradas en el concepto del tiempo. Al estudiar las colisiones de las partículas elementales dotadas de gran energía, hay que referirse a la estructura espacio-temporal de la teoría especial de la relatividad. En la teoría cuántica de la corteza atómica, esta estructura espacio-temporal no desempeñaba ninguna función esencial, ya que los electrones de la corteza atómica se mueven con relativa lentitud. Pero ahora se ocupa el físico de partículas cuya velocidad se aproxima a la de la luz, de modo que su comportamiento no puede describirse sin acudir a la teoría de la relatividad. Cincuenta años atrás, Einstein descubrió que la estructura del espacio y del tiempo no es tan sencilla como creemos en las ordinarias ocasiones de la vida. Cuando situamos en el pasado todos los acontecimientos de los que, en principio por lo menos, podemos tener alguna noticia, y cuando arrojamos al futuro todos los acontecimientos sobre los que podemos todavía, por lo menos en principio, ejercer alguna influencia, nuestra concepción espontánea implica que entre ambos grupos de acontecimientos se intercala un momento infinitamente breve, al que llamamos el instante actual.


»Esta concepción se hallaba implícita incluso en los fundamentos de la Mecánica de Newton. Pero desde el descubrimiento de Einstein en el año 1905 sabemos que, entre aquello que llamamos el pasado y aquello que llamamos el futuro, lo que se intercala es un intervalo temporal finito, cuya amplitud depende de la distancia espacial entre el acontecimiento y el observador. El dominio de la actualidad, por lo tanto, no se limita a un momento infinitamente breve. La teoría de la relatividad parte, como hipótesis fundamental, de que las acciones no pueden propagar sus efectos con velocidad mayor que la de la luz. Ahora bien: al intentar poner en combinación este axioma de la teoría relativista con las relaciones de indeterminación de la teoría de los cuantos, se choca con dificultades. Según la teoría de la relatividad, los efectos no pueden propagarse más que en el dominio espaciotemporal cuyos límites quedan netamente trazados por el llamado cono de luz, es decir, en el dominio de los puntos espaciotemporales que son alcanzados por la onda lumínica emitida por el punto activo. Este dominio, insistimos expresamente, tiene una frontera netamente trazada. Pero por otra parte, la teoría de los cuantos ha demostrado que una precisa determinación de lugar, y análogamente una precisa determinación de una frontera espacial, implican una infinita indeterminación de la velocidad, y con ello del impulso y de la energía. Este hecho acarrea la siguiente consecuencia práctica: al intentar formular matemáticamente las acciones recíprocas de las partículas elementales, se introducen siempre valores infinitos para la energía y el impulso, dificultando una formulación matemática satisfactoria. En los últimos años, muchas son las investigaciones acerca de tales problemas, sin que se haya alcanzado una solución enteramente adecuada. A veces parece ofrecerse, como único recurso conceptual, la hipótesis de que en dominios espacio-temporales muy pequeños, del orden de magnitud de las partículas elementales, espacio y tiempo se complican de modo peculiar, a saber, haciendo imposible, para intervalos de tiempo tan pequeños, la definición adecuada de los conceptos de anterioridad y posterioridad. Para los procesos en grande, la estructura espacio-temporal no puede desde luego ser modificada, pero tal vez habría que admitir la posibilidad de que, tratándose de experimentos sobre el acontecer en dominios espaciotemporales muy pequeños, ciertos procesos transcurrieran en apariencia invirtiéndose el orden temporal que corresponde a su orden de relación causal. De modo que por esta rendija se introducen de nuevo en el corazón de las más recientes investigaciones de la Física atómica las cuestiones relacionadas con las leyes de causalidad. No puede todavía preverse si se manifestarán nuevas paradojas y nuevas desviaciones de la ley de causalidad. Puede ser que a medida que se vaya ahondando en los intentos de formulación matemática de las leyes que conciernen a las partículas elementales, se adviertan nuevas posibilidades de eliminación de las dificultades mencionadas. Pero desde ahora puede ya considerarse fuera de duda que la evolución, en este dominio, de la Física atómica habrá de incidir nuevamente en el dominio filosófico. No se alcanzará una respuesta definitiva a las cuestiones planteadas en tanto no se consiga determinar matemáticamente las leyes naturales que gobiernan a las partículas elementales; es decir, en tanto no sepamos, por ejemplo, por qué el protón es precisamente 1836 veces más pesado que el electrón.


»Lo indicado basta para darse cuenta de que la Física atómica ha ido alejándose paulatinamente de las nociones deterministas. Esta desviación tuvo lugar ya en los comienzos de la teoría atómica, en cuanto hubo de admitirse que las leyes que rigen los procesos en grande habían de ser leyes estadísticas. Cierto que entonces las concepciones deterministas fueron conservadas en principio, pero en la práctica hubo que contar con nuestro imperfecto conocimiento de los sistemas físicos. La desviación se acentuó en la primera mitad de nuestro siglo, cuando se reconoció que el conocimiento incompleto de los sistemas atómicos constituye uno de los principios esenciales de la teoría. Y finalmente los últimos años nos han alejado aún más del determinismo, por cuanto parece hacerse problemático, para los pequeños intervalos espaciales y temporales, el concepto de la sucesión temporal; aunque todavía no podemos prever cuál será en este dominio la solución del enigma».


(Tomado de "La imagen de la Naturaleza en la física actual", de W. Heisenberg, editorial Planeta-Agostini, 1994).






bottom of page