Blogia
CAPACITACION EN COSTOS Y GESTION

El Principio de Incertidumbre

El Principio de Incertidumbre supone un cambio básico en nuestra forma de entender la naturaleza, ya que se pasa de un conocimiento teóricamente exacto a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error.

El físico Stephen Hawking ha formulado una conjetura que él denomina "Universo Autocontenido" en la que el famoso Principio de Incertidumbre juega un rol fundamental. Este principio, también denominado Principio de Indeterminación, fue descubierto por Werner Heisenberg y consiste en que no se puede determinar, simultáneamente y con toda precisión, ciertos pares de variables físicas denominadas "variables conjugadas". Para evitar los detalles técnicos, muchas veces se le presenta en los siguientes términos: "No es posible observar simultáneamente la velocidad y la posición de una partícula".

En rigor, las variables conjugadas que este principio afecta pueden ser múltiples, pero todas suelen reducirse a dos casos generales: posición y momentum, la primera, tiempo y frecuencia, la segunda. A su vez, los divulgadores suelen traducir el momentum como velocidad, apelando al hecho que ambas variables son directamente proporcionales cuando la masa de la partícula es constante.

Ambos casos generales, a su vez, dan origen a muchas alternativas específicas vinculadas a lo que en física se llaman "espacios de fase", que básicamente son el resultado de aplicar transformaciones matemáticas del tipo "cambio de variables".

Típicamente se ha señalado que el Principio de Incertidumbre se fundamenta en el hecho que observar es perturbar. En efecto, para poder "ver" de algún modo un electrón es necesario que un fotón de luz choque con él, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.

En realidad esa condición ha estado siempre presente y no se limita al campo de la cuántica. Por ejemplo, al medir la temperatura del agua colocando un termómetro en el recipiente que la contiene, lo que realmente ocurre es que el agua y el mercurio intercambiarán calor, calentándose uno y enfriándose el otro, de manera que la temperatura que marcará el termómetro ya no será la misma que tenía el agua antes de que se le midiera.

No obstante hay que recordar que el principio de incertidumbre es inherente al universo, no al experimento ni a la sensibilidad del instrumento de medida. Surge como necesidad al desarrollar la teoría cuántica y se corrobora experimentalmente. En otras palabras, la idea de que medir es perturbar es un símil pero no se puede tomar como explicación del principio de incertidumbre.

El Estudiante Cuántico

Una forma de explicar lo que el Principio de Incertidumbre realmente establece es imaginar un estudiante que es evaluado por sus profesores en dos asignaturas distintas, supongamos: castellano e inglés. Imaginemos que, al revisar la libreta de notas del alumno, descubrimos que sus notas en castellano son, en general, muy bajas pero parejas, todas cercanas al promedio; en cambio, sus notas de inglés están mucho más dispersas. Si suponemos que el alumno continuará desempeñándose aproximadamente de la misma forma durante el año escolar, esperaríamos que sus notas de castellano se mantuvieran cerca del promedio, en cambio las de inglés deberían seguir siendo más impredecibles, incluso aunque el promedio de inglés se mantuviera, ya que la diferencia entre la mejor y la peor nota es grande.

Ahora bien, supongamos que vamos a hacer una apuesta concerniente a la nota que el alumno obtendrá en la próxima evaluación. Ya que en el sistema chileno la nota más alta que hay es un siete y la más baja un uno, en principio la incertidumbre sería la diferencia, seis unidades, en ambos casos. Sin embargo, dado el historial del alumno, concluiremos que la incertidumbre en castellano es mayor que la incertidumbre en inglés, por lo que preferiríamos apostar en este último ramo y no en el primero.

De hecho, en un caso extremo, si el alumno se hubiera sacado exactamente la misma nota en todas las evaluaciones de castellano, lo estadísticamente correcto sería asumir que lo más probable es que esa tendencia se mantenga y lo lógico sería apostar a que, en la próxima evaluación, el alumno volverá a obtener esa misma nota única en esa asignatura. En este caso diríamos que la incertidumbre es mínima, ya que la diferencia entre la mejor y la peor nota es nula.

Ahora bien, supongamos que este alumno es en realidad una partícula cuántica y que las notas de sus dos asignaturas son en realidad los valores que observamos para dos variables conjugadas. Lo que el Principio de Incertidumbre nos dice es que no es posible tener incertidumbre cero en ambos valores simultáneamente.

En nuestro ejemplo, no es posible que el alumno se haya sacado puros 3,2 en castellano y puros 4,6 en inglés, ya que las notas deben estar dotadas de un mínimo de dispersión que se puede concentrar en una, en otra o en ambas asignaturas. En otras palabras, un "estudiante cuántico" puede ser muy estable en términos del promedio (3,2 en castellano y 4,6 en inglés), pero eso no significa que apostar deje de ser riesgoso, ya que las asignaturas tendrán siempre una incertidumbre.

De hecho el principio formulado por Heisenberg establece todavía algo más radical. En nuestro ejemplo, si la nota del alumno en castellano ha sido siempre la misma, entonces no sabemos absolutamente nada acerca de la nota que podría sacar en inglés, en rigor hasta sería posible que se sacara una nota anómala, como un ocho, por ejemplo. De hecho, esa podría ser una metáfora para el efecto cuántico conocido como "efecto túnel", en el cual la partícula parece atravesar barreras, tal como un alumno que, a pesar del reglamento, finalmente obtiene un ocho.

Finalmente, podríamos calcular, gracias al principio de Heisenberg, la incertidumbre que tendremos en una asignatura si conocemos la incertidumbre de la variable conjugada. Por ejemplo, la incertidumbre en la nota de castellano podría ser pequeña, aunque jamás nula, si la incertidumbre en inglés fuera grande y viceversa.

El Principio de Incertidumbre supone un cambio básico en nuestra forma de entender la naturaleza, ya que se pasa de un conocimiento teóricamente exacto a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error. Ese es el motivo por el cual Einstein criticó con tanta vehemencia a la mecánica cuántica, expresando su célebre frase "Dios no juega a los dados". Einstein no podía creer que la realidad física fuera intrínsecamente aleatoria. El tiempo ha pasado y, al parecer, ese ha sido el gran error de Einstein; el Principio de Incertidumbre podría llegar a ser considerado, si Hawking está en lo correcto, la ley física más fundamental.

Luis Bastias, AtinaChile.

1 comentario

angie -

es una muy interesante lo que hiso el