Física/Física moderna/Principio de incertidumbre de Heisenberg

De Wikilibros, la colección de libros de texto de contenido libre.
Saltar a: navegación, buscar

En mecánica cuántica el principio de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y la cantidad de movimiento de un objeto dado. En palabras sencillas, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.

Definición formal[editar]

Si se preparan varias copias idénticas de un sistema en un estado determinado,las medidas de posición y momento (masa x velocidad) de las partículas constituyentes variarán de acuerdo a una cierta distribución de probabilidad característica del estado cuántico del sistema. Las medidas de la desviación estándar Δx de la posición y el momento Δp verifican entonces el principio de incertidumbre que se expresa matemáticamente como:

\Delta x \Delta p   \ge \frac{\hbar}{2}

donde \hbar es la constante reducida de Planck, denominada h partida (para simplificar,\frac{h}{2\pi} suele escribirse como \hbar [1] )

En la física de sistemas clásicos esta incertidumbre de la posición-momento no se manifiesta puesto que se aplica a estados cuánticos y h es extremadamente pequeño. Una de las formas alternativas del principio de incertidumbre más conocida es la incertidumbre tiempo-energía que puede escribirse como:

\Delta E \Delta t   \ge \frac{\hbar}{2}

Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de incertidumbre es también la utilizada para estudiar el concepto de energía del vacío.

Explicación cualitativa[editar]

En física clásica, consideramos que tenemos un sistema completamente caracterizado si conocemos las posiciones y el momento de todas sus partículas en un instante dado. Al analizar un sistema que constara de un sólo electrón, Heisenberg encontró que para tratar de determinar la posición con exactitud se necesitarían fotones de alta frecuencia, que al interaccionar con el electrón alterarían significativamente su velocidad. Para tratar de determinar su velocidad con exactitud habría que utilizar fotones de baja energía, que alterasen mínimamente la velocidad de la partícula, pero estos fotones nos darían una visión demasiado "borrosa" de la posición. En suma, encontró que no existía un compromiso posible que nos permitiera medir con precisión ambas variables.

En general, cuando un sistema es lo suficientemente pequeño, no existen métodos físicamente posibles de observarlo sin alterar considerablemente su estado. Volviendo sobre el ejemplo anterior, para que un fotón incida sobre una partícula deberá tener una longitud de onda máxima igual al diámetro de esa partícula (en caso contrario la partícula resulta transparente al fotón) para poder interaccionar. Sabemos que la energía de un fotón es inversamente proporcional a su longitud de onda, en concreto:

E = h c / λ

El Principio cuantifica la máxima precisión que podemos esperar obtener de una observación: el error total en nuestras medidas simultáneas de dos variables conjugadas será siempre como mínimo igual a la constante de Planck dividida por un factor de 4Π. Recordemos que la constante de Planck, de manera muy significativa, corresponde al cuanto de acción, esto es, la acción mínima que se puede ejercer sobre un sistema.

Para comprender este principio es imprescindible que reflexionemos acerca de los procesos que denominamos de "observación" o "medición". Cuando realizamos una medida en un experimento, lo que hacemos es tratar de extraer información de un sistema introduciendo un aparato de medida que, al entrar en contacto con el sistema observado, es alterado por éste. Debemos siempre escoger el aparato de medida de manera que la alteración que produzca en el sistema sea despreciable en comparación a la magnitud de aquello que estamos midiendo. Por ejemplo, si queremos medir la temperatura de un líquido caliente e introducimos en él un termómetro, el líquido cede parte de su calor al mercurio del termómetro. Esta cesión de calor hace que disminuya la temperatura del líquido, pero siempre que haya una cantidad de líquido suficiente, el error que esa disminución produce en la medida será despreciable: la energía intercambiada con el termómetro es insignificante comparada con la energía del sistema que deseamos medir. Cuanto más pequeño y liviano sea el sistema que queremos medir, más sutiles deben ser los aparatos de medida. Cuando lo que tratamos de observar es el mundo subatómico nos encontramos con la imposibilidad física de construir aparatos más sutiles que el sistema que es objeto de estudio.

Consecuencias del principio[editar]

Este principio supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser exacto con el tiempo) a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error.

El principio de indeterminación es un resultado teórico entre magnitudes conjugadas (posición - momento, energía-tiempo, etcétera). Un error muy común es decir que el principio de incertidumbre impide conocer con infinita precisión la posición de una partícula o su cantidad de movimiento. Esto es falso. El principio de incertidumbre nos dice que no podemos medir simultáneamente y con infinita precisión un par de magnitudes conjugadas.

Es decir, nada impide que midamos con precisión infinita la posición de una partícula, pero al hacerlo tenemos infinita incertidumbre sobre su momento. Por ejemplo, podemos hacer un montaje como el del experimento de Young y justo a la salida de las rendijas colocamos una pantalla fosforescente de modo que al impactar la partícula se marca su posición con un puntito. Esto se puede hacer, pero hemos perdido toda la información relativa a la velocidad de dicha partícula.

Por otra parte, las partículas en física cuántica no siguen trayectorias bien definidas. No es posible conocer el valor de las magnitudes físicas que describen a la partícula antes de ser medidas. Por lo tanto es falso asignarle una trayectoria a una partícula. Todo lo más que podemos es decir que hay una determinada probabilidad de que la partícula se encuentre en una posición más o menos determinada.

Comúnmente, se considera que el carácter probabilístico de la mecánica cuántica invalida el determinismo científico. Sin embargo, existen varias interpretaciones de la mecánica cuántica y no todas llegan a esta conclusión. Según puntualiza Stephen Hawking, la mecánica cuántica es determinista en sí misma, y es posible que la aparente indeterminación inherente al principio de incertidumbre se deba a que realmente no existen posiciones y velocidades de partículas, sino sólo ondas. Los físicos cuánticos intentarían entonces ajustar las ondas a nuestras ideas preconcebidas de posiciones y velocidades. La inadecuación de estos conceptos sería la causa de la aparente impredecibilidad.

Incertidumbre e indeterminación[editar]

Los términos "indeterminación" e "incertidumbre" son equivalentes en este contexto, podemos referirnos al "principio de indeterminación de Heisenberg" o "principio de incertidumbre de Heisenberg" indistintamente.

Artículos relacionados[editar]

Referencias[editar]

  1. . Esta cantidad aparece con mucha frecuencia en la física moderna debido a que, además de su relación con el principio de incertidumbre, es también la unidad básica del momento angular.