Diferencia entre revisiones de «Física/Física moderna/Principio de incertidumbre de Heisenberg»

De Wikilibros, la colección de libros de texto de contenido libre.
Contenido eliminado Contenido añadido
Dhow (discusión | contribs.)
Dhow (discusión | contribs.)
Línea 24: Línea 24:
El Principio cuantifica la máxima precisión que podemos obtener de una observación: el error total en nuestra medida simultánea del estado de un sistema sera siempre como mínimo igual a la constante de Planck. Recordemos que esta constante, de manera muy significativa, resulta corresponder al cuanto mínimo de acción.
El Principio cuantifica la máxima precisión que podemos obtener de una observación: el error total en nuestra medida simultánea del estado de un sistema sera siempre como mínimo igual a la constante de Planck. Recordemos que esta constante, de manera muy significativa, resulta corresponder al cuanto mínimo de acción.


Parta comprender este principio es imprescindible que reflexionamos acerca del proceso que denominamos "observar" o "medir". En un experimento, cuando tratamos de extraer información de un sistema utilizamos un aparato de medida, que al entrar en contacto con el sistema observado, es alterado por éste. Debemos escoger nuestro aparato de medida de manera que esa alteración sea despreciable en comparación a la magnitud de lo que estamos midiendo. Por ejemplo, imaginemos que queremos medir la temperatura de un líquido caliente e introducimos en él un termómetro: el líquido cede parte de su calor al mercurio de nuestro termómetro. Esta cesión de calor ha disminuído en efecto la temperatura del líquido, pero siempre que haya una cantidad de líquido suficiente, el error en la medida será despreciable: la energía intercambiada con el aparato de medida es despreciable en comparación a la energía del sistema que deseamos medir. Cuanto más pequeño y livianos sea lo que queremos medir, necesitaremos aparatos más sutiles, que alteren mínimamente el sistema. Pero cuando queremos observar el mundo de las partículas subatómicas, nos encontramos con que no existen mecanismos tan sutiles que nos permitan observarlas sin modificarlas de manera significativa.
Para comprender este principio es imprescindible que reflexionamos acerca del proceso que denominamos "observar" o "medir". En un experimento, cuando tratamos de extraer información de un sistema utilizamos un aparato de medida, que al entrar en contacto con el sistema observado, es alterado por éste. Debemos escoger nuestro aparato de medida de manera que esa alteración sea despreciable en comparación a la magnitud de lo que estamos midiendo. Por ejemplo, imaginemos que queremos medir la temperatura de un líquido caliente e introducimos en él un termómetro: el líquido cede parte de su calor al mercurio de nuestro termómetro. Esta cesión de calor ha disminuído en efecto la temperatura del líquido, pero siempre que haya una cantidad de líquido suficiente, el error cometido en la lectura será despreciable: la energía intercambiada con el aparato de medida es despreciable en comparación a la energía del sistema que deseamos medir. Cuanto más pequeño y liviano sea lo que queremos medir, necesitaremos aparatos más sutiles, que alteren mínimamente el sistema. Pero cuando queremos observar el mundo de las partículas subatómicas nos encontramos con que no existen mecanismos tan sutiles que nos permitan observarlas sin modificarlas de manera significativa.


== Consecuencias del principio ==
== Consecuencias del principio ==

Revisión del 03:09 22 oct 2010

En mecánica cuántica el principio de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y la cantidad de movimiento de un objeto dado. En palabras sencillas, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.

Definición formal

Si se preparan varias copias idénticas de un sistema en un estado determinado, las medidas de posición y momento (masa x velocidad) de las partículas constituyentes variarán de acuerdo a una cierta distribución de probabilidad característica del estado cuántico del sistema. Las medidas de la desviación estándar Δx de la posición y el momento Δp verifican entonces el principio de incertidumbre que se expresa matemáticamente como:

donde h es la constante de Planck (para simplificar, suele escribirse como [1] )

En la física de sistemas clásicos esta incertidumbre de la posición-momento no se manifiesta puesto que se aplica a estados cuánticos y h es extremadamente pequeño. Una de las formas alternativas del principio de incertidumbre más conocida es la incertidumbre tiempo-energía que puede escribirse como:

Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de incertidumbre es también la utilizada para estudiar el concepto de energía del vacío.

Explicación cualitativa

En física clásica, consideramos que tenemos un sistema completamente caracterizado si conocemos las posiciones y el momento de todas sus partículas en un instante dado. Al analizar mentalmente un sistema que constara de un sólo electrón Heisemberg se encontró con que cuando tratamos de determinar la posición de este electrón con exactitud se necesitan fotones de alta frecuencia que modifican enormemente la velocidad de la partícula. Cuando tratamos de determinar el momento con exactitud necesitamos utilizar fotones de baja energía, que alteren mínimamente la velocidad de la partícula, pero estos fotones nos dan una visión demasiado "borrosa" de la posición. No existe un compromiso posible que nos permita medir con precisión ambas variables.

Podemos generalizar diciendo que cuando un sistema es lo suficientemente pequeño, no existen métodos físicamente posibles de observarlo sin alterar considerablemente su estado. Por ejemplo, si deseamos observar una partícula subatómica, tendremos que hacer incidir sobre ésta un fotón. Para que este fotón incida sobre el electrón deberá tener una longitud de onda máxima igual al diámetro del electrón, o en caso contrario no llegará a interaccionar con él. Sabemos que la energía de un fotón es inversamente proporcional a su longitud de onda, en concreto:

E = h c / λ

El Principio cuantifica la máxima precisión que podemos obtener de una observación: el error total en nuestra medida simultánea del estado de un sistema sera siempre como mínimo igual a la constante de Planck. Recordemos que esta constante, de manera muy significativa, resulta corresponder al cuanto mínimo de acción.

Para comprender este principio es imprescindible que reflexionamos acerca del proceso que denominamos "observar" o "medir". En un experimento, cuando tratamos de extraer información de un sistema utilizamos un aparato de medida, que al entrar en contacto con el sistema observado, es alterado por éste. Debemos escoger nuestro aparato de medida de manera que esa alteración sea despreciable en comparación a la magnitud de lo que estamos midiendo. Por ejemplo, imaginemos que queremos medir la temperatura de un líquido caliente e introducimos en él un termómetro: el líquido cede parte de su calor al mercurio de nuestro termómetro. Esta cesión de calor ha disminuído en efecto la temperatura del líquido, pero siempre que haya una cantidad de líquido suficiente, el error cometido en la lectura será despreciable: la energía intercambiada con el aparato de medida es despreciable en comparación a la energía del sistema que deseamos medir. Cuanto más pequeño y liviano sea lo que queremos medir, necesitaremos aparatos más sutiles, que alteren mínimamente el sistema. Pero cuando queremos observar el mundo de las partículas subatómicas nos encontramos con que no existen mecanismos tan sutiles que nos permitan observarlas sin modificarlas de manera significativa.

Consecuencias del principio

Este Principio supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser exacto con el tiempo) a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error.

El principio de indeterminación es un resultado teórico entre magnitudes conjugadas (posición - momento, energía-tiempo, etcétera). Un error muy común es decir que el principio de incertidumbre impide conocer con infinita precisión la posición de una partícula o su cantidad de movimiento. Esto es falso. El principio de incertidumbre nos dice que no podemos medir simultáneamente y con infinita precisión un par de magnitudes conjugadas.

Es decir, nada impide que midamos con precisión infinita la posición de una partícula, pero al hacerlo tenemos infinita incertidumbre sobre su momento. Por ejemplo, podemos hacer un montaje como el del experimento de Young y justo a la salida de las rendijas colocamos una pantalla fosforescente de modo que al impactar la partícula se marca su posición con un puntito. Esto se puede hacer, pero hemos perdido toda la información relativa a la velocidad de dicha partícula.

Por otra parte, las partículas en física cuántica no siguen trayectorias bien definidas. No es posible conocer el valor de las magnitudes físicas que describen a la partícula antes de ser medidas. Por lo tanto es falso asignarle una trayectoria a una partícula. Todo lo más que podemos es decir que hay una determinada probabilidad de que la partícula se encuentre en una posición más o menos determinada.

Incertidumbre e indeterminación

Los términos "indeterminación" e "incertidumbre" son equivalentes en este contexto, podemos referirnos al "principio de indeterminación de Heisenberg" o "principio de incertidumbre de Heisenberg" indistintamente.

Referencias

  1. Denominada h partida. Esta cantidad aparece con mucha frecuencia en la física moderna debido a que, además de su relación con el principio de incertidumbre, es también la unidad básica del momento angular.