Mecánica clásica/Mecánica analítica/Ejercicios/El oscilador armónico

De Wikilibros, la colección de libros de texto de contenido libre.

La función Hamiltoniana del oscilador armónico es

donde q es la la coordenada generalizada y p es el momento asociado a dicha coordenada. Se puede llegar a dicha función tomando algunas consideraciones, como que las fuerzas son conservativas y por tanto la Hamiltoniana es igual a la energía total del sistema H=E=T+U. Sin embargo, para llegar la primera vez a la forma que tienen T y U probablemente es necesario saber un poco de física y conocer a propri cómo funciona el sistema, dándose el caso de que si has conseguido obtener la forma de la Hamiltoniana, perfectamente podrías haber calculado las ecuaciones del movimiento, que es lo que ahora pretendemos obtener. Sin embargo, con la finalidad de comprender mejor la potencia de la formulación Hamiltoniana, supongamos que no sabemos nada acerca del sistema, tan solo que la función dada arriba es la Hamiltoniana de nuestro sistema, sin importar por qué.

Resolución convencional[editar]

En la formulación Hamiltoniana, el axioma que hay que aceptar es la validez de las ecuaciones de Hamilton. Es decir, que si algo se deriva de dichas ecuaciones, es verdad. Tanto es así que, si los resultados obtenidos no fueran los correctos, deberíamos buscar el fallo en otra parte, y la única parte que resta ya sabemos cuál es, la función Hamiltoniana. Además, la forma de las ecuaciones de Hamilton son iguales independientemente del sistema físico estudiado, por lo que dichas ecuaciones no contienen ninguna información sobre nuestro sistema. Toda la información que es propia del sistema se encuentra "oculta" en la función Hamiltoniana, aunque no se puede acceder a ella directamente, sino que se nos revela a través de las ecuaciones de Hamilton. Veámos cómo serían en este caso.

La primera ecuación nos liga la coordenada con su momento, y no es otra cosa que la definición clásica del momento lineal,

aunque quizá estamos más acostumbrados a verla como . Esto demuestra que en la formulación Hamiltoniana, los momentos y las coordenadas son completamente independientes, ya que no basta la Hamiltoniana (que es lo único que suponemos de nuestro sistema) para saber qué relación existe entre una coordenada y su momento. Podría ser cualquiera, pero son las ecuaciones de Hamilton las que imponen cuál debe ser la relación entre coordenada y momento asociado.

La segunda ecuación nos da la ecuación del movimiento. Como ocurre a menudo, se trata una ecuación diferencial de segundo orden donde la "incógnita" es una función q=q(t), que indica el valor de la coordenada para cualquier instánte de tiempo.

Sin embargo, en esta ocasión, la ecuación liga la función y la función . Podemos obtener derivando la primera ecuación con respecto al tiempo

y, sustituyendo en la segunda,

ahora sí, hemos obtenido una ecuación diferencial en la que solo aparece la función incógnita q. Esta es la ecuación del movimiento armónico simple (MAS), de enorme importancia en la física

La teoría de ecuaciones diferenciales nos dice que la combinación lineal dos soluciones independientes, como lo son y , de esta ecuación diferencial lineal de segundo grado, es la solución general de dicha ecuación.

Sin embargo, no es la única forma de expresar la solución general, cualquier otro par de funciones linealmente independientes valdrían, pero necesariamente dicha solución es equivalente a q(t). Por ejemplo, uno podría pensar que la solución

es más general que la anterior, pero es fácil ver que ambas son equivalentes. Por ejemplo, usando las propiedades trigonométricas

podemos ver que si en la solución original elegimos las constantes A y B de la forma

obtnemos exactamente la solución , que tiene de nuevo dos constantes indeterminadas C y D.

El valor de las constantes se establece automáticamente si imponemos que el valor de las funciones q y p en algún instánte de tiempo debe ser igual a algún par de constantes y . Por simplicidad siempre se escoge t=0.

Esta procedimiento se conoce como resolución del problema de Cauchy o problema de valores iniciales (PVI) en el campo de las ecuaciones diferenciales.

Sustituyendo en la solución que hemos escogido y también en la función p, que es fácilmente obtenible a través de la primera

vemos cuánto deben valer las constantes indefinidas A y B:

Por lo que finalmente obtenemos la ecuación del movimiento de nuestro sistema (y la del momento)

esto es, dado un instante de tiempo sabemos en qué estado físco (q,p) se encuentra el sistema.

Resolución a través de la ecuación diferencial vectorial[editar]

Replanteamos de nuevo el problema con un enfoque distinto. Reescribamos las ecuaciones de Hamilton en forma matricial para tener la misma información pero de forma agrupada

Si consiguieremos resolver esta ecuación diferencial lineal vectorial

obtendríamos al mismo tiempo la forma explícita de q y p, ¡y de una manera increíblemente elegante! Sin embargo, en general esto es difícil, pero vemos que en este caso es posible escribir dicha ecuación de una forma fantástica:

Es decir, la derivada temporal del vector de las coordenadas canónicas mantiene una relación lineal con dichas coordenadas. Es una relación lineal porque se puede pasar de un vector a otro por medio de la multiplicación por una matriz , que en este caso es

Esta relación lineal no se da en todos los sistemas físicos, solo para algunas Hamiltonianas muy sencillas. Veamos más clara la relación dando el nombre al vector de coordenadas

La ecuación queda de la forma

Intuitivamente, cabe esperar que la solución de dicha ecuación sea algo parecido a

y la matriz no depende del tiempo.

Ahora bien, la primera objeción es ¿cuál es la definición de la exponencial de una matriz? Pues es formalmente la misma que la definción de la exponencial de una variable escalar. Su forma explícita es un desarrollo infinito en serie de potencias

donde la poténcia n-ésima de la matriz se entiende como aplicar n veces la matriz a un vector aunque, también, gracias a la propiedad asociativa de la multiplicación de matrices, es la matriz multiplicada por si misma n veces. De esta forma, es posible dar sentido a cualquier función de una matriz si dicha función es expresable en serie de Taylor. El lector incrédulo puede demostrar que esta serie de Taylor es efectivamente la solución de la ecuación diferencial

La segunda objeción es que esta exponencial es una matriz, mientras que nuestra solución debe ser un vector. Esto tiene una fácil solución, tan solo aplicar la matriz a un vector constante

Comprobemos que efectivamente

es la solución general de nuestra ecuación vectorial diferencial

ya que, como es lógico, la derivada temporal no actúa sobre A porque es una constante y el producto de matrices es asociativo.

Imponiendo las condiciones iniciales y en el tiempo 0 determinamos completamente las constantes,

es decir, que la solución particuar de nuestro sistema físico es

Llegado a este punto hemos comprendido que esta es efectivamente la solución que estamos buscando. Sin embargo, ¡es una serie infinta! Veamos si encontramos alguna manera de sumar la serie. Calculemos las potencias de M

Y en general, para ,

Por tanto, podemos agrupar la serie como

que no es otra cosa que

Esta expresión nos permite escribir la fórma explícita de la matriz

y por ende calcular finalmente nuestra solución

o lo que es lo mismo,

La solución obtenida es, por supuesto, la obtenida de la forma convencional:

Resolución mediante autovectores[editar]

Planteemos las ecuaciones de Hamilton de manera vectorial, como lo hicimos en el caso anterior

y aprovechémonos de nuevo de la dependencia lineal entre el vector de coordenadas canónicas y su derivada

Sabemos que la solución general de esta ecuación diferencial vectorial lineal es

aunque si no hubiéramos hecho el ejercicio anterior no sabríamos cuál es la forma explícita de . En esta ocasión calcularemos el vector de coordenadas canónicas por medio de la teoría de autovectores y autovalores, evitando tener que calcular de forma concreta dicho operador.

Una vez que sepamos los autovalores, y , y los respectivos autovectores, y , de , será muy fácil obtener la solución debido a que para cualquier función se cumple

es un operador (en nuestro caso particular, una matriz) que cobra sentido por medio de su expansión en serie de Taylor. En este caso el desarrollo de Taylor tiene como variable , mientras la otra vez era . Se puede comprobar que la ecuación de arriba es cierta por medio de este desarrollo:

donde se ha aplicado la definición de un autovector con autovalor de un operador :

De esta manera, basta escribir como combinación lineal de los autovectores,

que por supuesto, dependerá de , , y la solución general de nuestro problema será,

Hemos hecho uso de la linealidad de la matriz sobre los vectores

Calculemos primero los autovalores de :

Los autovalores son por tanto

Ahora podemos encontrar los autovectores asociados

Obviamente las dos ecuaciones dan la misma información (son linealmente dependientes). Mediante cualquiera de ellas y elgiendo una constante normalizadora tenemos el primer autovector

El segundo se obtiene igualmente

Estos autovectores no son ortonormales (lo cual no es extraño ya que no es una matriz Hermitiana)

Nótese que, correctamente, se ha tomado el complejo conjugado del transpuesto de para calcular el producto escalar. es el complejo conjugado de , aunque como este es real, ambos coinciden.

Expresemos ahora como combinación lineal de los autovectores,

lo cuál está asegurado que puede ocurrir dado que son linealmente independientes. Calculemos las constantes

Y además sabemos que

Igualando adecuadamente estas ecuaciones llegamos a un sistema de dos ecuaciones de dos incógnitas, cuya solución son los coeficientes y en términos de y . Si los obtuviéramos estaríamos a un paso para obtener nuestra solución .

Cambio de coordenadas para obtener autovectores ortogonales[editar]

Ya hemos visto cómo se pueden complicar los cálculos. Sin embargo, hay una solución que, aunque tiene algunos pasos más, hace que la obtención de las constantes de la combinación lineal de autovectores sea automática. Consiste en hacer un cambio de variable de forma que el operador sea Hermítico y así los autovectores y sean ortogonales entre sí, . Si normalizamos, como es habitual, los autovectores serán ortonormales, y se cumplirá que

Como se ve, el cálculo de los coeficientes y en este caso es inmediato una vez conocidos los autovectores, mientras antes era necesario resolver un sistema de ecuaciones. La solución al problema sería, como vimos antes

donde es el autovalor asociado a .

La tarea es encontrar un cambio de coordenadas que proporcione una matriz Hermítica y obtener sus autovectores y autovalores. En este caso de dos dimensiones, es equivalente a que tenga la forma

con y necesariamente reales. Esto es fácil de conseguir con el cambio de variables

Este cambio de variables define una nueva Hamiltoniana más simétrica

cuyas ecuaciones del movimiento son

con

no es estrictamente Hermítica, pero sí lo es. Dado que los autovectores de una matriz multiplicada por una constante son los mismos que los de la matriz original (aunque los autovalores quedan multiplicados por dicha constante)

tenemos garantizado que los autovectores de son ortogonales.

Es muy fácil calcular los autovalores de

y sus autovectores

Como hemos visto antes, los coeficientes de la expansión de A son:

Y el vector de coordenadas es

Ahora hay que recuperar las coordenadas originales q y p por medio del cambio inverso

Fijaremos las constantes y una vez que tengamos nuestra solución en dichas coordenadas. Si, por el contrario, las fijáramos en estas coordenadas, lo que obtendríamos sería y , por lo que habría que hacer el cambio de coordenadas dos veces, una para obtener las coordenadas originales y otra para obtener y . Los cambios de coordenadas puede resultar liosos, ya que uno puede equivocarse fácilmente pensando si hay que multiplicar o dividir. Al final del ejercicio mostraremos una forma matricial e intuitiva de hacerlo, sin tener que recordar las fórmulas de álgebra.

Fijando las condiciones iniciales,

obtenemos

luego la solución del problema original es

Hagamos ahora el cambio de coordenadas de manera más formal. Hacerlo "sustituyendo" como antes es igualmente válido, pero puede ser más fácil equivocar algún cálculo. Con las matrices todo está más recogido. Basta escribir el cambio en forma matricial

Necesariamente dichas matrices necesariamente son invertibles y una es precisamente la inversa de la otra. Pongámosles un nombre. Por supuesto, no importa a cual sea la matriz original y cual su inversa.

Como vimos antes, e imponiendo y .

Y ahora, ¡resolvamos el problema de manera elegante!