Postulados de Mecánica Cuántica
Postulados de Mecánica Cuántica
Ya hemos adquirido la base matemática junto con alguna motivación física para abordar los prin-
cipios fundamentales de la teoría: Es hora de conocer los postulados de la mecánica cuántica. En
este capítulo vamos a discutirlos en terminos generales para extraer las caracteristicas esenciales de
la teoría. Esto nos permitirá, por ejemplo, entender la secuencia de experimentos de Stern-Gerlach
que mostramos en el primer capítulo.
1 Los postulados
Aquí enunciamos los postulados de la mecánica cuántica (no relativista) para el caso de una única
partícula, luego se pueden generalizar al caso de dos o más partículas. A su vez, se enuncian también
sus contrapartes clásicas para ganar alguna perspectiva.
Postulado I:
El estado de una partícula (sistema) está representado por un vector j (t)i en un espacio de
Hilbert.
Mecánica Clásica: El estado de una partícula, en cualquier instante del tiempo, está especificado
por las variables x(t) y p(t) como un punto en un espacio bidimensional.
Postulado II:
Las variables independientes x y p de mecánica clásica son representadas por operadores Hermi-
tianos x^ y p^ con los siguientes elementos en la autobase de x^
d
hxjx^ jx 0i = x(x ¡ x 0); hxjp^jx 0i = ¡i~ (x ¡ x 0):
dx
Los operadores correspondientes a variables dependientes !(x; p) (en adelante observables) son
también operadores Hermitianos dados como
d ^ j (t)i
i~ j (t)i = H
dt
donde H ^ (x^; p^) = H(x ! x^; p ! p^) es el operador cuántico Hamiltoniano y H es el Hamiltoniano
para el problema clásico correspondiente.
Mecánica Clásica: Las variables de estado cambian en el tiempo de acuerdo a las ecuaciones de
Hamilton:
@H @H
x_ = ; p_ = ¡ :
@p @x
1
2 Discusión de los postulados I-III
Los postulados (tanto clásicos como cuánticos) caen en dos grupos: los primeros tres, que nos
dicen cómo el sistema es representado en un tiempo dado, y el cuarto, que nos dice cómo esta
representación evoluciona en el tiempo.
El primer postulado nos dice que el vector de estado está descripto por un ket j i en un espacio
de Hilbert. Un ket en este espacio posee en general un número infinito de componentes en una
base dada. Uno entonces puede preguntarse ¾por qué una partícula, que en mecánica clásica puede
especificarse por solo dos variables independientes x y p, ahora necesita un número infinito de
variables? ¾Qué nos dicen estas variables acerca de la particula? Para ver esto, debemos usar los
siguientes dos postulados.
Cuando decimos que j i es un elemento de un espacio vectorial queremos decir que si j i y
j 0i representan estados posibles de una partícula, entonces lo mismo ocurre con el ket j 00i =
j i + j 0i. Esto es lo que se conoce por principio de superposición. Visto así, esto no es del
todo nuevo. En el caso clásico, por ejemplo, si f (x) y g(x) (con f (0) = f (L) = g(0) = g(L) = 0) son
dos posibles desplazamientos de una cuerda, también lo será la combinación h(x) = f (x) + g(x).
Como ya veremos, lo que distingue al estado de superposición cuántico del clásico es que en el caso
clásico h posee atributos muy diferentes de f y g (se ve diferente, posee diferente energía, etc.).
En el caso cuántico, por el contrario, los atributos de j 00i algunas veces se parecen a los de j i y
otras veces a los de j 0i. Veamos esto de manera más rigurosa.
En mecánica clásica cuando un estado (x; p) es dado, uno puede decir que cualquier variable
dinámica ! tiene valor !(x; p), en el sentido de que si es medida, su valor será !(x; p). ¾Cuál sería
la contraparte cuántica de esto? La respuesta se encuentra en los postulados II y III, en términos
de los siguientes pasos:
P1. Construya el operador cuántico correspondiente ^ = !(x ! x^; p ! p^), donde x^ y p^ son los
operadores definidos en el postulado II.
P2. Encuentre los autovectores (ortonormales) j!ii y autovalores !i de ^ .
P3. Expanda j i en esta base
X
j i = h!ij ij!ii:
i
P^!i = j!iih!ij
se tiene
2
Está claro que si el estado en cuestion está normalizado, es decir h j i = 1, tendremos directamente
j!1i + j!2i
j i =
(j j2 + j j2)1/2
los posibles resultados de una medicion de son !1 y !2, con probabilidades P (!1) = j j2 / (j j2 +
j j2) y P (!2) = j j2 /(j j2 + j j2). Esta es la consecuencia peculiar del principio de superposición
en mecánica cuántica que no tiene contraparte clásica: Si en el problema la cuerda medimos la
variable dinámica en el estado h, uno no obtiene algunas veces el resultado de f y otras el resultado
de g, sino un valor distinto a estos dos.
5) Cuando uno desea información de otro observable , se puede repetir todo el proceso encon-
^ . Entonces
trando los autovalores i y autoestados jii del operador asociado
Las autobases de ^ y ^ pueden, en general, ser diferentes. En resumen, tenemos un único ket j i
representando al estado de la particula en el espacio de Hilbert, y contiene la predicción estadística
para todos los observables. Para extraer esta información para cualquier observable, debemos
encontrar la autobase del operador correspondiente y proyectar j i sobre sus autokets.
que, de paso, lleva a ^ a ser Hermítico. La simetrización funciona siempre que ^ no involucre
productos de dos o mas potencias de x^ con dos o más potencias de p^. Si así fuere, solo el experimento
puede decidir la prescripcion correcta.
Complicación N°2. El operador ^ es degenerado.
Supongamos que !1 = !2 = !. ¾Cuál sería P (!) en este caso? Seleccionemos alguna base ortonormal
j!; 1i y j!; 2i en el autoespacio V! con autovalor !. Entonces
3
lo que representa el módulo cuadrado de la proyección de j i sobre el subespacio degenerado. Esto
es lo que uno obtiene si asumimos que !1 y !2 son infinitesimalmente distintos y preguntamos por
P (!1 ó !2). En términos del operador proyección sobre el subespacio degenerado,
se tiene
Podemos entonces generalizar el postulado III (medición) para el caso de subespacios degenerados,
diciendo que la probabilidad de obtener como resultado el valor ! es
P (!) / h jP^! j i
Uno espera que, a medida que ! varía en forma continua, también lo haga h!j i, es decir, que h!j i
sea una funcion suave (!). Para visualizar esta función uno introduce un espacio unidimensional
auxiliar, denominado espacio !, cuyos puntos están dados por la coordenada !. En este espacio,
(!) es una función suave de ! y es llamada función de onda en el espacio de !. En lo que
concierne al vector de estado j i, solo hay un espacio, el espacio de Hilbert, en donde este vector
reside. Los espacios como ! son variedades auxiliares introducidas con el objetivo de visualizar
las componentes del vector de infinitas componentes j i en la base , por ejemplo. Esta función
también puede entenderse como la amplitud de probabilidad de hallar al sistema con el observable
en el valor !.
¾Podemos interpretar a jh!j ij2 como la probabilidad de hallar al sistema/partícula con un valor !
para ^ ? En el continuo esto no es cierto, ya que el número de valores posibles para ! es infinito y
la probabilidad total es la unidad, por lo que para cada valor de ! podemos asignar una densidad
de probabilidad. Uno entonces interpreta a P (!) = jh!j ij2 como la densidad de probabilidad de
medir el resultado en el valor !, lo que significa que P (!)d! es la probabilidad de obtener como
resultado un valor entre ! y ! + d!. Esto entonces está de acuerdo con el requisito de que la
probabilidad total sea uno, ya que
Z Z Z
P (!)d! = jh!j ij2d! = h j!ih!j id! = h j i = 1:
Un ejemplo importante de observable con espectro continuo es aquel de x^, el operador asociado
al observable posicion. Anteriormente nos preguntamos por qué una partícula clásica, que puede
definirse con las variables x y p, ahora en mecánica cuántica se define por un ket j i que tiene
un número infinito de componentes. La respuesta es ahora clara. La partícula clásica tiene una
posición definida. La partícula cuántica, por el contrario, puede tomar cualquier valor x luego de
una medición y uno debe dar las probabilidades relativas para todos los resultados posibles. Esta
es parte de la informacion contenida en (x) = hxj i, las componentes de j i en la autobase de
x^. Por supuesto, en el caso de la partícula clásica uno debe especificar tambien el momento p. En
mecánica cuántica vuelve a ocurrir lo mismo que con x, pero uno no necesita dar un nuevo vector
de estado j i para especificarlo. El mismo ket j i puede expandirse en la autobase del operador
momento p^ para dar la funcion de onda en el espacio p, (p) = hpj i.
4
Complicación N°4: El observable no tiene contraparte clásica.
El caso del espín, que es un momento angular intrínseco en partículas como el electrón, es un grado
de libertad ausente en mecánica clásica. Al estar ausente, los postulados anteriores no nos dicen
cómo calcular el operador correspondiente. Como se vera más adelante, la solución es provista por
una combinación de razonamiento intuitivo y análisis semi-clásico.
donde P^! es el operador proyección asociado con j!i, y luego de la medición el estado ha sido
normalizado. Esto es lo que se conoce como el colapso de la función de onda y es uno de los temas
más discutidos de la teoría (incluso en la actualidad) al punto que existen varias interpretaciones
de la mecánica cuántica.
Si ! es degenerado
P^! j i
j i !
hP^! jP^! i1/2
5
la teoría predice que vamos a obtener como resultado 1 y 2 con probabilidades 1/3 y 2/3,
respectivamente. Si el resultado fuera distinto de alguno de estos dos entonces ½este sería el fin
de la teoria! Asumamos entonces que obtenemos uno de estos dos posibles valores, digamos 1.
Esto es consistente con la teoría pero no lo corrobora, ya que las chances de obtenerlo podrían
haber sido 1/30 y no 1/3 y aun así podríamos obtener el mismo resultado. Por lo tanto, debemos
repetir el experimento muchas veces, lo cual implica empezar nuevamente con otra partícula en el
estado j!i. Para esto se requiere de un ensamble cuántico, que consiste de un número grande N
de partículas, todas ellas en el mismo estado j!i. Si realizamos una medicion de con cada una
de estas partículas, entonces aproximadamente N / 3 darán como resultado 1 y terminarán en el
estado j1i, mientras que las otras 2N /3 darán como resultado 2 y terminarán en el estado j2i.
Para N lo suficientemente grande, las desviaciones con respecto a las fracciones 1 / 3 y 2 / 3 debieran
volverse despreciables.
Si en mecánica clásica N / 3 partículas dan por resultado = 1 y 2N / 3 dan el valor = 2, entonces
uno puede pensar que el ensamble contiene estas cantidades de partículas antes de la medición. En
el caso cuántico, por el contrario, el estado de todas las partículas previo a la medición es siempre
el mismo. Solo luego de la medición uno tiene que un tercio de ellas son forzadas a tomar el valor
1 y el resto 2.
La clave entonces está en poder construir un ensamble de partículas/sistemas de modo que uno
pueda testear las predicciones de la mecánica cuántica. De hecho, uno podría dejar evolucionar en
el tiempo este ensamble y estudiar si el estado final está de acuerdo con la ecuación de Schrödinger,
que veremos mas adelante.
4 Valor de expectación
Dado un ensamble de N partículas en un estado j i, la teoría cuántica predice cuál es la fracción
del ensamble que dará como resultado el valor ! si se mide el observable . Esta predicción,
sin embargo, involucra la resolución del problema de autovalores del operador ^ . Si uno no esta
interesado en tal información detallada del estado (o del correspondiente ensamble), uno puede
calcular un promedio sobre el ensamble llamado valor de expectación o valor esperado, h ^ i. Este
valor de expectación es justamente el valor medio definido en estadística, es decir
X X X
h^i = P (!i)!i = jh!ij ij2!i = h j!ii!i h!ij i:
i i i
h ^ i = h j ^ j i:
1) Para calcular h ^ i uno solo necesita conocer el vector de estado y el operador en cuestión. No
hay necesidad de calcular el espectro de autovalores de ^ .
2) Si la partícula se encuentra en un autoestado de ^ , digamos ^ j i = !j i, entonces h ^ i = !.
3) Por valor promedio de queremos decir valor promedio sobre ensamble. Una partícula dada va
a dar como resultado solo uno de los autovalores posibles. El valor medio va a ser por lo general
inaccesible para una única medición a no ser que accidentalmente sea igual a un autovalor.
6
5 Incerteza
En cualquier situación descripta en forma probabilística, otra cantidad util de especificar aparte
del valor medio, es la desviación estandar , la cual mide la fluctuación promedio alrededor del valor
medio. Se define como
= h( ^ ¡ h ^ i)2i1/2:
Notar que , al igual que h ^ i, puede calcularse a partir del vector de estado y el operador, esto es
6 Compatibilidad de observables
Ahora queremos extender las ideas de medición antes discutidas para más de un observable. Consi-
deremos primero el caso de dos operadores, siendo su extensión a más operadores bastante directa.
Nos preguntamos entonces
1) ¾Existe algún proceso de filtro múltiple por el cual podamos tomar un ensamble de partículas
en el estado j i y producir un estado con valores a 0 y b 0 bien definidos para dos observables A y B?
2) ¾Cuál es la probabilidad de que el proceso de filtrado dé como resultado tal estado, partiendo
del estado j i?
Para responder a estas preguntas, primero intentemos imaginar un proceso de filtrado múltiple.
Midamos primero A en el ensamble descripto por j i y tomemos aquellas partículas que dan como
resultado el valor a 0. Sabemos que estas están en un estado bien definido para A. Inmediatamente
medimos B y tomamos aquellas partículas que dan como resultado el valor b 0. ¾Tenemos ahora
un ensamble que está en un estado con A = a 0 y B = b 0? En general esto no ocurre y la razón es
la siguiente: Luego de la primera medición tenemos al sistema (filtrado) en el estado ja 0i, el cual
asegura el valor a 0 para A, pero no dice nada de B ya que ja 0i no es necesariamente un autoestado
de B ^ . Tras la segunda medición, el estado se convierte en jb 0i, y ahora estamos asegurando el
resultado b 0 para B, pero no podemos decir nada de A ya que, como antes, jb 0i no es necesariamente
un autoestado de A^. En otras palabras, el segundo filtro por lo general P
altera el estado generado por
el primer filtro. Este cambio es justamente el colapso del estado ja 0i = jb 0ihb 0ja 0i en el autoestado
jb 0i.
7
Una excepción ocurre cuando el estado resultante de la primera medición permanece inafectado
tras la segunda medición. Esto requiere que ja 0i sea también un autoestado de B^ . La respuesta
a la primera pregunta solo es afirmativa para autoestados simultáneos ja ; b i. Estos kets deben
0 0
satisfacer
A^ ja 0; b 0i = a 0ja 0; b 0i ; ^ ja 0; b 0i = b 0ja 0; b 0i
B
de modo que la pregunta que surge naturalmente es: ¾Cuándo ocurre que dos operadores admitan
autokets simultáneos? Puede verse que esto ocurre cuando dichos operadores conmutan. El par de
operadores A^ y B
^ cae entonces en alguna de estas tres clases:
A) Compatibles: [A^; B ^ ] = 0.
Si dos operadores conmutan, es posible encontrar una base completa de autokets simultáneos. Cada
elemento ja 0; b 0i de esta base posee valores bien definidos para A y B.
B) Incompatibles: [A^ ; B ^ ] = algún otro operador que no posee autovalor nulo.
El ejemplo más famoso de esta clase viene dado por los operadores posición y momento, que
obedecen la regla de conmutación canónica
[x^; p^] = i~
Evidentemente, no podemos tener i~j i = 0j i para cualquier ket j i que sea no-trivial. Esto
implica que no existe ningún ket que tenga valores bien definidos de x y p. Cualquier intento de
filtrar x se arruina por un filtro subsecuente de p y viceversa. Este es el origen del famoso principio
de incerteza de Heisenberg, que estudiaremos más adelante.
C) Otros.
En este caso hay algunos estados que son autokets simultáneos. No hay mucho para decir en este
caso, solo tal vez que incluso si dos operadores no conmutan, aun (no siempre) pueden encontrarse
un par de autoestados comunes, pero no una base completa.
Ya vimos que cuando dos observables conmutan entonces tienen los mismos autovectores, lo que
permitía la realización de una diagonalización simultánea. Entremos un poco más en detalle en
este asunto comenzando con la demostración de esta propiedad partiendo del enunciado de un
importante teorema:
Teorema: Supongamos que A y B son observables compatibles y que los autovalores de A^ son
^ ja 0i son todos diagonales. (Recordar que
no degenerados. Entonces los elementos de matriz ha 00jB
^
los elementos de matriz de A ya son diagonales si usamos el conjunto fja 0ig como kets de base.)
ha 00j[A^ ; B
^ ]ja 0i = (a 00 ¡ a 0)ha 00jB
^ ja 0i = 0 :
8
Esto no es más que la ecuación de autovalores para el operador B ^ con autovalor b 0 ha 0jB
^ ja 0i. El
ket ja 0i es por lo tanto un ket simultáneo de A^ y de B ^ . Para ser imparcial con ambos operadores,
usaremos la notación ja 0; b 0i para caracterizar este autoket simultáneo.
Aunque la prueba esté dada para el caso donde A^ tiene autokets no degenerados, la afirmación se
mantiene incluso si hay degeneración de orden n. Esto es
A^ a 0
(i) (i)
= a0 a0 ; i = 1; 2; :::; n
A^ ja 0; b 0i = a 0ja 0; b 0i;
B^ ja 0; b 0i = b 0ja 0; b 0i:
Cuando no hay degeneración, esta notación se vuelve superflua ya que es claro que si especificamos
a 0, necesariamente conocemos al b 0 que aparece en ja 0; b 0i. Sin embargo, esta notación es muy útil
cuando sí hay degeneración. A menudo se utiliza un índice colectivo K 0 en lugar de (a 0; b 0), de
manera que jK 0i = ja 0; b 0i.
Podemos obviamente generalizar nuestras consideraciones a la situación donde hay varios obser-
vables mutuamente compatibles, a saber
[A^; B
^ ] = [B
^ ; C^ ] = [A^; C^ ] = ::: = 0:
Se asume que existe un conjunto máximo de observables conmutables; esto es, no se pueden
añadir más observables a nuestra lista sin violar la ecuación anterior.
Antes discutimos sobre cómo preparar estados bien definidos con el objetivo de testear la teoría
cuántica, donde vimos que el proceso mismo de medición puede ser utilizado como mecanismo de
preparación: Si una medición de A en un estado inicial arbitrario y desconocido arroja a 0 como
resultado, estamos seguros de que tenemos el estado ja 0i. Pero esto supone que a 0 es un autovalor
no degenerado. Si fuera degenerado, no podemos determinar el estado más que dentro de un
autoespacio (el subespacio degenerado con autovalor a 0). Para obtener más información del sistema,
podemos ahora medir otro observable compatible B. Si obtenemos como resultado b 0, tenemos
el estado definido ja 0; b 0i, a menos que (a 0; b 0) también sea degenerado. Si esto ocurre, debemos
medir un tercer observable C compatible tanto con A como con B, y así sucesivamente hasta llegar
al conjunto máximo antes mencionado. A la larga, vamos a tener un estado que es único dados
todos los autovalores simultáneos: ja 0; b 0; c 0; :::i. Para preparar un estado tomamos entonces un
estado inicial arbitrario y lo filtramos mediante una secuencia de mediciones compatibles hasta
que llegamos a un vector único y conocido. Cualquier operador no degenerado es por sí mismo un
conjunto completo.
En resumen, los autovalores de los operadores individuales A^, B ^ , C^ ,... pueden tener degeneraciones,
pero si especificamos una combinación (a ; b ; c ; :::), luego el correspondiente autoket simultáneo
0 0 0
de A^, B
^ , C^ , . . . queda unívocamente especificado. Si jK 0i = ja 0; b 0; c 0; :::i entonces su relación de
ortonormalidad queda
X X X X
jK ihK j =
0 0
::: ja 0; b 0; c 0; :::iha 0; b 0; c 0; :::j = ^1:
K0 a0 b0 c0
9
Ahora veamos de responder la segunda pregunta, acerca de la probabilidad de obtener un estado
ja 0; b 0i luego de la medición de A y B en el estado j i.
Primero asumimos que no hay degeneración. Luego, para un autovalor a 0 dado, hay un único ket
y este debe ser un autoket simultáneo ja 0; b 0i. Supongamos que primero medimos A. Tenemos
entonces a 0 con probabilidad P (a 0) = jha 0; b 0j ij2. Luego de la medición, la partícula se encuentra
en el estado ja 0; b 0i y el resultado de la segunda medición va a dar b 0 con probabilidad 1 (certeza).
La probabilidad de obtener a 0 de A y b 0 de B es simplemente el producto de las dos probabilidades
Notar que uno obtiene el mismo resultado si mide primero B y después A. Luego, si expandimos
a j i en la autobase común
X
j i = ja 0; b 0iha 0; b 0j i
a 0;b 0
tenemos que
Cuando hay degeneración el argumento es el siguiente: Después de la primera medición (A), que
da como resultado a 0, el sistema pasa a estar en una cierta combinación lineal
n
X (i)
ca 0 ja 0; b(i)i
i
donde n es el grado de degeneración y los kets ja 0; b(i)i todos tienen el mismo autovalor a 0 en lo
que concierne al operador A^. La segunda medición (B) puede seleccionar solo uno de los términos
en la combinación lineal, digamos ja 0; b(j)i. Por último, si hacemos una tercera medición sobre A
se sigue obteniendo a 0. Haya o no haya degeneración, las mediciones de A y de B no interfieren.
En otras palabras, en el caso degenerado el vector de estado puede cambiar debido a la segunda
medición pero el autovalor no cambiará, como muestra el siguiente ejemplo.
Ejemplo: Considere dos operadores ^ y ^ en V3(R). Sea j!33i un autovector común. Sea
/ !2 los autovalores de ^ en este subespacio degenerado (para
1 = 2 = y sean !1 = ^ ). Utilicemos
una base j!1i, j!2i, y j!33i y consideremos el estado normalizado
Digamos entonces que medimos primero y obtenemos !3. El estado entonces se vuelve j!33i y
^ da certeramente como resutado 3 dejando igual al estado. Luego
la medición subsecuente de
10
Evidentemente, P (!3; 3) = P (3; !3). Supongamos ahora que la medicion de ^ da como resultado
!1. El estado resultante es j!1i y la probabilidad de esta salida es jh!1j ij2. El resultado de la
segunda medida es , con probabilidad 1, y dejando el estado inalterado. Luego
Ahora imaginemos que las mediciones se llevan a cabo en el orden inverso. Supongamos que el
resultado de la primera medicion es . El estado j 0i luego de esta medición es la proyección de
^ , es decir
j i sobre el subespacio degenerado de
j j2
P (; !1) = (j j2 + j j2) = j j2 = P (!1; )
(j j2 + j j2)
Entonces P (; !1) = P (!1; ) independientemente de la degeneracion, aunque en este segundo caso
el estado sufre un cambio debido a la segunda medición. Por ello la compatibilidad generalmente
implica invarianza bajo la segunda medicion del autovalor obtenido en la primera medición. Por
lo tanto, solo podemos decir que el estado permanece en el mismo autoespacio degenerado luego
de la segunda medición. Si el primer autovalor es no-degenerado, el autoespacio es unidimensional
y el estado entonces permanece invariante.
Medición de observables incompatibles:
Pasemos ahora a los observables no compatibles, que son menos triviales. El primer punto a
destacar es que estos observables no tienen un conjunto completo de autokets simultáneos. Para
probar esto, asumamos que el resultado inverso es cierto. Existiría entonces un conjunto de autokets
simultáneos tal que
A^B^ ja 0; b 0i = A^b 0ja 0; b 0i = a 0b 0ja 0; b 0i
BA^ ja 0; b 0i = B
^ ^a 0ja 0; b 0i = a 0b 0ja 0; b 0i
11
Ya encontramos algunas de las peculiaridades de los observables incompatibles cuando estudiamos
el experimento de Stern-Gerlach. Daremos ahora una discusión más general sobre experimentos de
este tipo. Consideremos una secuencia de mediciones selectivas tal como se muestra en la Fig. 1a.
El primer filtro (A) selecciona algún estado particular ja 0i y rechaza a los demás, el segundo filtro
(B) hace lo mismo con un estado particular jb 0i y el tercero (C) también lo hace pero eligiendo un
estado jc 0i. Nos interesa la probabilidad de obtener jc 0i cuando el haz saliendo del primer filtro
está normalizado a la unidad. Como las probabilidades son multiplicativas, tenemos entonces que
la probabilidad de obtener jc 0i es
jhc 0jb 0ij2jhb 0ja 0ij2:
Ahora sumemos sobre b 0 para considerar la probabilidad total de ir a través de todas las rutas b 0
posibles. Operacionalmente esto significa registrar, en primer lugar, la probabilidad de obtener c 0
con todas las rutas bloqueadas excepto la primera ruta de b 0. Luego repetimos el procedimiento
pero ahora bloqueamos todas excepto la segunda ruta de b 0 y así sucesivamente, y después al final
sumamos todas las probabilidades
X X
jhc 0jb 0ij2jhb 0ja 0ij2 = hc 0jb 0ihb 0ja 0iha 0jb 0ihb 0jc 0i:
b0 b0
Comparemos esto con un arreglo diferente donde el filtro B está ausente (ver Fig. 1b). Claramente,
la probabilidad ahora de obtener jc 0i es simplemente jhc 0ja 0ij2, que puede ser reescrita como
X 2 XX
jhc 0ja 0ij2 = hc 0jb 0ihb 0ja 0i = hc 0jb 0ihb 0ja 0iha 0jb 00ihb 00jc 0i:
b0 b0 b 00
Notar la diferencia con la expresión calculada antes. Esto es notable ya que en ambos casos el haz
puro ja 0i saliendo del primer filtro (A) puede ser considerado como compuesto de autokets de B
X
ja 0i = jb 0ihb 0ja 0i
b0
donde la suma corre sobre todos los valores de b 0. El punto crucial a notar es que el resultado
saliendo del filtro (C) depende de que las mediciones de B se hayan hecho o no. En el primer caso,
experimentalmente nos cercioramos cuáles de los autovalores de B ^ son realizados, mientras que en
el segundo caso meramente imaginamos a ja i como construido por los varios jb 0i. Dicho de otra
0
forma, registrando las probabilidades de ir a través de las varias rutas b 0 marca toda la diferencia
a pesar de que luego sumemos sobre b 0.
¾Bajo qué condiciones estas expresiones son iguales? Queda como ejercicio para el lector demostrar
que para que esto ocurra, en la ausencia de degeneración, es suficiente pedir que [A^; B ^] = 0 o
^ ; C^ ] = 0. En otras palabras, la peculiaridad que ilustramos es característica de observables
[B
incompatibles.
En resumen, incluso si los observables A y B son incompatibles, podemos especificar la probabilidad
P (a 0; b 0) de que la medición de A seguida por la medición de B sobre un cierto estado dé como
resultado los valores a 0 y b 0. Sin embargo, lo siguiente debe tenerse en cuenta:
1) En general, P (a 0; b 0) =
/ P (b 0; a 0).
2) La probabilidad P (a 0; b 0) no es la probabilidad de producir un estado final que tiene valores
bien definidos de a 0 y b 0 para A y B. Tal estado no existe debido a que los observables son
incompatibles. El estado producido por las dos mediciones es solo el autoestado del segundo
operador correspondiente al autovalor medido.
12
Relación de incerteza generalizada: Sean A y B dos observables, entonces, para cualquier
estado, se cumple la siguiente desigualdad
Demostración: Para probar esta igualdad vamos a utilizar tres resultados ya conocidos.
1) La desigualdad de Schwarz: h j ih j i > jh j ij2.
2) El valor esperado de un operador Hermitiano es puramente real.
j i = A^ ji
j i = B^ ji
(donde ji representa que nuestra consideración puede ser aplicada a cualquier ket) obteniendo
h(A^)2ih(B
^ )2i > jhA^B
^ ij2
^ = 1 [A^ ; B
A^B ^ ] + 1 fA^; B
^g
2 2
([A^; B
^ ]) y = (A^B
^ ¡B
^A^) y = B
^A^ ¡ A^B
^ = ¡[A^; B
^ ]:
imaginario puro
zzzzzzzz}|{{{{{{{{ zzzzzzzzzzreal puro
zzzzzzzz}|{
{{{{{{{{{{{{{{{{{
^i = 1
hA^B h[A^; B ^ ]i 1
+ hfA^; B ^ gi
2 2
habiendo usado los resultados 2 y 3. El lado derecho de esta ecuación ahora queda
^ ij2 = 1 jh[A^; B
jhA^B ^ ]ij2 + 1 jhfA^ ; B
^ gij2:
4 4
La prueba queda completa ya que la omisión del segundo término (el del anticonmutador) solo
puede hacer que la desigualdad sea más fuerte.
Como ejemplo supongamos que el primer observable es la posición (A^ = x^) y que el segundo es el
momento (B ^ = p^ = ¡i~@ / @x), cuya relación de conmutación ya hemos trabajado anteriormente:
[x^; p^] = i~. Reemplazando esto en la relación generalizada se obtiene
~2
h(x^)2ih(p^)2i >
4
13
8 Generalización a más grados de libertad
Nuestra discusión hasta ahora se ha restringido a sistemas con un solo grado de libertad, a saber,
una partícula individual en una dimensión. Ahora extenderemos nuestro dominio a sistemas con
N grados de libertad. La única modificación a realizar es en el Postulado II, que ahora se lee
Postulado II: Correspondientes a N coordenadas cartesianas x1; :::; xN describiendo el sistema clá-
sico, en la teoría cuántica existen N operadores mutuamente conmutables x^1; :::; x^N . En la autobase
simultánea jx1; x2; :::; xN i de estos operadores, llamada la base de coordenadas y normalizada como
(el producto de las funciones delta se anula a menos que todos los argumentos se anulen) tenemos
la siguiente correspondencia
@
p^i j i ! hx1; :::; xN jp^i j i = ¡i~ (x1; :::; xN )
@xi
siendo p^i el operador momento correspondiente al momento clásico pi. Las variables dinámicas
dependientes !(xi; pj ) son representadas por operadores ^ = !(xi ! x^i; pi ! p^i).
Los demás postulados permanecen inalterados. Por ejemplo, j (x1; :::; xN )j2dx1:::dxN es la proba-
bilidad de que la coordenada de la partícula esté entre (x1; :::; xN ) y (x1 + dx1; :::; xN + dxN ).
Enunciamos el postulado en términos de coordenadas cartesianas ya que solo en términos de estas
uno puede expresar la asignación de operadores en la forma simple x^i ! xi; p^i ! ¡i~@ / @xi. Una
vez hechas las substituciones y obtenidas las ecuaciones deseadas en la base de coordenadas, uno
puede realizar cualquier cambio de variables que desee antes de resolver dichas ecuaciones.
9 La ecuación de Schrödinger
Habiendo discutido con cierto detalle el estado de un sistema para un dado tiempo, ahora ponemos
nuestra atención en el Postulado IV, es decir, nos vamos a preocupar en cómo los estados cambian
con el tiempo. Si tenemos un estado j i que pasa a un estado j 0i en algún tiempo posterior,
podemos describir la situación para todo tiempo haciendo que la función de onda (que es simple-
mente la amplitud hrj i) sea una función tanto de las coordenadas como del tiempo. Una partícula
en una situación dada puede entonces ser descripta dando una función de onda dependiente del
tiempo (r; t) = (x; y; z; t), la cual describe la evolución de estados sucesivos que ocurren a medida
que transcurre el tiempo. Esta llamada representación posición, que da las proyecciones del estado
j i en los kets base jri no siempre es la más conveniente, como veremos más adelante. Notar que,
como (r; t) es una amplitud de probabilidad, no nos dice cómo una partícula se comportará sino
más bien cómo lo hará un ensamble de partículas.
d ^ j (t)i:
i~ j (t)i = H
dt
14
Como esta ecuación forma parte de un postulado, no puede demostrarse. En otras palabras, no
es posible derivarla de ninguna otra cosa que conozcamos. Salió de la mente de Schrödinger como
resultado de su esfuerzo para entender las observaciones experimentales del mundo real. El lector
interesado en entender la idea general de cómo llegar a esta ecuación, está invitado a leer la primera
sección del Capítulo de 3 del libro Lectures on Quantum Mechanics de Gordon Baym. El mismo
autor aclara que lo expuesto en esa sección no debe ser considerado como una derivación de la
ecuación de Schrödinger sino, más bien, como un intento de entender en el fondo cómo funciona.
Para plantear la ecuación de Schrödinger uno debe simplemente hacer las sustituciones Hcl(x !
x^; p ! p^), donde Hcl es el Hamiltoniano clásico del mismo problema. Por ejemplo, si estamos
describiendo un oscilador armónico, que clásicamente viene descripto como
p2 1
Hcl = + m! 2x2;
2m 2
^ = p^2 1
H + m! 2x^2:
2m 2
De esta forma se puede construir el Hamiltoniano H ^ para cualquier problema que tenga una
contraparte clásica. Esto no siempre sucede ya que, por ejemplo, los problemas que involucran
espín no tiene un análogo clásico. Este tipo de problemas será discutido más adelante.
@ ^ j i:
i~ j i = H
@t
Encontrar este operador U^ (t) es equivalente a encontrar la solución completa del problema. No
hay necesidad de hacer suposiciones sobre @t j (0)i ya que queda determinado por la ecuación de
Schrödinger a tiempo t = 0
@ 1 ^
j (0)i = H j (0)i:
@t i~
^ jE i = E jE i:
H
Esta es la llamada ecuación de Schrödinger independiente del tiempo. Asumimos que ya la hemos
resuelto y encontrado los kets jE i. Si expandimos a j i como
X X
j (t)i = jE ihE j (t)i aE (t)jE i
15
^)
la ecuación para aE (t) se obtiene al operar a ambos lados de la ecuación con (i~@ /@t ¡ H
X
@ ^
0 = i~ ¡ H j (t)i = (i~a_E ¡ EaE )jE i ) i~a_E = EaE
@t
donde hemos utilizado la independencia lineal de los kets jE i. Tenemos entonces que
aE (t) = aE (0)e¡iEt/~
hE j (t)i = hE j (0)ie¡iEt/~
de manera que
X
j (t)i = jE ihE j (0)ie¡iEt/~:
E
jE(t)i = jE ie¡iEt/~
son llamados estados estacionarios ya que la distribución de probabilidad P (!) para cualquier
observable es independiente del tiempo en tales estados
P (!; t) = jh!j (t)ij2 = jh!jE(t)ij2 = jh!jE ie¡iEt/~j2 = jh!jE ij2 = P (!; 0):
1
X n
1 it
U^ (t) = e¡iHt/~ = ^n
^
¡ H
n! ~
n=0
y entonces
X X XX
U^ (t) = jE 0; a 0ihE 0; a 0jU^ (t)jE ; aihE ; aj = jE ; aihE ; aje¡iEt/~:
a;a 0 E ;E 0 a E
16
Como el operador H ^ es Hermitiano, se sigue que U^ es unitario. Por lo tanto, podemos pensar en la
evolución temporal de un ket j (t)i como una rotación en el espacio de Hilbert. Una consecuencia
inmediata de esto es que la norma h (t)j (t)i es invariante en el tiempo
de manera que un estado una vez normalizado, permanecerá normalizado. Hay otras consecuencias
del hecho de que la evolución temporal pueda ser vista como una rotación. Por ejemplo, uno puede
abandonar la base fija que hemos estado usando y adoptar una base que rote a la misma razón
que los kets de estado. En una base así los vectores se verían fijos, pero los operadores, que eran
representados por matrices constantes en una base fija, ahora aparecerían como dependientes del
tiempo. Cualquier ente físico, tal como un elemento de matriz, aparecería, sin embargo, igual que
antes ya que hj ^ ji, que es el producto interno entre hj y j i, es invariante ante rotaciones.
Esta representación de la mecánica cuántica es llamada representación de Heisenberg, mientras
que la que hemos introducido se conoce como representación de Schrödinger. Estas cuestiones
se verán en profundidad en Mecánica Cuántica II.
Si el operador H^ depende del tiempo, esto es, H
^ =H^ (t), ya no contamos con una estrategia fija para
resolver tales problemas. Este tema es otro de los que trataremos en el segundo curso de cuántica.
^ jEii = Ei jEii
H
A^ jaj i = aj jaj i
17
1) Expresamos a j 0i en terminos de los autokets jEii, es decir
X
j 0i = jEiihEij 0i
i
Ahora que hemos encontrado una expresion para j (t)i podemos pensar en la medicion. Para ello,
expresamos a j (t)i en terminos de los autokets del operador A^, es decir
X
j (t)i = jaj ihaj j (t)i
j
El postulado de medicion nos dice que los posibles resultados de esta medicion son los autovalores
aj del operador A^, y las probabilidades asociadas son el modulo cuadrado de la proyeccion de j (t)i
sobre el autoket asociado, es decir
Una vez realizada la medicion, el estado del sistema colapsa en el autoket asociado al autovalor ak
que resulto de la medicion, es decir
j (t)i ¡! jak i
Para simplicar la notacion, redefinimos el tiempo inicial como el instante inmediato a la medicion,
con lo que ahora podemos tomar como estado inicial j (0)i = jak i. La evolucion a tiempos subse-
cuentes a la medicion se calcula siguiendo los pasos 1 y 2 anteriores, de modo que ahora tenemos
^ ^
X X
j (t)i = e¡iHt/~ jak i = e¡iHt/~ jEiihEijak i = e¡iEit/~ jEiihEijak i
i i
Muchas veces se pide calcular, luego de una medicion, el valor de expectacion de algun observable
B en funcion del tiempo. Como ya expresamos al ket de estado en funcion del tiempo, solo nos
resta calcular el valor de expectacion, es decir
X
^ i(t) = h (t)jB
hB ^ j (t)i = ^ jEj ihEj jak i
e¡i(Ei ¡Ej)t/~ hak jEiihEijB
i; j
18