Universidade Federal de Santa Maria
Centro de Ciências Naturais e Exatas
Programa de Pós-Graduação em Física
Grupo de Teoria da Matéria Condensada
Álgebra Linear
Jonas Maziero
Santa Maria - RS, Maio de 2012
1 / 63
Referências
M. A. Nielsen e I. L. Chuang, Quantum Information and
Quantum Computation (Cambridge University Press,
Cambridge, 2000);
A. F. R. de Toledo Piza, Mecânica Quântica (Edusp, São
Paulo, 2009).
2 / 63
Sumário ±σ
Espaços Vetoriais;
Independência Linear e Bases; Produto Interno;
Procedimento de Gram-Schmidt;
Desigualdade de Cauchy-Schwarz;
Operadores Lineares e Matrizes;
Produto Externo e a Relação de Completeza;
Autovalores e Autovetores;
O Adjunto de um Operador;
Operadores Hermitianos; Projetores;
Operador Normal; Operador Unitário;
Produto Tensorial;
Funções de Operadores;
Comutadores e Anticomutadores;
· · · .
3 / 63
Números Complexos
Dados dois números reais a, b ∈ R quaisquer, então
z := a + ib ∈ C é um número complexo, onde i =
√
−1.
Partes real Rez = a ∈ R e imaginária Imz = b ∈ R do
número complexo z;
Conjugado de um número complexo: z∗ := a − ib ∈ C;
Dados z := a + ib ∈ C e z̃ := ã + ib̃ ∈ C com a, b, ã, b̃ ∈ R
temos:
z = z̃ ⇒ a = ã e b = b̃;
z ± z̃ := (a ± ã) + i(b ± b̃);
zz̃ = (a + ib)(ã + ib̃) = aã + iab̃ + ibã − bb̃;
z
z̃
:=
z
z̃
z̃∗
z̃∗
=
zz̃∗
ã2 + b̃2
.
Módulo de um número complexo:
|z| :=
√
zz∗ =
p
a2 + b2;
4 / 63
Plano Complexo (plano de Argand-Gauss)
Números complexos podem
ser representados como
pontos no plano Cartesiano
(veja a Figura ao lado).
Temos então
cos θ =
a
|z|
e sin θ =
b
|z|
.
Assim
z = a + ib
= |z|(cos θ + i sin θ)
= |z| exp(iθ),
com 0 ≤ θ < 2π e
0 ≤ |z| < ∞.
Também
θ = arctan(b/a).
5 / 63
Álgebra Linear
É o estudo de espaços vetoriais e operações lineares nesses
espaços.
Um Espaço Vetorial é um conjunto de objetos que têm
certas propriedades (veja a próxima transparência)
Exemplo. Cn: conjunto de todas as listas de números
complexos (zi ∈ C)
(z1, · · · , zn)
Cada objeto (lista) desse conjunto é um vetor.
Notação matricial (matriz coluna)
|vi =



v1
.
.
.
vn



onde vi ∈ C
|rótuloi é a notação de Dirac para vetores, muito utilizada
em Mecânica Quântica.
6 / 63
Propriedades de um Espaço Vetorial (Cn
)
1 Existe a operação de adição de objetos.
Para |vi = (v1, · · · , vn) ∈ Cn e |ui = (u1, · · · , un) ∈ Cn
|vi + |ui :=



v1 + u1
.
.
.
vn + un


 ∈ Cn
2 Existe a operação multiplicação por escalar.
Para |vi = (v1, · · · , vn) ∈ Cn e z ∈ C
z



v1
.
.
.
vn


 :=



zv1
.
.
.
zvn


 ∈ Cn
3 Existe o elemento nulo 0 := | i.
|vi + | i := |vi ∀|vi
Para |vi = (v1, · · · , vn) ∈ Cn e | i = (0, · · · , 0) ∈ Cn
7 / 63
Independência Linear e Bases
Definição. Um conjunto de vetores {|vii} é linearmente
independente (LI) se
P
i ci|vii = | i implica em ci = 0 ∀i.
Definição. Um conjunto de vetores LI {|vii}dimV
i=1 ∈ V é uma
base para um espaço vetorial V se qualquer vetor |vi ∈ V pode
ser escrito como uma combinação linear
|vi =
dimV
X
i=1
ci|vii.
Exemplo. Os autoestados de σz
,
|0i = (1, 0); |1i = (0, 1),
formam uma base para C2
:
|vi = (v1, v2) = v1|0i + v2|1i.
Existem infinitas outras bases. e.g. os autoestados de σx
:
|+i = 2−1/2
(1, 1); |−i = 2−1/2
(1, −1).
8 / 63
Produto interno
Uma função (·, ·) : VxV → C é um produto interno se satisfaz os
seguintes requerimentos
1 É linear no segundo argumento:
(|vi,
X
i
ci|wii) =
X
i
ci(|vi, |wii), onde ci ∈ C;
2 (|vi, |wi) = (|wi, |vi)
∗
;
3 (|vi, |vi) ≥ 0 com igualdade se e somente se |vi = | i.
Produto interno para Cn
:
(|vi, |wi) ≡ hv|wi := |vi†
|wi =

v∗
1 · · · v∗
n




w1
.
.
.
wn


 =
X
i
v∗
i wi
Espaço de Hilbert H:
Espaço vetorial Cn equipado com um produto interno (|vi, |wi).
9 / 63
Teorema
O produto interno é linear-conjugado no primeiro argumento,
i.e., dados ci ∈ C e |vii, |wi ∈ V vem que
(
X
i
ci|vii, |wi) =
X
i
c∗
i (|vii, |wi).
Demonstração
(
X
i
ci|vii, |wi) = (|wi,
X
i
ci|vii)∗
=
X
i
ci(|wi, |vii)
!∗
=
X
i
c∗
i (|wi, |vii)∗
=
X
i
c∗
i (|vii, |wi)
10 / 63
Algumas Definições
Dois vetores |vi e |wi são ortogonais se seu produto
interno é nulo, i.e., se
(|vi, |wi) = 0.
A norma (“comprimento”) de um vetor |vi é definida como
|||vi|| :=
p
(|vi, |vi)
Vetor unitário ou normalizado:
|||vi|| = 1.
Para ∀|vi,se definimos |ṽi :=
|vi
|||vi||
, −1cm então |||ṽi|| = 1.
Um conjunto de vetores {|vii} é ortonormal se
(|vii, |vji) = δij.
11 / 63
Procedimento de Gram-Schmidt
Dada uma base {|wii}dimV
i=1 ∈ V de vetores linearmente
independentes, obtemos uma base ortonormal {|vii}dimV
i=1 ∈ V
definindo
|v1i :=
|w1i
|||w1i||
e, para 1 ≤ k ≤ dimV − 1, definindo
|vk+1i :=
|wk+1i −
Pk
i=1(|vii, |wk+1i)|vii
|||wk+1i −
Pk
i=1(|vii, |wk+1i)|vii||
.
12 / 63
Desigualdade de Cauchy-Schwarz (DCS)
Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta
que |(|vi, |wi)|2 ≤ (|vi, |vi)(|wi, |wi)
Prova. Partimos do fato que (|ψi, |ψi) ≥ 0 e definimos
|ψi := |vi + z|wi, com z ∈ C. Assim
(|ψi, |ψi) = (|vi, |vi)+z(|vi, |wi)+z∗
(|wi, |vi)+|z|2
(|wi, |wi) ≥ 0
Agora, se |wi = | i então |(|vi, | i)|2 = 0 = (|vi, |vi)(| i, | i)
e a DCS é satisfeita. Por outro lado, se |wi 6= | i definimos
z := −(|wi, |vi)/(|wi, |wi)
e resulta que
(|vi, |vi) −
(|wi, |vi)
(|wi, |wi)
(|vi, |wi) −
(|wi, |vi)∗
(|wi, |wi)
(|wi, |vi) +
|(|wi, |vi)|2
(|wi, |wi)2
(|wi, |wi) ≥ 0
(|wi, |wi)(|vi, |vi) − |(|vi, |wi)|2
− |(|wi, |vi)|2
+ |(|wi, |vi)|2
≥ 0
∴ (|wi, |wi)(|vi, |vi) ≥ |(|wi, |vi)|2
13 / 63
Temos ainda que (|wi, |wi)(|vi, |vi) = |(|wi, |vi)|2
se e somente se |vi ∝ |wi.
Prova. Assumimos |vi ∝ |wi = c|wi. Então (|vi, |vi) = |c|2
(|wi, |wi) e
|(|vi, |wi)|2
= |c|2
(|wi, |wi)2
, o que implica que
(|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2
.
Agora assumimos que (|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2
e |||wi|| 6= 0. Usamos
o procedimento de Gram-Schmidt para construir uma base ortonormal
{|wii}dimV
i=1 com |w1i := |wi/|||wi||. Podemos escrever |vi =
PdimV
i=1 ci|wii.
Assim
(|vi, |vi) = (
dimV
X
i=1
ci|wii,
dimV
X
i=1
cj|wji) =
dimV
X
i,j=1
c∗
i cj
δij
z }| {
(|wii, |wji) =
dimV
X
i=1
|ci|2
e
|(|vi, |wi)|2
= |(
dimV
X
i=1
ci|wii, |||wi|||w1i)|2
= |||wi||2
dimV
X
i=1
|ci|2
|
δi1
z }| {
(|wii, |w1i)|2
= |||wi||2
|c1|2
.
Com isso vem que
|||wi||2


dimV
X
i,j=1
|ci|2
− |c1|2

 = 0
e portanto ci = 0 se i 6= 1 e consequentemente |vi ∝ |wi.
14 / 63
Operadores Lineares
Um operador linear entre espaços vetoriais V e W é qualquer
função (mapa) A : V → W que é linear em seu domínio, i.e.
A
X
i
ci|vii
!
=
X
i
ciA(|vii)
Dizemos que um operador linear A está definido em V se
A : V → V.
Dois operadores lineares importantes:
Operador identidade em V:
IV|vi := |vi para todo |vi ∈ V.
Operador zero em V:
0V|vi := | i para todo |vi ∈ V.
15 / 63
Matrizes como Operadores Lineares
Uma matriz complexa {Aij} é um mapa
{Aij}mxn : Cn
→ Cm
.
Explicitamente (Amxnv1xn = w1xm):





A11 A12 · · · A1n
A21 A22 · · · A2n
.
.
.
.
.
.
...
.
.
.
Am1 Am2 · · · Amn










v1
v2
.
.
.
vn





=





w1
w2
.
.
.
wm





onde
wi =
n
X
j=1
Aijvj
Dizer que uma matriz A é um operador linear significa que
A
X
i
ci|vii
!
=
X
i
ciA(|vii)
16 / 63
Linearidade de Matrizes
Consideremos A = {Aij}, |vi = {vi} e |wi = {wi}. Definimos
ainda
|xi := a|vi + b|wi = {xi} = {avi + bwi}.
Assim
(A|xi)i =
X
j
Aijxj
=
X
j
Aij(avj + bwj)
= a
X
j
Aijvj + b
X
j
Aijwj
= a(A|vi)i + b(A|wi)i.
Ou seja,
A|xi = A(a|vi + b|wi)
= aA(|vi) + bA(|wi)
17 / 63
Operadores Lineares como Matrizes
Consideremos um operador linear A : V → W e bases de
vetores {|vii}m
i=1 ∈ V e {|wji}n
j=1 ∈ W. Para cada i existem
{Aji}n
j=1 ∈ C tal que
A|vii =
n
X
j=1
Aji|wji.
A matriz {Aji}mxn é uma representação matricial para o
operador linear A.
OBS. Para fazer a conexão entre matrizes e operadores
lineares devemos especificar as bases de entrada (domínio) e
saída (imagem) para o operador linear A e também devemos
especificar como A atua na sua base domínio.
Resumindo. Os pontos de vista de operadores lineares e de
matrizes são equivalentes.
18 / 63
Matrizes de Pauli. σ0
:= I
Vamos considerar V = W = C2 e uma base (base
computacional)
|0i :=

1
0

, |1i :=

0
1

Representação matricial para I := σ0:
σ0
|0i = σ0
11|0i + σ0
21|1i
σ0
|1i = σ0
12|0i + σ0
22|1i
Ação de σ0:
σ0
|0i = |0i e σ0
|1i = |1i.
Ou seja
σ0
=

1 0
0 1

.
19 / 63
Matrizes de Pauli. σ1
:= σx
Representação matricial para σx := σ1 := X:
σ1
|0i = σ1
11|0i + σ1
21|1i
σ1
|1i = σ1
12|0i + σ1
22|1i
Ação de σ1 (porta lógica NOT da computação clássica e
quântica):
σ1
|0i = |1i e σ1
|1i = |0i.
Ou seja
σ1
=

0 1
1 0

,
que tem autovalores ±1 e autovetores
| ↑xi = 2−1/2
(|0i + |1i)
| ↓xi = 2−1/2
(|0i − |1i)
20 / 63
Matrizes de Pauli. σ2
:= σy
Representação matricial para σy := σ2 := Y:
σ2
|0i = σ2
11|0i + σ2
21|1i
σ2
|1i = σ2
12|0i + σ2
22|1i
Ação de σ2:
σ2
|0i = exp(iπ/2)|1i e σ2
|1i = exp(−iπ/2)|0i.
Ou seja1
σ2
=

0 −i
i 0

,
com i =
√
−1. Temos que σ2 tem autovalores ±1 e autovetores
| ↑yi = 2−1/2
(|0i + i|1i)
| ↓yi = 2−1/2
(|0i − i|1i)
1
Relação de Euler: exp(iθ) = cos(θ) + i sin(θ)
21 / 63
Matrizes de Pauli. σ3
:= σz
Representação matricial para σz := σ3 := Z:
σ3
|0i = σ3
11|0i + σ3
21|1i
σ3
|1i = σ3
12|0i + σ3
22|1i
Ação de σ3:
σ3
|0i = |0i e σ3
|1i = exp(iπ)|1i.
Ou seja
σ3
=

1 0
0 −1

,
com i =
√
−1. Temos que σ2 tem autovalores ±1 e
autovetores
| ↑zi = |0i
| ↓zi = |1i
22 / 63
Representação Matricial para Operadores Compostos
Consideremos operadores lineares A : V → W e B : W → X e
bases {|vii} ∈ V, {|wji} ∈ W e {|xki} ∈ X. Questão. Qual a
representação matricial para a transformação linear
B(A(·)) = B ◦ A(·)?
Temos que
A(|vii) =
X
j
Aji|wji
Então
B(A(|vii) =
X
j
AjiB(|wji)
=
X
j
Aji
X
k
Bkj|xki
=
X
k
X
j
BkjAji|xki
=
X
k
(BA)ki|xki
23 / 63
Operador Produto Externo e a Relação de Completeza
Produto Externo. Consideremos |vi, |ṽi ∈ V e |wi ∈ W. O operador linear
produto externo |wihv| : V → W é definido como
|wihv|(|ṽi) = |wi(|vi, |ṽi) = (|vi, |ṽi)|wi
Assim, para {|vii}, |ṽi ∈ V e {|wii} ∈ W, a combinação linear
P
i ai|wiihvi| é
um operador linear que atua da seguinte forma
X
i
ai|wiihvi|(|ṽi) =
X
i
ai(|vii, |ṽi)|wii.
Relação de Completeza. Consideremos uma base ortonormal {|ji}dimV
j=1 ∈ V.
Qualquer vetor |vi ∈ V pode ser escrito como |vi =
P
j vj|ji, com
vj = (|ji, |vi) ∈ C. Assim vem que
dimV
X
j=1
|jihj|(|vi) =
dimV
X
j=1
|ji(|ji, |vi) =
dimV
X
j=1
vj|ji = |vi,
ou seja
dimV
X
j=1
|jihj| = IV.
24 / 63
Outra Demonstração da Desigualdade de Cauchy-Schwarz
Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta que
|(|vi, |wi)|2
≤ (|vi, |vi)(|wi, |wi)
Prova. Usamos o procedimento de Gram-Schmidt para construir uma base
ortonormal {|ji} e definimos
|1i :=
|wi
|||wi||
.
Utilizando a relação de completeza
P
j |jihj| = I escrevemos
(|vi, |vi)(|wi, |wi) = (|vi, I(|vi))(|wi, |wi) = (|vi,
X
j
|jihj|(|vi))(|wi, |wi)
= (|vi,
X
j
|ji(|ji, |vi))(|wi, |wi)
=
X
j
(|ji, |vi)(|vi, |ji)(|wi, |wi) =
X
j
|(|vi, |ji)|2
(|wi, |wi)
≥ |(|vi, |1i)|2
(|wi, |wi)
:=
|(|vi, |wi)|2
|||wi||2
(|wi, |wi)
= |(|vi, |wi)|2
25 / 63
Representação de Operadores como Produto Externo
Consideremos A : V → W e bases ortonormais {|vii}dimV
i=1 ∈ V e
{|wji}dimW
j=1 ∈ W.
Representação de A na forma produto externo
A = IWAIV
=


dimW
X
j=1
|wjihwj|

 A
dimV
X
i=1
|viihvi|
!
=
dimW
X
j=1
dimV
X
i=1
(|wji, A|vii)|wjihvi|
Representação matricial de A
Aji := (|wji, A|vii)
são os elementos na linha j e coluna i.
Exemplo. Matriz de Pauli σx
σx
= |0ih1| + |1ih0|.
26 / 63
Autovalores e Autovetores
Os autovetores de um operador linear A são vetores não nulos
|vi ∈ V tais que
A|vi = v|vi,
e v ∈ C são os autovalores de A.
Autovalores (equação característica):
(A − vI)|vi = | i ∴ (A − vI)−1
(A − vI)|vi = | i ∴ |vi = | i. Portanto
det(A − λI) = 0
Autovetores
(A − λI)|vi = | i
Representação diagonal (decomposição ortonormal) de A em V:
A =
X
i
λi|iihi|,
onde {|ii}dimV
i=1 é uma base ortonormal para V.
Degenerescência. Um autovalor tem dois ou mais autovetores
correspondentes.
27 / 63
Adjunto de um Operador
Dado um operador linear A : H → H, existe um único operador
linear A† tal que, para todo |vi, |wi ∈ H,
(|vi, A|wi) = (A†
|vi, |wi).
A† é conhecido com o adjunto (ou Hermitiano conjugado) de
A.
Alguns resultados e definições:
A†
†
= A;
(A|vi, |wi) = (|wi, A|vi)∗
= (A†
|wi, |vi)∗
= (|vi, A†
|wi) = ((A†
)†
|vi, |wi)
(AB)†
= B†
A†
(|vi, AB|wi) = (A†
|vi, B|wi) = (B†
A†
|vi, |wi) = ((AB)†
|vi, |wi);
Dado um vetor |vi define-se hv| := |vi†
. Então (A|vi)†
= hv|A†
;
(|vihw|)†
= |wihv|;
28 / 63
(
P
i aiAi)†
=
P
i a∗
i A†
i
Prova. Dados ai ∈ C, A : H → H e |vi, |wi ∈ H, temos que
(|vi,
X
i
aiAi|wi) =
X
i
ai(|vi, Ai|wi); ((·,·) é linear no 2o
argumento)
=
X
i
ai(A†
i |vi, |wi)
= (
X
i
a∗
i A†
i |vi, |wi); ((·,·) é anti-linear no 1o
argumento)
= ((
X
i
aiAi)†
|vi, |wi)
A† = (AT)∗ = (A∗)T. Ex.
A =



a11 a12 · · ·
a21 a22 · · ·
· · · · · ·
...


 ⇒ A†
=



a∗
11 a∗
21 · · ·
a∗
12 a∗
22 · · ·
· · · · · ·
...



29 / 63
Operadores Hermitianos
Um operador é dito Hermitiano (ou auto-adjunto) se
A†
= A
Operadores Hermitianos tem autovalores reais (A|ai = a|ai)
(|ai, A|ai) = (|ai, a|ai) = a(|ai, |ai) = a
= (A†
|ai, |ai) = (A|ai, |ai) = (a|ai, |ai)
= a∗
(|ai, |ai) = a∗
Portanto a = a∗
⇒ a ∈ R.
Os autovetores de um operador Hermitiano correspondentes a
autovetores diferentes são ortogonais. Consideremos
A|ai = a|ai e A|bi = b|bi com a 6= b.
(|ai, A|bi) = (|ai, b|bi) = b(|ai, |bi)
= (A†
|ai, |bi) = (A|ai, |bi) = a(|ai, |bi)
Portanto (a − b)(|ai, |bi) = 0 ⇒ (|ai, |bi) = 0.
30 / 63
Projetores
Consideremos uma base {|ji}dimW
j=1 ∈ W, sendo W um
subespaço do espaço vetorial V. Assim, podemos construir
uma base {|ji}dimV
j=1 ∈ V com dimV ≥ dimW. Por definição
P :=
dimW
X
j=1
|jihj|
é um projetor no subespaço W.
P†
= P; (P|pi = p|pi com p ∈ R)
P2
= P; (P|pi = P2
|pi = p2
|pi ⇒ p2
= p ⇒ p = 0, 1)
P + Q = IV com
Q =
dimV
X
j=dimW+1
|jihj|
sendo o complemento ortonormal de P.
31 / 63
Operador Normal
Um operador A é dito normal se
AA†
= A†
A.
Se um operador A é Hermitiano (A†
= A) então A é normal (A†
A = AA).
Teorema (Decomposição Espectral). Dado A : V → V, resulta que A é
normal se e somente se existir uma base ortonormal de V na qual A é
diagonal.
Prova. Iniciamos assumindo que existe uma base ortonormal {|aii}
na qual A é diagonal, i.e., A =
P
i ai|aiihai|. Segue então que
AA†
= (
X
i
ai|aiihai|)(
X
j
aj|ajihaj|)†
=
X
i
X
j
aia∗
j |aii
δij
z }| {
(|aii, |aji)haj|
=
X
i
a∗
i ai|aiihai| =
X
j
X
i
a∗
j ai|aji(|aji, |aii)hai|
= (
X
j
aj|ajihaj|)†
(
X
i
ai|aiihai|)= A†
A
32 / 63
Agora assumimos que A é normal, i.e., AA† = A†A.
Seja ai um autovetor de A e P o projetor no auto-espaço de ai
(Vi) e seja Q o projetor no complemento ortonormal de P, ou
seja, P + Q = IV. Assim
A = IVAIV = (P + Q)A(P + Q)
= PAP
|{z}
=aiP
+ PAQ + QAP
| {z }
=aiQP=0
+ QAQ
Como A é normal, dado um vetor |vi ∈ Vi, vem que
AA†
|vi = A†
A|vi = aiA†
|vi.
Ou seja, A†|vi é um elemento de Vi. Então
(PAQ)†
= Q†
A†
P†
= QA†
P
|{z}
∈Vi
= 0 ⇒ ((PAQ)†
)†
= PAQ = 0
33 / 63
Portanto
A = PAP + QAQ.
Lembrando A : V → V. Assim, dada uma base {|vji}dimV
j=1 ∈ V,
podemos escrever
A =
dimV
X
j,k=1
Ajk|vjihvk|
com
Ajk := (|vji, A|vki).
Percebe-se por conseguinte que PAP e QAQ são
diagonais com relação a uma base ortonormal do
subespaço P e Q, respectivamente.
Portanto A é diagonal em uma base do espaço total V,
completando assim a prova.
34 / 63
Operadores Positivos
Um operador A é dito positivo (notação A ≥ 0) se
(|vi, A|vi) ≥ 0 ∀|vi.
Se (|vi, A|vi)  0 ∀|vi 6= | i, então A é dito positivo definido.
Um operador positivo (A ≥ 0) é necessariamente Hermitiano
(A = A†).
A†A é positivo (A†A ≥ 0) para qualquer operador linear A.
Prova. Definindo A|vi := |wi temos
(|vi, A†
A|vi) = (A|vi, A|vi) = (|wi, |wi) ≥ 0.
35 / 63
Operador Unitário
Um operador U é dito unitário se
U†
U = I = UU†
Operadores unitários preservam o produto interno:
(U|vi, U|wi) = (U†
U|vi, |wi) = (I|vi, |wi)=(|vi, |wi).
Os autovalores de um operador unitário (U|ui = u|ui) tem
módulo |u| = 1 e portanto podem ser escritos de maneira
geral como u = exp(iθ), com θ ∈ R.
(|ui, |ui) = 1
= (U|ui, U|ui) = (u|ui, u|ui) = |u|2
hu|ui = |u|2
⇒ |u| = 1
⇒ u = |u| exp(iθ) = exp(iθ)
36 / 63
O vetores |rii = (ui1, ui2, ui3, · · · ) das linhas de U formam um conjunto
ortonormal, i.e.,
(|rii, |rji) =
X
k
uiku∗
jk = δij
UU†
= I ∴





u11 u12 u13 · · ·
u21 u22 u23 · · ·
u31 u32 u33 · · ·
.
.
.
.
.
.
.
.
.
...










u∗
11 u∗
21 u∗
31 · · ·
u∗
12 u∗
22 u∗
32 · · ·
u∗
13 u∗
23 u∗
33 · · ·
.
.
.
.
.
.
.
.
.
...





=





1 0 0 · · ·
0 1 0 · · ·
0 0 1 · · ·
.
.
.
.
.
.
.
.
.
...





O vetores |cii = (u1i, u2i, u3i, · · · ) das colunas de U formam um conjunto
ortonormal, i.e.,
(|cii, |cji) =
X
k
ukiu∗
kj = δij
U†
U = I ∴





u∗
11 u∗
21 u∗
31 · · ·
u∗
12 u∗
22 u∗
32 · · ·
u∗
13 u∗
23 u∗
33 · · ·
.
.
.
.
.
.
.
.
.
...










u11 u12 u13 · · ·
u21 u22 u23 · · ·
u31 u32 u33 · · ·
.
.
.
.
.
.
.
.
.
...





=





1 0 0 · · ·
0 1 0 · · ·
0 0 1 · · ·
.
.
.
.
.
.
.
.
.
...





37 / 63
Operador Unitário. Representação Produto Externo
Consideremos uma base ortonormal {|vii} ((|vii, |vji) = δij).
Assim {|wii} := {U|vii} também forma uma base ortonormal:
(|wii, |wji) = (U|vii, U|vji) = (U†
U|vii, |vji) = (|vii, |vji) = δij
Portanto
U =
X
i
|wiihvi|
Matrizes de Pauli
σ0
= |0ih0| + |1ih1|
σ1
= |0ih1| + |1ih0|
σ2
= −i|0ih1| + i|1ih0|
σ3
= |0ih0| − |1ih1|
são Hermitianas e unitárias

σi
†
= σi
, i = 0, 1, 2, 3

σi
2
= σ0
38 / 63
Relações entre os Diferentes Tipos de Operadores
39 / 63
Produto Tensorial
O produto tensorial é utilizado para tratar espaços vetoriais
utilizados na descrição de sistemas de muitos corpos a partir
dos espaços vetoriais de suas partes constituintes.
Consideremos dois espaços de Hilbert Ha
e Hb
e bases ortonormais
{|ia
i} ∈ Ha
e {|jb
i} ∈ Hb
com i = 1, · · · , dimHa
e j = 1, · · · , dimHb
. Uma base ortonormal
para o espaço produto tensorial Ha
⊗ Hb
é definida como
{|ia
i ⊗ |jb
i}.
Temos assim que dimHa
⊗ Hb
= dimHa
dimHb
.
Qualquer vetor |ψab
i ∈ Ha
⊗ Hb
pode ser escrito como
|ψab
i =
X
i,j
ci,j|ia
i ⊗ |jb
i,
com ci,j ∈ C.
40 / 63
Convenção
|ia
i ⊗ |jb
i ≡ |ia
i|jb
i ≡ |ia
, jb
i ≡ |ia
jb
i ≡ |iji.
Propriedades do Produto Tensorial
1 Para z ∈ C e |ψai ∈ Ha e |φbi ∈ Hb
z(|ψa
i ⊗ |φb
i) = (z|ψa
i) ⊗ |φb
i = |ψa
i ⊗ (z|φb
i)
2 Para |ψai, |ξai ∈ Ha e |φbi ∈ Hb
(|ψa
i + |ξa
i) ⊗ |φb
i = |ψa
i ⊗ |φb
i + |ξa
i ⊗ |φb
i
3 Para |ψai ∈ Ha e |φbi, |χbi ∈ Hb
|ψa
i ⊗ (|φb
i + |χb
i) = |ψa
i ⊗ |φb
i + |ψa
i ⊗ |χb
i
41 / 63
Operadores Lineares em Ha
⊗ Hb
Consideremos vetores |ψai ∈ Ha e |φbi ∈ Hb e operadores
lineares A : Ha → H̃a e B : Hb → H̃b. Define-se um operador
linear A ⊗ B : Ha ⊗ Hb → H̃a ⊗ H̃b como
A ⊗ B(|ψa
i ⊗ |φb
i) := A(|ψa
i) ⊗ B(|φb
i)
Linearidade de A ⊗ B
A ⊗ B(|Ψab
i) = A ⊗ B(
X
i,j
ci,j|ia
i ⊗ |jb
i) =
X
i,j
ci,jA(|ia
i) ⊗ B(|jb
i)
Para Aj : Ha
→ H̃a
e Bj : Hb
→ H̃b
, um operador linear
Cab
: Ha
⊗ Hb
→ H̃a
⊗ H̃b
pode ser representado de maneira
geral como
Cab
=
X
i,j
ci,jAi ⊗ Bj, com ci,j ∈ C.
Por definição
(
X
i,j
ci,jAi ⊗ Bj)(|ψa
i ⊗ |φb
i) :=
X
i,j
ci,jAi(|ψa
i) ⊗ Bj(|φb
i).
42 / 63
Produto interno e Produto de Kronecker
Produto interno para espaços produto tensorial
(|ψab
i, |φab
i) = (
X
j,k
cj,k|ja
i ⊗ |kb
i,
X
m,n
dm,n|ma
i ⊗ |nb
i)
:= |ψab
i†
|φab
i =
X
j,k
c∗
j,kdj,k.
Dadas matrizes {Ai,j}mxn e {Bk,l}p,q o produto de Kronecker é
definido como
A ⊗ B := mxp linhas
nxq colunas
z }| {

















A11B A12B · · · A1nB
A21B A22B · · · A2nB
.
.
.
.
.
.
...
.
.
.
Am1B Am2B · · · AmnB






Notação: A⊗n
:=
nvezes
z }| {
A ⊗ · · · ⊗ A. Exemplo. A⊗2
= A ⊗ A.
43 / 63
Funções de Operadores
Dado um operador normal A com decomposição espectral
A =
X
a
a|aiha|,
uma função f : C → C desse operador é definida como
f(A) :=
X
a
f(a)|aiha|.
Exemplo.
exp(θσ1
) = exp(θ)| ↑xih↑x | + exp(−θ)| ↓xih↓x |
44 / 63
Dados ~
n ∈ R3 com ||~
n|| = 1, θ ∈ R e ~
σ = (σ1, σ2, σ3), segue que
exp(iθ~
n · ~
σ) = cos(θ)I + i sin(θ)~
n · ~
σ
Prova. Vamos utilizar as séries de Taylor,
f(x)|x0
=
∞
X
n=0
dnf(x)
dxn
x0
(x − x0)n
n!
,
para
exp(x)|0 = 1 + x +
x2
2
+
x3
3!
+
x4
4!
+
x5
5!
+ · · ·
cos(x)|0 = 1 −
x2
2
+
x4
4!
−
x6
6!
+ · · ·
sin(x)|0 = x −
x3
3!
+
x5
5!
−
x7
7!
+ · · ·
45 / 63
Mostremos que (~
n · ~
σ)2
= I.
(~
n · ~
σ)2
= (n1σ1
+ n2σ2
+ n3σ3
)(n1σ1
+ n2σ2
+ n3σ3
)
= n2
1(σ1
)2
+ n1n2σ1
σ2
+ n1n3σ1
σ3
+n1n2σ2
σ1
+ n2
2(σ2
)2
+ n2n3σ2
σ3
+n1n3σ3
σ1
+ n2n3σ3
σ2
+ n2
3(σ3
)2
= (n2
1 + n2
2 + n2
3)I
= I
Assim obtemos
exp(iθ~
n · ~
σ) = I + (iθ~
n · ~
σ) +
(iθ~
n · ~
σ)2
2
+
(iθ~
n · ~
σ)3
3!
+
(iθ~
n · ~
σ)4
4!
+
(iθ~
n · ~
σ)5
5!
+ · · ·
= I + iθ~
n · ~
σ −
θ2
2
I − i
θ3
3!
~
n · ~
σ +
θ4
4!
I + i
θ5
5!
~
n · ~
σ + · · ·
= (1 −
θ2
2
+
θ4
4!
− · · · )I + i(θ −
θ3
3!
+
θ5
5!
− · · · )~
n · ~
σ
= cos(θ)I + i sin(θ)~
n · ~
σ
46 / 63
A Função Traço
O traço de um operador A, numa certa representação matricial,
é definido como
tr(A) :=
X
j
Ajj
Propriedades da função traço
tr(AB) = tr(BA) (cíclico);
Prova. tr(AB) =
X
i
(AB)ii =
X
i
X
j
AijBji =
X
j
X
i
BjiAij
=
X
j
(BA)jj = tr(BA)
tr(A + B) = tr(A) + tr(B) (linear);
tr(zA) = ztr(A) com z ∈ C.
tr(UAU†
) = tr(U†
UA) = tr(A) (o traço não depende da base
utilizada na representação matricial de A);
tr(A ⊗ B) = (trA)(trB).
47 / 63
A Função Traço Parcial
Consideremos um operador linear Cab : Ha ⊗ Hb → Ha ⊗ Hb na
sua representação produto externo
Cab
= Ia
⊗ Ib
Cab
Ia
⊗ Ib
= (
X
i
|ia
ihia
|) ⊗ (
X
j
|jb
ihjb
|)Cab
(
X
k
|ka
ihka
|) ⊗ (
X
l
|lb
ihlb
|)
=
X
i,j,k,l
(|ia
ihia
| ⊗ |jb
ihjb
|)Cab
(|ka
ihka
| ⊗ |lb
ihlb
|)
=
X
i,j,k,l
|ia
i ⊗ |jb
i(hia
| ⊗ hjb
|Cab
|ka
i ⊗ |lb
i)hka
| ⊗ hlb
|
=
X
i,j,k,l
(hia
| ⊗ hjb
|Cab
|ka
i ⊗ |lb
i)|ia
i ⊗ |jb
ihka
| ⊗ hlb
|
:=
X
i,j,k,l
Cab
ij,kl|ia
ihka
| ⊗ |jb
ihlb
|
48 / 63
Um operador linear reduzido Ca : Ha → Ha pode ser obtido
através da operação de traço parcial sobre Hb (notação trb),
que é definida como
Ca
= trbCab
:=
X
m
hmb
|Cab
|mb
i
≡
X
i,k
X
m
Cab
im,km|ia
ihka
|
=
X
i,k
Ca
i,k|ia
ihka
|,
com
Ca
i,k :=
X
m
Cab
im,km
49 / 63
Espaço de Operadores Lineares e o
Produto Interno de Hilbert-Schmidt
O espaço formado por operador lineares L(H) : H → H também é
um espaço de Hilbert com produto interno definido como
(A, B) := tr(A†
B).
L(H) : H → H é uma espaço vetorial. Dados dois operadores
lineares A, B : H → H e {|vii} ∈ H, temos
1 (A+B)(
P
i ci|vii) = A(
P
i ci|vii)+B(
P
i ci|vii) =
P
i ci(A+B)(|vii);
2 (zA)(
P
i ci|vii) = z
P
i ciA(|vii);
3 A + oH = A com oH|vii = | i.
tr(A†
B) é um produto interno. Dados A, B : H → H e bi ∈ C, temos
1 (A,
P
j bjBj) = tr(A†
P
j bjBj) =
P
j bjtr(A†
Bj) =
P
j bj(A, Bj);
2 (A, B) = tr(A†
B) = tr(
P
i A∗
jiBik) =
P
j
P
i A∗
jiBij =
(
P
i
P
j B∗
ijAji)∗
= (tr(B†
A))∗
= (B, A)∗
;
3 (A, A) = tr(A†
A) ≥ 0.
50 / 63
Comutadores e Anticomutadores
O comutador entre dois operadores A e B é definido como
[A, B] ≡ [A, B]− := AB − BA.
Se AB = BA dizemos que A e B comutam.
O anti-comutador entre dois operadores A e B é definido
como
{A, B} ≡ [A, B]+ := AB + BA.
Se AB = −BA dizemos que A e B anticomutam.
Comutadores e Anti-comutadores das matrizes de Pauli (j, k = 1, 2, 3)
[σj
, σk
] = 2i
3
X
l=1
jklσl
{σj
, σk
} = 2δjkI
51 / 63
Comutadores de Operadores Hermitianos
Teorema. Dados dois operadores Hermitianos A e B, então
[A, B] = 0 se e somente se existir uma base ortonormal {|ji} na
qual A e B são diagonais, ou seja, A =
P
j aj|jihj| e
B =
P
j bj|jihj|.
Prova. Assumimos primeiramente que A e B são diagonais na
mesma base. Então
[A, B] = (
X
j
aj|jihj|)(
X
k
bk|kihk|) − (
X
k
bk|kihk|)(
X
j
aj|jihj|)
=
X
j,k
ajbk(|jihj|ki
|{z}
δjk
hk| − |kihk|ji
|{z}
δjk
hj|)
=
X
j
ajbj(|jihj| − |jihj|)
= 0
52 / 63
Agora assumimos que A e B comutam, ou seja,
[A, B] = 0 ⇒ AB = BA.
Seja {|aji} uma base de autovetores não degenerados de A
com autovalor ai, teremos
AB|aii = BA|aii = aiB|aii.
Portanto B|aii também é autovetor de A com autovalor ai. Isso
implica que
B|aii ∝ |aii = bi|aii.
Com isso vem que B também é diagonal na base {|aii}.
53 / 63
Lei de Leibniz
[A, BC] = [A, B]C + B[A, C]
[AB, C] = [A, C]B + A[B, C]
Verificação.
[A, B]C + B[A, C] = ABC − BAC + BAC − BCA
= ABC − BCA
= [A, BC]
[A, C]B + A[B, C] = ACB − CAB + ABC − ACB
= ABC − CAB
= [AB, C]
54 / 63
Identidade de Jacobi
[A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0
Verificação.
[A, [B, C]] + [B, [C, A]] + [C, [A, B]]
= [A, BC − CB] + [B, CA − AC] + [C, AB − BA]
= ABC − BCA − ACB + CBA + BCA − CAB
−BAC + ACB + CAB − ABC − CBA + BAC
= 0
55 / 63
Lema de Hadamard
eA
Be−A
= B + [A, B] +
1
2!
[A, [A, B]] +
1
3!
[A, [A, [A, B]]] + · · ·
Prova. Temos
exp(±A) = I ± A +
A2
2!
±
A3
3!
+ · · · .
Assim
eA
Be−A
=

I + A +
A2
2!
+
A3
3!
+ · · ·

B

I − A +
A2
2!
−
A3
3!
+ · · ·

=

B + AB +
A2
B
2!
+
A3
B
3!
+ · · ·
 
I − A +
A2
2!
−
A3
3!
+ · · ·

= B + (−BA + AB) +

BA2
2!
− ABA +
A2
B
2!

+

−
BA3
3!
+
ABA2
2!
−
A2
BA
2!
+
A3
B
3!

+ · · ·
56 / 63
eA
Be−A
= B + [A, B] +
1
2!
(BAA − 2ABA + AAB)
+
1
3!
(−BAAA + 3ABAA − 3AABA + AAAB) + · · ·
= B + [A, B] +
1
2!
((BA − AB)A + A(−BA + AB))
+
1
3!
((−BA + AB)AA + 2A(BA − AB)A + AA(−BA + AB)) + · · ·
= B + [A, B] +
1
2!
(−[A, B]A + A[A, B])
+
1
3!
([A, B]AA − 2A[A, B]A + AA[A, B]) + · · ·
= B + [A, B] +
1
2!
+ [A, [A, B]]
+
1
3!
(([A, B]A − A[A, B])A − A([A, B]A − A[A, B])) + · · ·
= B + [A, B] +
1
2!
+ [A, [A, B]] +
1
3!
(−[A, [A, B]]A + A[A, [A, B]]) + · · ·
= B + [A, B] +
1
2!
+ [A, [A, B]] +
1
3!
[A, [A, [A, B]]] + · · ·
57 / 63
Outra prova. Define-se f(s) := esABe−sA. Então
f0
(s) = esA
[A, B]e−sA
f00
(s) = esA
[A, [A, B]]e−sA
f000
(s) = esA
[A, [A, [A, B]]]e−sA
.
.
.
Expansão de f(s) em série de Taylor em torno de s = 0:
f(s) = f(0) + sf0
(0) +
1
2!
s2
f00
(0) +
1
3!
s3
f000
(0) + · · ·
= B + s[A, B] +
1
2!
s2
[A, [A, B]] +
1
3!
s3
[A, [A, [A, B]]] + · · ·
Agora faz s = 1. Assim
eA
Be−A
= B + [A, B] +
1
2!
[A, [A, B]] +
1
3!
[A, [A, [A, B]]] + · · ·
58 / 63
Relação de Baker-Campbell-Housdorff
Dado que [A, [A, B]] = [B, [A, B]] = 0 então
eA+B
= eA
eB
e−[A,B]/2
Prova. Vamos definir C := exA
exB
com x sendo um escalar. Com isso
dC
dx
= exA
AexB
+ exA
BexB

e−xB
e−xA
exA
exB
= A + exA
Be−xA

C
= exA
exB
e−xB
e−xA
exA
AexB
+ exA
BexB

= C e−xB
AexB
+ B

Do lema de Hadamard, temos que exA
Be−xA
= B + x[A, B] e
e−xB
AexB
= A + x[A, B]. Por conseguinte
dC
dx
= (A + B + x[A, B]) C
= C (A + B + x[A, B])
59 / 63
Como [C, (A + B + x[A, B])] = 0 podemos resolver a equação anterior
como uma equação diferencial qualquer. Assim obtemos
C = exp(x(A + B) + x2
[A, B]/2)
= exA
exB
.
Mas
[x(A + B), x2
[A, B]/2] =
x3
2
([A, [A, B]] + [B, [A, B]])
:= 0.
Então
exp(x(A + B) + x2
[A, B]/2) = exp(x(A + B)) exp(x2
[A, B]/2)
e
ex(A+B)
= exA
exB
e−x2
[A,B]/2
.
Fazendo x = 1 concluímos a demonstração.
60 / 63
A Decomposição Polar
Dado um operador linear A : V → V, existe um operador
unitário U e operadores positivos J e K tais que
A = UJ = KU,
com J =
√
A†A e K =
√
AA†.
Prova.
J =
√
A†A ≥ 0 ⇒ J =
X
i
Ji|JiihJi| com (|Jii, |Jji) = δij.
Assumimos Ji  0 e definimos |aii := J−1
i A|Jii. Assim
(|aii, |aji) = J−1
i J−1
j (A|Jii, A|Jji)
= J−1
i J−1
j (A†
A|Jii, |Jji)
= J−1
j Jiδij
= δij
61 / 63
Definindo U :=
P
i |aiihJi| vemos que se Ji  0 então
UJ|Jii = Ji|aii = A|Jii.
Se Ji = 0 então
UJ|Jii = 0 = |aii.
Portanto a ação de A e de UJ na base {|Jii} é a mesma e por
conseguinte
A = UJ.
Podemos ver que J é unicamente definido fazendo
A†
A = (UJ)†
UJ = J†
U†
UJ = J2
⇒ J =
√
A†A.
Temos também que
A = UJ = UJU†
U = KU,
com K ≥ 0. Temos ainda que
AA†
= UJ(UJ)†
= UJJ†
U†
= UJU†
UJU†
= K2
⇒ K =
√
AA†.
62 / 63
A Decomposição em Valores Singulares
Dada uma matriz quadrada A, existem matrizes unitárias U e V
e uma matriz positiva e diagonal D tais que
A = UDV.
Os elementos de D são os valores singulares de A.
Prova. Da decomposição polar vem que
A = SJ,
sendo S unitária (SS†
= I = S†
S) e J positiva (J ≥ 0). Do teorema
espectral temos
J = TDT†
,
com T unitária e D diagonal e positiva. Assim, se definimos U := ST
e V := T†
obtemos
A = STDT†
:= UDV.
63 / 63

linear-algebra.pdf

  • 1.
    Universidade Federal deSanta Maria Centro de Ciências Naturais e Exatas Programa de Pós-Graduação em Física Grupo de Teoria da Matéria Condensada Álgebra Linear Jonas Maziero Santa Maria - RS, Maio de 2012 1 / 63
  • 2.
    Referências M. A. Nielsene I. L. Chuang, Quantum Information and Quantum Computation (Cambridge University Press, Cambridge, 2000); A. F. R. de Toledo Piza, Mecânica Quântica (Edusp, São Paulo, 2009). 2 / 63
  • 3.
    Sumário ±σ Espaços Vetoriais; IndependênciaLinear e Bases; Produto Interno; Procedimento de Gram-Schmidt; Desigualdade de Cauchy-Schwarz; Operadores Lineares e Matrizes; Produto Externo e a Relação de Completeza; Autovalores e Autovetores; O Adjunto de um Operador; Operadores Hermitianos; Projetores; Operador Normal; Operador Unitário; Produto Tensorial; Funções de Operadores; Comutadores e Anticomutadores; · · · . 3 / 63
  • 4.
    Números Complexos Dados doisnúmeros reais a, b ∈ R quaisquer, então z := a + ib ∈ C é um número complexo, onde i = √ −1. Partes real Rez = a ∈ R e imaginária Imz = b ∈ R do número complexo z; Conjugado de um número complexo: z∗ := a − ib ∈ C; Dados z := a + ib ∈ C e z̃ := ã + ib̃ ∈ C com a, b, ã, b̃ ∈ R temos: z = z̃ ⇒ a = ã e b = b̃; z ± z̃ := (a ± ã) + i(b ± b̃); zz̃ = (a + ib)(ã + ib̃) = aã + iab̃ + ibã − bb̃; z z̃ := z z̃ z̃∗ z̃∗ = zz̃∗ ã2 + b̃2 . Módulo de um número complexo: |z| := √ zz∗ = p a2 + b2; 4 / 63
  • 5.
    Plano Complexo (planode Argand-Gauss) Números complexos podem ser representados como pontos no plano Cartesiano (veja a Figura ao lado). Temos então cos θ = a |z| e sin θ = b |z| . Assim z = a + ib = |z|(cos θ + i sin θ) = |z| exp(iθ), com 0 ≤ θ < 2π e 0 ≤ |z| < ∞. Também θ = arctan(b/a). 5 / 63
  • 6.
    Álgebra Linear É oestudo de espaços vetoriais e operações lineares nesses espaços. Um Espaço Vetorial é um conjunto de objetos que têm certas propriedades (veja a próxima transparência) Exemplo. Cn: conjunto de todas as listas de números complexos (zi ∈ C) (z1, · · · , zn) Cada objeto (lista) desse conjunto é um vetor. Notação matricial (matriz coluna) |vi =    v1 . . . vn    onde vi ∈ C |rótuloi é a notação de Dirac para vetores, muito utilizada em Mecânica Quântica. 6 / 63
  • 7.
    Propriedades de umEspaço Vetorial (Cn ) 1 Existe a operação de adição de objetos. Para |vi = (v1, · · · , vn) ∈ Cn e |ui = (u1, · · · , un) ∈ Cn |vi + |ui :=    v1 + u1 . . . vn + un    ∈ Cn 2 Existe a operação multiplicação por escalar. Para |vi = (v1, · · · , vn) ∈ Cn e z ∈ C z    v1 . . . vn    :=    zv1 . . . zvn    ∈ Cn 3 Existe o elemento nulo 0 := | i. |vi + | i := |vi ∀|vi Para |vi = (v1, · · · , vn) ∈ Cn e | i = (0, · · · , 0) ∈ Cn 7 / 63
  • 8.
    Independência Linear eBases Definição. Um conjunto de vetores {|vii} é linearmente independente (LI) se P i ci|vii = | i implica em ci = 0 ∀i. Definição. Um conjunto de vetores LI {|vii}dimV i=1 ∈ V é uma base para um espaço vetorial V se qualquer vetor |vi ∈ V pode ser escrito como uma combinação linear |vi = dimV X i=1 ci|vii. Exemplo. Os autoestados de σz , |0i = (1, 0); |1i = (0, 1), formam uma base para C2 : |vi = (v1, v2) = v1|0i + v2|1i. Existem infinitas outras bases. e.g. os autoestados de σx : |+i = 2−1/2 (1, 1); |−i = 2−1/2 (1, −1). 8 / 63
  • 9.
    Produto interno Uma função(·, ·) : VxV → C é um produto interno se satisfaz os seguintes requerimentos 1 É linear no segundo argumento: (|vi, X i ci|wii) = X i ci(|vi, |wii), onde ci ∈ C; 2 (|vi, |wi) = (|wi, |vi) ∗ ; 3 (|vi, |vi) ≥ 0 com igualdade se e somente se |vi = | i. Produto interno para Cn : (|vi, |wi) ≡ hv|wi := |vi† |wi = v∗ 1 · · · v∗ n    w1 . . . wn    = X i v∗ i wi Espaço de Hilbert H: Espaço vetorial Cn equipado com um produto interno (|vi, |wi). 9 / 63
  • 10.
    Teorema O produto internoé linear-conjugado no primeiro argumento, i.e., dados ci ∈ C e |vii, |wi ∈ V vem que ( X i ci|vii, |wi) = X i c∗ i (|vii, |wi). Demonstração ( X i ci|vii, |wi) = (|wi, X i ci|vii)∗ = X i ci(|wi, |vii) !∗ = X i c∗ i (|wi, |vii)∗ = X i c∗ i (|vii, |wi) 10 / 63
  • 11.
    Algumas Definições Dois vetores|vi e |wi são ortogonais se seu produto interno é nulo, i.e., se (|vi, |wi) = 0. A norma (“comprimento”) de um vetor |vi é definida como |||vi|| := p (|vi, |vi) Vetor unitário ou normalizado: |||vi|| = 1. Para ∀|vi,se definimos |ṽi := |vi |||vi|| , −1cm então |||ṽi|| = 1. Um conjunto de vetores {|vii} é ortonormal se (|vii, |vji) = δij. 11 / 63
  • 12.
    Procedimento de Gram-Schmidt Dadauma base {|wii}dimV i=1 ∈ V de vetores linearmente independentes, obtemos uma base ortonormal {|vii}dimV i=1 ∈ V definindo |v1i := |w1i |||w1i|| e, para 1 ≤ k ≤ dimV − 1, definindo |vk+1i := |wk+1i − Pk i=1(|vii, |wk+1i)|vii |||wk+1i − Pk i=1(|vii, |wk+1i)|vii|| . 12 / 63
  • 13.
    Desigualdade de Cauchy-Schwarz(DCS) Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta que |(|vi, |wi)|2 ≤ (|vi, |vi)(|wi, |wi) Prova. Partimos do fato que (|ψi, |ψi) ≥ 0 e definimos |ψi := |vi + z|wi, com z ∈ C. Assim (|ψi, |ψi) = (|vi, |vi)+z(|vi, |wi)+z∗ (|wi, |vi)+|z|2 (|wi, |wi) ≥ 0 Agora, se |wi = | i então |(|vi, | i)|2 = 0 = (|vi, |vi)(| i, | i) e a DCS é satisfeita. Por outro lado, se |wi 6= | i definimos z := −(|wi, |vi)/(|wi, |wi) e resulta que (|vi, |vi) − (|wi, |vi) (|wi, |wi) (|vi, |wi) − (|wi, |vi)∗ (|wi, |wi) (|wi, |vi) + |(|wi, |vi)|2 (|wi, |wi)2 (|wi, |wi) ≥ 0 (|wi, |wi)(|vi, |vi) − |(|vi, |wi)|2 − |(|wi, |vi)|2 + |(|wi, |vi)|2 ≥ 0 ∴ (|wi, |wi)(|vi, |vi) ≥ |(|wi, |vi)|2 13 / 63
  • 14.
    Temos ainda que(|wi, |wi)(|vi, |vi) = |(|wi, |vi)|2 se e somente se |vi ∝ |wi. Prova. Assumimos |vi ∝ |wi = c|wi. Então (|vi, |vi) = |c|2 (|wi, |wi) e |(|vi, |wi)|2 = |c|2 (|wi, |wi)2 , o que implica que (|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2 . Agora assumimos que (|vi, |vi)(|wi, |wi) = |(|vi, |wi)|2 e |||wi|| 6= 0. Usamos o procedimento de Gram-Schmidt para construir uma base ortonormal {|wii}dimV i=1 com |w1i := |wi/|||wi||. Podemos escrever |vi = PdimV i=1 ci|wii. Assim (|vi, |vi) = ( dimV X i=1 ci|wii, dimV X i=1 cj|wji) = dimV X i,j=1 c∗ i cj δij z }| { (|wii, |wji) = dimV X i=1 |ci|2 e |(|vi, |wi)|2 = |( dimV X i=1 ci|wii, |||wi|||w1i)|2 = |||wi||2 dimV X i=1 |ci|2 | δi1 z }| { (|wii, |w1i)|2 = |||wi||2 |c1|2 . Com isso vem que |||wi||2   dimV X i,j=1 |ci|2 − |c1|2   = 0 e portanto ci = 0 se i 6= 1 e consequentemente |vi ∝ |wi. 14 / 63
  • 15.
    Operadores Lineares Um operadorlinear entre espaços vetoriais V e W é qualquer função (mapa) A : V → W que é linear em seu domínio, i.e. A X i ci|vii ! = X i ciA(|vii) Dizemos que um operador linear A está definido em V se A : V → V. Dois operadores lineares importantes: Operador identidade em V: IV|vi := |vi para todo |vi ∈ V. Operador zero em V: 0V|vi := | i para todo |vi ∈ V. 15 / 63
  • 16.
    Matrizes como OperadoresLineares Uma matriz complexa {Aij} é um mapa {Aij}mxn : Cn → Cm . Explicitamente (Amxnv1xn = w1xm):      A11 A12 · · · A1n A21 A22 · · · A2n . . . . . . ... . . . Am1 Am2 · · · Amn           v1 v2 . . . vn      =      w1 w2 . . . wm      onde wi = n X j=1 Aijvj Dizer que uma matriz A é um operador linear significa que A X i ci|vii ! = X i ciA(|vii) 16 / 63
  • 17.
    Linearidade de Matrizes ConsideremosA = {Aij}, |vi = {vi} e |wi = {wi}. Definimos ainda |xi := a|vi + b|wi = {xi} = {avi + bwi}. Assim (A|xi)i = X j Aijxj = X j Aij(avj + bwj) = a X j Aijvj + b X j Aijwj = a(A|vi)i + b(A|wi)i. Ou seja, A|xi = A(a|vi + b|wi) = aA(|vi) + bA(|wi) 17 / 63
  • 18.
    Operadores Lineares comoMatrizes Consideremos um operador linear A : V → W e bases de vetores {|vii}m i=1 ∈ V e {|wji}n j=1 ∈ W. Para cada i existem {Aji}n j=1 ∈ C tal que A|vii = n X j=1 Aji|wji. A matriz {Aji}mxn é uma representação matricial para o operador linear A. OBS. Para fazer a conexão entre matrizes e operadores lineares devemos especificar as bases de entrada (domínio) e saída (imagem) para o operador linear A e também devemos especificar como A atua na sua base domínio. Resumindo. Os pontos de vista de operadores lineares e de matrizes são equivalentes. 18 / 63
  • 19.
    Matrizes de Pauli.σ0 := I Vamos considerar V = W = C2 e uma base (base computacional) |0i := 1 0 , |1i := 0 1 Representação matricial para I := σ0: σ0 |0i = σ0 11|0i + σ0 21|1i σ0 |1i = σ0 12|0i + σ0 22|1i Ação de σ0: σ0 |0i = |0i e σ0 |1i = |1i. Ou seja σ0 = 1 0 0 1 . 19 / 63
  • 20.
    Matrizes de Pauli.σ1 := σx Representação matricial para σx := σ1 := X: σ1 |0i = σ1 11|0i + σ1 21|1i σ1 |1i = σ1 12|0i + σ1 22|1i Ação de σ1 (porta lógica NOT da computação clássica e quântica): σ1 |0i = |1i e σ1 |1i = |0i. Ou seja σ1 = 0 1 1 0 , que tem autovalores ±1 e autovetores | ↑xi = 2−1/2 (|0i + |1i) | ↓xi = 2−1/2 (|0i − |1i) 20 / 63
  • 21.
    Matrizes de Pauli.σ2 := σy Representação matricial para σy := σ2 := Y: σ2 |0i = σ2 11|0i + σ2 21|1i σ2 |1i = σ2 12|0i + σ2 22|1i Ação de σ2: σ2 |0i = exp(iπ/2)|1i e σ2 |1i = exp(−iπ/2)|0i. Ou seja1 σ2 = 0 −i i 0 , com i = √ −1. Temos que σ2 tem autovalores ±1 e autovetores | ↑yi = 2−1/2 (|0i + i|1i) | ↓yi = 2−1/2 (|0i − i|1i) 1 Relação de Euler: exp(iθ) = cos(θ) + i sin(θ) 21 / 63
  • 22.
    Matrizes de Pauli.σ3 := σz Representação matricial para σz := σ3 := Z: σ3 |0i = σ3 11|0i + σ3 21|1i σ3 |1i = σ3 12|0i + σ3 22|1i Ação de σ3: σ3 |0i = |0i e σ3 |1i = exp(iπ)|1i. Ou seja σ3 = 1 0 0 −1 , com i = √ −1. Temos que σ2 tem autovalores ±1 e autovetores | ↑zi = |0i | ↓zi = |1i 22 / 63
  • 23.
    Representação Matricial paraOperadores Compostos Consideremos operadores lineares A : V → W e B : W → X e bases {|vii} ∈ V, {|wji} ∈ W e {|xki} ∈ X. Questão. Qual a representação matricial para a transformação linear B(A(·)) = B ◦ A(·)? Temos que A(|vii) = X j Aji|wji Então B(A(|vii) = X j AjiB(|wji) = X j Aji X k Bkj|xki = X k X j BkjAji|xki = X k (BA)ki|xki 23 / 63
  • 24.
    Operador Produto Externoe a Relação de Completeza Produto Externo. Consideremos |vi, |ṽi ∈ V e |wi ∈ W. O operador linear produto externo |wihv| : V → W é definido como |wihv|(|ṽi) = |wi(|vi, |ṽi) = (|vi, |ṽi)|wi Assim, para {|vii}, |ṽi ∈ V e {|wii} ∈ W, a combinação linear P i ai|wiihvi| é um operador linear que atua da seguinte forma X i ai|wiihvi|(|ṽi) = X i ai(|vii, |ṽi)|wii. Relação de Completeza. Consideremos uma base ortonormal {|ji}dimV j=1 ∈ V. Qualquer vetor |vi ∈ V pode ser escrito como |vi = P j vj|ji, com vj = (|ji, |vi) ∈ C. Assim vem que dimV X j=1 |jihj|(|vi) = dimV X j=1 |ji(|ji, |vi) = dimV X j=1 vj|ji = |vi, ou seja dimV X j=1 |jihj| = IV. 24 / 63
  • 25.
    Outra Demonstração daDesigualdade de Cauchy-Schwarz Teorema. Dados quaisquer dois vetores |vi, |wi ∈ H, resulta que |(|vi, |wi)|2 ≤ (|vi, |vi)(|wi, |wi) Prova. Usamos o procedimento de Gram-Schmidt para construir uma base ortonormal {|ji} e definimos |1i := |wi |||wi|| . Utilizando a relação de completeza P j |jihj| = I escrevemos (|vi, |vi)(|wi, |wi) = (|vi, I(|vi))(|wi, |wi) = (|vi, X j |jihj|(|vi))(|wi, |wi) = (|vi, X j |ji(|ji, |vi))(|wi, |wi) = X j (|ji, |vi)(|vi, |ji)(|wi, |wi) = X j |(|vi, |ji)|2 (|wi, |wi) ≥ |(|vi, |1i)|2 (|wi, |wi) := |(|vi, |wi)|2 |||wi||2 (|wi, |wi) = |(|vi, |wi)|2 25 / 63
  • 26.
    Representação de Operadorescomo Produto Externo Consideremos A : V → W e bases ortonormais {|vii}dimV i=1 ∈ V e {|wji}dimW j=1 ∈ W. Representação de A na forma produto externo A = IWAIV =   dimW X j=1 |wjihwj|   A dimV X i=1 |viihvi| ! = dimW X j=1 dimV X i=1 (|wji, A|vii)|wjihvi| Representação matricial de A Aji := (|wji, A|vii) são os elementos na linha j e coluna i. Exemplo. Matriz de Pauli σx σx = |0ih1| + |1ih0|. 26 / 63
  • 27.
    Autovalores e Autovetores Osautovetores de um operador linear A são vetores não nulos |vi ∈ V tais que A|vi = v|vi, e v ∈ C são os autovalores de A. Autovalores (equação característica): (A − vI)|vi = | i ∴ (A − vI)−1 (A − vI)|vi = | i ∴ |vi = | i. Portanto det(A − λI) = 0 Autovetores (A − λI)|vi = | i Representação diagonal (decomposição ortonormal) de A em V: A = X i λi|iihi|, onde {|ii}dimV i=1 é uma base ortonormal para V. Degenerescência. Um autovalor tem dois ou mais autovetores correspondentes. 27 / 63
  • 28.
    Adjunto de umOperador Dado um operador linear A : H → H, existe um único operador linear A† tal que, para todo |vi, |wi ∈ H, (|vi, A|wi) = (A† |vi, |wi). A† é conhecido com o adjunto (ou Hermitiano conjugado) de A. Alguns resultados e definições: A† † = A; (A|vi, |wi) = (|wi, A|vi)∗ = (A† |wi, |vi)∗ = (|vi, A† |wi) = ((A† )† |vi, |wi) (AB)† = B† A† (|vi, AB|wi) = (A† |vi, B|wi) = (B† A† |vi, |wi) = ((AB)† |vi, |wi); Dado um vetor |vi define-se hv| := |vi† . Então (A|vi)† = hv|A† ; (|vihw|)† = |wihv|; 28 / 63
  • 29.
    ( P i aiAi)† = P i a∗ iA† i Prova. Dados ai ∈ C, A : H → H e |vi, |wi ∈ H, temos que (|vi, X i aiAi|wi) = X i ai(|vi, Ai|wi); ((·,·) é linear no 2o argumento) = X i ai(A† i |vi, |wi) = ( X i a∗ i A† i |vi, |wi); ((·,·) é anti-linear no 1o argumento) = (( X i aiAi)† |vi, |wi) A† = (AT)∗ = (A∗)T. Ex. A =    a11 a12 · · · a21 a22 · · · · · · · · · ...    ⇒ A† =    a∗ 11 a∗ 21 · · · a∗ 12 a∗ 22 · · · · · · · · · ...    29 / 63
  • 30.
    Operadores Hermitianos Um operadoré dito Hermitiano (ou auto-adjunto) se A† = A Operadores Hermitianos tem autovalores reais (A|ai = a|ai) (|ai, A|ai) = (|ai, a|ai) = a(|ai, |ai) = a = (A† |ai, |ai) = (A|ai, |ai) = (a|ai, |ai) = a∗ (|ai, |ai) = a∗ Portanto a = a∗ ⇒ a ∈ R. Os autovetores de um operador Hermitiano correspondentes a autovetores diferentes são ortogonais. Consideremos A|ai = a|ai e A|bi = b|bi com a 6= b. (|ai, A|bi) = (|ai, b|bi) = b(|ai, |bi) = (A† |ai, |bi) = (A|ai, |bi) = a(|ai, |bi) Portanto (a − b)(|ai, |bi) = 0 ⇒ (|ai, |bi) = 0. 30 / 63
  • 31.
    Projetores Consideremos uma base{|ji}dimW j=1 ∈ W, sendo W um subespaço do espaço vetorial V. Assim, podemos construir uma base {|ji}dimV j=1 ∈ V com dimV ≥ dimW. Por definição P := dimW X j=1 |jihj| é um projetor no subespaço W. P† = P; (P|pi = p|pi com p ∈ R) P2 = P; (P|pi = P2 |pi = p2 |pi ⇒ p2 = p ⇒ p = 0, 1) P + Q = IV com Q = dimV X j=dimW+1 |jihj| sendo o complemento ortonormal de P. 31 / 63
  • 32.
    Operador Normal Um operadorA é dito normal se AA† = A† A. Se um operador A é Hermitiano (A† = A) então A é normal (A† A = AA). Teorema (Decomposição Espectral). Dado A : V → V, resulta que A é normal se e somente se existir uma base ortonormal de V na qual A é diagonal. Prova. Iniciamos assumindo que existe uma base ortonormal {|aii} na qual A é diagonal, i.e., A = P i ai|aiihai|. Segue então que AA† = ( X i ai|aiihai|)( X j aj|ajihaj|)† = X i X j aia∗ j |aii δij z }| { (|aii, |aji)haj| = X i a∗ i ai|aiihai| = X j X i a∗ j ai|aji(|aji, |aii)hai| = ( X j aj|ajihaj|)† ( X i ai|aiihai|)= A† A 32 / 63
  • 33.
    Agora assumimos queA é normal, i.e., AA† = A†A. Seja ai um autovetor de A e P o projetor no auto-espaço de ai (Vi) e seja Q o projetor no complemento ortonormal de P, ou seja, P + Q = IV. Assim A = IVAIV = (P + Q)A(P + Q) = PAP |{z} =aiP + PAQ + QAP | {z } =aiQP=0 + QAQ Como A é normal, dado um vetor |vi ∈ Vi, vem que AA† |vi = A† A|vi = aiA† |vi. Ou seja, A†|vi é um elemento de Vi. Então (PAQ)† = Q† A† P† = QA† P |{z} ∈Vi = 0 ⇒ ((PAQ)† )† = PAQ = 0 33 / 63
  • 34.
    Portanto A = PAP+ QAQ. Lembrando A : V → V. Assim, dada uma base {|vji}dimV j=1 ∈ V, podemos escrever A = dimV X j,k=1 Ajk|vjihvk| com Ajk := (|vji, A|vki). Percebe-se por conseguinte que PAP e QAQ são diagonais com relação a uma base ortonormal do subespaço P e Q, respectivamente. Portanto A é diagonal em uma base do espaço total V, completando assim a prova. 34 / 63
  • 35.
    Operadores Positivos Um operadorA é dito positivo (notação A ≥ 0) se (|vi, A|vi) ≥ 0 ∀|vi. Se (|vi, A|vi) 0 ∀|vi 6= | i, então A é dito positivo definido. Um operador positivo (A ≥ 0) é necessariamente Hermitiano (A = A†). A†A é positivo (A†A ≥ 0) para qualquer operador linear A. Prova. Definindo A|vi := |wi temos (|vi, A† A|vi) = (A|vi, A|vi) = (|wi, |wi) ≥ 0. 35 / 63
  • 36.
    Operador Unitário Um operadorU é dito unitário se U† U = I = UU† Operadores unitários preservam o produto interno: (U|vi, U|wi) = (U† U|vi, |wi) = (I|vi, |wi)=(|vi, |wi). Os autovalores de um operador unitário (U|ui = u|ui) tem módulo |u| = 1 e portanto podem ser escritos de maneira geral como u = exp(iθ), com θ ∈ R. (|ui, |ui) = 1 = (U|ui, U|ui) = (u|ui, u|ui) = |u|2 hu|ui = |u|2 ⇒ |u| = 1 ⇒ u = |u| exp(iθ) = exp(iθ) 36 / 63
  • 37.
    O vetores |rii= (ui1, ui2, ui3, · · · ) das linhas de U formam um conjunto ortonormal, i.e., (|rii, |rji) = X k uiku∗ jk = δij UU† = I ∴      u11 u12 u13 · · · u21 u22 u23 · · · u31 u32 u33 · · · . . . . . . . . . ...           u∗ 11 u∗ 21 u∗ 31 · · · u∗ 12 u∗ 22 u∗ 32 · · · u∗ 13 u∗ 23 u∗ 33 · · · . . . . . . . . . ...      =      1 0 0 · · · 0 1 0 · · · 0 0 1 · · · . . . . . . . . . ...      O vetores |cii = (u1i, u2i, u3i, · · · ) das colunas de U formam um conjunto ortonormal, i.e., (|cii, |cji) = X k ukiu∗ kj = δij U† U = I ∴      u∗ 11 u∗ 21 u∗ 31 · · · u∗ 12 u∗ 22 u∗ 32 · · · u∗ 13 u∗ 23 u∗ 33 · · · . . . . . . . . . ...           u11 u12 u13 · · · u21 u22 u23 · · · u31 u32 u33 · · · . . . . . . . . . ...      =      1 0 0 · · · 0 1 0 · · · 0 0 1 · · · . . . . . . . . . ...      37 / 63
  • 38.
    Operador Unitário. RepresentaçãoProduto Externo Consideremos uma base ortonormal {|vii} ((|vii, |vji) = δij). Assim {|wii} := {U|vii} também forma uma base ortonormal: (|wii, |wji) = (U|vii, U|vji) = (U† U|vii, |vji) = (|vii, |vji) = δij Portanto U = X i |wiihvi| Matrizes de Pauli σ0 = |0ih0| + |1ih1| σ1 = |0ih1| + |1ih0| σ2 = −i|0ih1| + i|1ih0| σ3 = |0ih0| − |1ih1| são Hermitianas e unitárias σi † = σi , i = 0, 1, 2, 3 σi 2 = σ0 38 / 63
  • 39.
    Relações entre osDiferentes Tipos de Operadores 39 / 63
  • 40.
    Produto Tensorial O produtotensorial é utilizado para tratar espaços vetoriais utilizados na descrição de sistemas de muitos corpos a partir dos espaços vetoriais de suas partes constituintes. Consideremos dois espaços de Hilbert Ha e Hb e bases ortonormais {|ia i} ∈ Ha e {|jb i} ∈ Hb com i = 1, · · · , dimHa e j = 1, · · · , dimHb . Uma base ortonormal para o espaço produto tensorial Ha ⊗ Hb é definida como {|ia i ⊗ |jb i}. Temos assim que dimHa ⊗ Hb = dimHa dimHb . Qualquer vetor |ψab i ∈ Ha ⊗ Hb pode ser escrito como |ψab i = X i,j ci,j|ia i ⊗ |jb i, com ci,j ∈ C. 40 / 63
  • 41.
    Convenção |ia i ⊗ |jb i≡ |ia i|jb i ≡ |ia , jb i ≡ |ia jb i ≡ |iji. Propriedades do Produto Tensorial 1 Para z ∈ C e |ψai ∈ Ha e |φbi ∈ Hb z(|ψa i ⊗ |φb i) = (z|ψa i) ⊗ |φb i = |ψa i ⊗ (z|φb i) 2 Para |ψai, |ξai ∈ Ha e |φbi ∈ Hb (|ψa i + |ξa i) ⊗ |φb i = |ψa i ⊗ |φb i + |ξa i ⊗ |φb i 3 Para |ψai ∈ Ha e |φbi, |χbi ∈ Hb |ψa i ⊗ (|φb i + |χb i) = |ψa i ⊗ |φb i + |ψa i ⊗ |χb i 41 / 63
  • 42.
    Operadores Lineares emHa ⊗ Hb Consideremos vetores |ψai ∈ Ha e |φbi ∈ Hb e operadores lineares A : Ha → H̃a e B : Hb → H̃b. Define-se um operador linear A ⊗ B : Ha ⊗ Hb → H̃a ⊗ H̃b como A ⊗ B(|ψa i ⊗ |φb i) := A(|ψa i) ⊗ B(|φb i) Linearidade de A ⊗ B A ⊗ B(|Ψab i) = A ⊗ B( X i,j ci,j|ia i ⊗ |jb i) = X i,j ci,jA(|ia i) ⊗ B(|jb i) Para Aj : Ha → H̃a e Bj : Hb → H̃b , um operador linear Cab : Ha ⊗ Hb → H̃a ⊗ H̃b pode ser representado de maneira geral como Cab = X i,j ci,jAi ⊗ Bj, com ci,j ∈ C. Por definição ( X i,j ci,jAi ⊗ Bj)(|ψa i ⊗ |φb i) := X i,j ci,jAi(|ψa i) ⊗ Bj(|φb i). 42 / 63
  • 43.
    Produto interno eProduto de Kronecker Produto interno para espaços produto tensorial (|ψab i, |φab i) = ( X j,k cj,k|ja i ⊗ |kb i, X m,n dm,n|ma i ⊗ |nb i) := |ψab i† |φab i = X j,k c∗ j,kdj,k. Dadas matrizes {Ai,j}mxn e {Bk,l}p,q o produto de Kronecker é definido como A ⊗ B := mxp linhas nxq colunas z }| {                  A11B A12B · · · A1nB A21B A22B · · · A2nB . . . . . . ... . . . Am1B Am2B · · · AmnB       Notação: A⊗n := nvezes z }| { A ⊗ · · · ⊗ A. Exemplo. A⊗2 = A ⊗ A. 43 / 63
  • 44.
    Funções de Operadores Dadoum operador normal A com decomposição espectral A = X a a|aiha|, uma função f : C → C desse operador é definida como f(A) := X a f(a)|aiha|. Exemplo. exp(θσ1 ) = exp(θ)| ↑xih↑x | + exp(−θ)| ↓xih↓x | 44 / 63
  • 45.
    Dados ~ n ∈R3 com ||~ n|| = 1, θ ∈ R e ~ σ = (σ1, σ2, σ3), segue que exp(iθ~ n · ~ σ) = cos(θ)I + i sin(θ)~ n · ~ σ Prova. Vamos utilizar as séries de Taylor, f(x)|x0 = ∞ X n=0 dnf(x) dxn x0 (x − x0)n n! , para exp(x)|0 = 1 + x + x2 2 + x3 3! + x4 4! + x5 5! + · · · cos(x)|0 = 1 − x2 2 + x4 4! − x6 6! + · · · sin(x)|0 = x − x3 3! + x5 5! − x7 7! + · · · 45 / 63
  • 46.
    Mostremos que (~ n· ~ σ)2 = I. (~ n · ~ σ)2 = (n1σ1 + n2σ2 + n3σ3 )(n1σ1 + n2σ2 + n3σ3 ) = n2 1(σ1 )2 + n1n2σ1 σ2 + n1n3σ1 σ3 +n1n2σ2 σ1 + n2 2(σ2 )2 + n2n3σ2 σ3 +n1n3σ3 σ1 + n2n3σ3 σ2 + n2 3(σ3 )2 = (n2 1 + n2 2 + n2 3)I = I Assim obtemos exp(iθ~ n · ~ σ) = I + (iθ~ n · ~ σ) + (iθ~ n · ~ σ)2 2 + (iθ~ n · ~ σ)3 3! + (iθ~ n · ~ σ)4 4! + (iθ~ n · ~ σ)5 5! + · · · = I + iθ~ n · ~ σ − θ2 2 I − i θ3 3! ~ n · ~ σ + θ4 4! I + i θ5 5! ~ n · ~ σ + · · · = (1 − θ2 2 + θ4 4! − · · · )I + i(θ − θ3 3! + θ5 5! − · · · )~ n · ~ σ = cos(θ)I + i sin(θ)~ n · ~ σ 46 / 63
  • 47.
    A Função Traço Otraço de um operador A, numa certa representação matricial, é definido como tr(A) := X j Ajj Propriedades da função traço tr(AB) = tr(BA) (cíclico); Prova. tr(AB) = X i (AB)ii = X i X j AijBji = X j X i BjiAij = X j (BA)jj = tr(BA) tr(A + B) = tr(A) + tr(B) (linear); tr(zA) = ztr(A) com z ∈ C. tr(UAU† ) = tr(U† UA) = tr(A) (o traço não depende da base utilizada na representação matricial de A); tr(A ⊗ B) = (trA)(trB). 47 / 63
  • 48.
    A Função TraçoParcial Consideremos um operador linear Cab : Ha ⊗ Hb → Ha ⊗ Hb na sua representação produto externo Cab = Ia ⊗ Ib Cab Ia ⊗ Ib = ( X i |ia ihia |) ⊗ ( X j |jb ihjb |)Cab ( X k |ka ihka |) ⊗ ( X l |lb ihlb |) = X i,j,k,l (|ia ihia | ⊗ |jb ihjb |)Cab (|ka ihka | ⊗ |lb ihlb |) = X i,j,k,l |ia i ⊗ |jb i(hia | ⊗ hjb |Cab |ka i ⊗ |lb i)hka | ⊗ hlb | = X i,j,k,l (hia | ⊗ hjb |Cab |ka i ⊗ |lb i)|ia i ⊗ |jb ihka | ⊗ hlb | := X i,j,k,l Cab ij,kl|ia ihka | ⊗ |jb ihlb | 48 / 63
  • 49.
    Um operador linearreduzido Ca : Ha → Ha pode ser obtido através da operação de traço parcial sobre Hb (notação trb), que é definida como Ca = trbCab := X m hmb |Cab |mb i ≡ X i,k X m Cab im,km|ia ihka | = X i,k Ca i,k|ia ihka |, com Ca i,k := X m Cab im,km 49 / 63
  • 50.
    Espaço de OperadoresLineares e o Produto Interno de Hilbert-Schmidt O espaço formado por operador lineares L(H) : H → H também é um espaço de Hilbert com produto interno definido como (A, B) := tr(A† B). L(H) : H → H é uma espaço vetorial. Dados dois operadores lineares A, B : H → H e {|vii} ∈ H, temos 1 (A+B)( P i ci|vii) = A( P i ci|vii)+B( P i ci|vii) = P i ci(A+B)(|vii); 2 (zA)( P i ci|vii) = z P i ciA(|vii); 3 A + oH = A com oH|vii = | i. tr(A† B) é um produto interno. Dados A, B : H → H e bi ∈ C, temos 1 (A, P j bjBj) = tr(A† P j bjBj) = P j bjtr(A† Bj) = P j bj(A, Bj); 2 (A, B) = tr(A† B) = tr( P i A∗ jiBik) = P j P i A∗ jiBij = ( P i P j B∗ ijAji)∗ = (tr(B† A))∗ = (B, A)∗ ; 3 (A, A) = tr(A† A) ≥ 0. 50 / 63
  • 51.
    Comutadores e Anticomutadores Ocomutador entre dois operadores A e B é definido como [A, B] ≡ [A, B]− := AB − BA. Se AB = BA dizemos que A e B comutam. O anti-comutador entre dois operadores A e B é definido como {A, B} ≡ [A, B]+ := AB + BA. Se AB = −BA dizemos que A e B anticomutam. Comutadores e Anti-comutadores das matrizes de Pauli (j, k = 1, 2, 3) [σj , σk ] = 2i 3 X l=1 jklσl {σj , σk } = 2δjkI 51 / 63
  • 52.
    Comutadores de OperadoresHermitianos Teorema. Dados dois operadores Hermitianos A e B, então [A, B] = 0 se e somente se existir uma base ortonormal {|ji} na qual A e B são diagonais, ou seja, A = P j aj|jihj| e B = P j bj|jihj|. Prova. Assumimos primeiramente que A e B são diagonais na mesma base. Então [A, B] = ( X j aj|jihj|)( X k bk|kihk|) − ( X k bk|kihk|)( X j aj|jihj|) = X j,k ajbk(|jihj|ki |{z} δjk hk| − |kihk|ji |{z} δjk hj|) = X j ajbj(|jihj| − |jihj|) = 0 52 / 63
  • 53.
    Agora assumimos queA e B comutam, ou seja, [A, B] = 0 ⇒ AB = BA. Seja {|aji} uma base de autovetores não degenerados de A com autovalor ai, teremos AB|aii = BA|aii = aiB|aii. Portanto B|aii também é autovetor de A com autovalor ai. Isso implica que B|aii ∝ |aii = bi|aii. Com isso vem que B também é diagonal na base {|aii}. 53 / 63
  • 54.
    Lei de Leibniz [A,BC] = [A, B]C + B[A, C] [AB, C] = [A, C]B + A[B, C] Verificação. [A, B]C + B[A, C] = ABC − BAC + BAC − BCA = ABC − BCA = [A, BC] [A, C]B + A[B, C] = ACB − CAB + ABC − ACB = ABC − CAB = [AB, C] 54 / 63
  • 55.
    Identidade de Jacobi [A,[B, C]] + [B, [C, A]] + [C, [A, B]] = 0 Verificação. [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = [A, BC − CB] + [B, CA − AC] + [C, AB − BA] = ABC − BCA − ACB + CBA + BCA − CAB −BAC + ACB + CAB − ABC − CBA + BAC = 0 55 / 63
  • 56.
    Lema de Hadamard eA Be−A =B + [A, B] + 1 2! [A, [A, B]] + 1 3! [A, [A, [A, B]]] + · · · Prova. Temos exp(±A) = I ± A + A2 2! ± A3 3! + · · · . Assim eA Be−A = I + A + A2 2! + A3 3! + · · · B I − A + A2 2! − A3 3! + · · · = B + AB + A2 B 2! + A3 B 3! + · · · I − A + A2 2! − A3 3! + · · · = B + (−BA + AB) + BA2 2! − ABA + A2 B 2! + − BA3 3! + ABA2 2! − A2 BA 2! + A3 B 3! + · · · 56 / 63
  • 57.
    eA Be−A = B +[A, B] + 1 2! (BAA − 2ABA + AAB) + 1 3! (−BAAA + 3ABAA − 3AABA + AAAB) + · · · = B + [A, B] + 1 2! ((BA − AB)A + A(−BA + AB)) + 1 3! ((−BA + AB)AA + 2A(BA − AB)A + AA(−BA + AB)) + · · · = B + [A, B] + 1 2! (−[A, B]A + A[A, B]) + 1 3! ([A, B]AA − 2A[A, B]A + AA[A, B]) + · · · = B + [A, B] + 1 2! + [A, [A, B]] + 1 3! (([A, B]A − A[A, B])A − A([A, B]A − A[A, B])) + · · · = B + [A, B] + 1 2! + [A, [A, B]] + 1 3! (−[A, [A, B]]A + A[A, [A, B]]) + · · · = B + [A, B] + 1 2! + [A, [A, B]] + 1 3! [A, [A, [A, B]]] + · · · 57 / 63
  • 58.
    Outra prova. Define-sef(s) := esABe−sA. Então f0 (s) = esA [A, B]e−sA f00 (s) = esA [A, [A, B]]e−sA f000 (s) = esA [A, [A, [A, B]]]e−sA . . . Expansão de f(s) em série de Taylor em torno de s = 0: f(s) = f(0) + sf0 (0) + 1 2! s2 f00 (0) + 1 3! s3 f000 (0) + · · · = B + s[A, B] + 1 2! s2 [A, [A, B]] + 1 3! s3 [A, [A, [A, B]]] + · · · Agora faz s = 1. Assim eA Be−A = B + [A, B] + 1 2! [A, [A, B]] + 1 3! [A, [A, [A, B]]] + · · · 58 / 63
  • 59.
    Relação de Baker-Campbell-Housdorff Dadoque [A, [A, B]] = [B, [A, B]] = 0 então eA+B = eA eB e−[A,B]/2 Prova. Vamos definir C := exA exB com x sendo um escalar. Com isso dC dx = exA AexB + exA BexB e−xB e−xA exA exB = A + exA Be−xA C = exA exB e−xB e−xA exA AexB + exA BexB = C e−xB AexB + B Do lema de Hadamard, temos que exA Be−xA = B + x[A, B] e e−xB AexB = A + x[A, B]. Por conseguinte dC dx = (A + B + x[A, B]) C = C (A + B + x[A, B]) 59 / 63
  • 60.
    Como [C, (A+ B + x[A, B])] = 0 podemos resolver a equação anterior como uma equação diferencial qualquer. Assim obtemos C = exp(x(A + B) + x2 [A, B]/2) = exA exB . Mas [x(A + B), x2 [A, B]/2] = x3 2 ([A, [A, B]] + [B, [A, B]]) := 0. Então exp(x(A + B) + x2 [A, B]/2) = exp(x(A + B)) exp(x2 [A, B]/2) e ex(A+B) = exA exB e−x2 [A,B]/2 . Fazendo x = 1 concluímos a demonstração. 60 / 63
  • 61.
    A Decomposição Polar Dadoum operador linear A : V → V, existe um operador unitário U e operadores positivos J e K tais que A = UJ = KU, com J = √ A†A e K = √ AA†. Prova. J = √ A†A ≥ 0 ⇒ J = X i Ji|JiihJi| com (|Jii, |Jji) = δij. Assumimos Ji 0 e definimos |aii := J−1 i A|Jii. Assim (|aii, |aji) = J−1 i J−1 j (A|Jii, A|Jji) = J−1 i J−1 j (A† A|Jii, |Jji) = J−1 j Jiδij = δij 61 / 63
  • 62.
    Definindo U := P i|aiihJi| vemos que se Ji 0 então UJ|Jii = Ji|aii = A|Jii. Se Ji = 0 então UJ|Jii = 0 = |aii. Portanto a ação de A e de UJ na base {|Jii} é a mesma e por conseguinte A = UJ. Podemos ver que J é unicamente definido fazendo A† A = (UJ)† UJ = J† U† UJ = J2 ⇒ J = √ A†A. Temos também que A = UJ = UJU† U = KU, com K ≥ 0. Temos ainda que AA† = UJ(UJ)† = UJJ† U† = UJU† UJU† = K2 ⇒ K = √ AA†. 62 / 63
  • 63.
    A Decomposição emValores Singulares Dada uma matriz quadrada A, existem matrizes unitárias U e V e uma matriz positiva e diagonal D tais que A = UDV. Os elementos de D são os valores singulares de A. Prova. Da decomposição polar vem que A = SJ, sendo S unitária (SS† = I = S† S) e J positiva (J ≥ 0). Do teorema espectral temos J = TDT† , com T unitária e D diagonal e positiva. Assim, se definimos U := ST e V := T† obtemos A = STDT† := UDV. 63 / 63