Acessibilidade / Reportar erro

Rotações Aleatórias

Random Rotations

Resumos

As rotações estão entre as mais simples e mais importantes das operações lineares, e o grupo das rotações é uma estrutura fundamental tanto para a física quanto para a geometria. Neste artigo, apresentamos uma discussão introdutória sobre rotações aleatórias, o que pode ser visto como um exemplo da teoria mais geral dos operadores aleatórios ou das matrizes aleatórias, área que atualmente encontra inúmeras aplicações. Discutimos a estrutura do grupo ortogonal, um algoritmo para gerar rotações aleatórias e resultados para as distribuições de probabilidade dos elementos de matriz e dos autovalores.

Palavras-chave
Rotações; Aleatoriedade; Probabilidade; Grupo ortogonal


Rotations are among the simplest and most important of linear operations, and the group of rotations is a fundamental structure both for physics and geometry. In the article, we present an introductory discussion about random rotations, which can be seen as an example from the more general theory of random operators or random matrices, area which finds countless applications. We discuss the structure of the orthogonal group. an algorithm for generating random rotations and results for the probability distributions of matrix elements and eigenvalues.

Keywords
Rotations; Randomness; Probability; Orthogonal group


1. Introdução

No começo de um jogo de futebol, o juiz coloca a bola no centro do campo e, depois do apito, o primeiro chute a faz rolar. Ao cabo de aproximadamente 45 minutos, o primeiro tempo acaba e vem o intervalo. Quando o segundo tempo vai começar, o juiz coloca novamente a bola no centro do campo. Muito bem, eis que temos um teorema: Quando a bola é recolocada para o início do segundo tempo, existem dois pontos sobre a sua superfície que voltam exatamente à mesma posição que tinham antes do início do jogo.

Como podemos ter certeza disso? Afinal, não sabemos o que ocorreu durante a partida e o juiz pode posicionar a bola de maneira imprevisível (ele pode posicioná-la de maneira arbitrária, afinal ele é o árbitro).

Acontece que, seja lá como a bola for colocada, se a posição do centro no início do segundo tempo coincide com a posição do centro no início do primeiro, então a única alteração que pode ter ocorrido em sua configuração é uma rotação: a segunda posição pode ser obtida rodando a primeira de alguma forma (tal fato é conhecido como Teorema da Rotação, de Euler). Ora, toda rotação no espaço tridimensional é especificada por um eixo em torno do qual é realizada e por um ângulo, e qualquer rotação aplicada à superfície de uma esfera sempre deixa dois pontos fixos: aqueles que pertencem ao eixo.

Nossa afirmação inicial, que pode ter parecido surpreendente à primeira vista, acabou se revelando bastante simples (como muitas vezes ocorre no contexto da probabilidade). Mas o experimento imaginário envolvido sugere questões interessantes: Qual a chance de que as posições inicial e final de um ponto estejam mais distantes que um certo valor? Qual a chance de que a posição final do ponto x esteja próxima do ponto y? Qual a chance de que todos os pontos da bola voltem à mesma posição?

O que estamos tentando motivar é o estudo de um conceito que não se costuma abordar nas aulas de estatística, o de rotações aleatórias. Fisicamente, está claro o que queremos: pegamos uma bola e a chutamos ou jogamos para cima e, quando a apanharmos de volta, ela terá sofrido uma rotação que não sabemos qual é e portanto podemos dizer que é aleatória. Mas é claro que matematicamente a situação é um pouco mais difícil. Afinal, uma rotação não é um número, e sim um operador, e a ideia de operadores aleatórios é mais sofisticada que a ideia de números aleatórios. Então, o que é exatamente uma rotação aleatória? Quais as propriedades dessa criatura? Isso serve para alguma coisa?

A última pergunta talvez tenha sido a primeira a passar pela cabeça do leitor. A resposta é simples: processos aleatórios são sempre úteis. Isso é verdade porque os fenômenos naturais costumam ser extremamente complicados e nós normalmente não somos capazes de descrevê-los em todos os seus detalhes, de modo que pode ser vantajoso utilizar descrições estatísticas. Como não somos capazes de prever qual número o dado que lançamos vai mostrar, então dizemos que cada lado tem 1/6 de chance e pronto. Se um sistema sofre uma rotação complicada que não sabemos descrever, consideramos que ela seja aleatória. Se não estamos preocupados com a orientação de um objeto, podemos calcular um valor médio integrando sobre todas as rotações que ele pode sofrer. Além disso, as rotações estão entre os mais simples dos operadores e entender sua versão aleatória pode nos ajudar a entender a versão aleatória de operadores [11. M.L. Mehta, Random Matrices (Elsevier, Amsterdam, 2004).], que aparecem em estatística multivariada [22. R.J. Muirhead, Aspects of Multivariate Statistical Theory (John Wiley & Sons, Hoboken, 2009).] e em temas mais aplicados como, por exemplo, no estudo de desordem em materiais [33. K. Binder, Glassy Materials and Disordered Solids (World Scientific, Singapore, 2011).], em fenômenos caóticos [44. F. Haake, Quantum Signatures of Chaos (Springer, Cham, 2019), 4th ed.] ou em engenharia mecânica [55. R. Brannon, Rotation, Reflection and Frame Changes (Institute of Physics, Bristol, 2018).]. A ideia de aleatoriedade pode operar o milagre de transformar o complicado em simples.

Este artigo está organizado da seguinte maneira. Começamos falando um pouco sobre o grupo de rotações na Seção 2 2. O grupo de rotações e o grupo ortogonal 2.1. No plano ℝ2 Começamos com o plano ℝ2, com a coordenada horizontal denotada por x e a vertical por y, sendo (1 0) e (0 1) os versores ortogonais correspondentes. Uma rotação anti-horária por um ângulo θ, digamos Rθ, age sobre os versores de acordo com (1) R θ ⁢ ( 1 0 ) = ( cos ⁡ θ ⁢ sin ⁡ θ ) , R θ ⁢ ( 0 1 ) = ( - sin ⁡ θ ⁢ cos ⁡ θ ) e portanto pode ser representada, na base desses versores, pela matriz (2) R θ = ( cos ⁡ θ - sin ⁡ θ sin ⁡ θ cos ⁡ θ ) , 0 ≤ θ < 2 ⁢ π . O quadrado da distância entre dois pontos é o módulo quadrado do vetor entre eles, ou seja, é o produto escalar do vetor consigo mesmo, (3) ( x ⁢ y ) ⁢ ( x y ) = x 2 + y 2 . Rotações preservam distância: o módulo quadrado do vetor rodado é (4) ( x ⁢ y ) ⁢ R θ T ⁢ R θ ⁢ ( x y ) = ( x ⁢ y ) ⁢ ( x y ) , onde usamos a operação de transposição para passar de um vetor coluna a um vetor linha e aplicamos a identidade RθT⁢Rθ=1, que pode ser deduzida diretamente de (2). Se uma matriz qualquer O satisfaz a condição OTO = 1, ela é dita ortogonal. O conjunto de todas as matrizes ortogonais em duas dimensões é chamado de Grupo Ortogonal e denotado por 𝒪(2). É evidente que esse conjunto é um grupo: o produto de duas matrizes ortogonais é também uma matriz ortogonal, a inversa de uma matriz ortogonal é ortogonal, a identidade é uma matriz ortogonal e o produto é associativo (essas são as condições que definem um grupo). Como vimos, rotações podem ser representadas por matrizes ortogonais. Será que toda matriz ortogonal é uma rotação? A resposta é não. As matrizes (100−1) e (−1001) são ortogonais, mas não representam nenhuma rotação. Em vez disso, elas representam reflexões em relação aos eixos horizontal e vertical, respectivamente. Naturalmente, podemos definir reflexões em relação a qualquer eixo do plano. A matriz associada à reflexão em relação ao eixo definido pelo vetor (cos⁡(θ)sin⁡(θ)) é dada por (é uma pena que as palavras ‘rotação’ e ‘reflexão’ comecem com a mesma letra): (5) R θ = ( cos ⁡ ( 2 ⁢ θ ) sin ⁡ ( 2 ⁢ θ ) sin ⁡ ( 2 ⁢ θ ) - cos ⁡ ( 2 ⁢ θ ) ) , 0 ≤ θ < π . (note que o domínio da variável θ neste caso vai só até π, pois estamos especificando apenas a direção e não o sentido do eixo). O conjunto das rotações é um subgrupo (a composição de duas rotações é uma rotação, RθRϕ = Rθ + ϕ; toda rotação possui uma inversa, Rθ-1=R-θ; a identidade é R_0) do grupo ortogonal, chamado de Grupo Ortogonal Especial ou 𝒮𝒪(2). Por outro lado, o conjunto que contém somente as reflexões não forma um grupo porque a composição de duas reflexões não é uma reflexão e sim uma rotação: (6) R θ ⁢ R ϕ = R 2 ⁢ θ - 2 ⁢ ϕ . O grupo 𝒪(2) consiste portanto das rotações e das reflexões (note que a inversão (xy)→(−x−y) é uma rotação de π). O determinante de uma matriz em 𝒪(2) só pode ser igual a 1 ou a –1, pois a condição OTO = 1 implica (det O)2 = 1. As reflexões têm determinante negativo, pois alteram a orientação de uma das componentes do vetor em que atuam, enquanto que as rotações têm determinante positivo. Assim, o subgrupo 𝒮𝒪(2) pode ser especificado, dentro do grupo 𝒪(2), como contendo as matrizes O tais que det O = 1. Com relação a autovalores e autovetores, os dois tipos de operação são complementares. No caso das rotações Rθ, os autovalores são eiθ e e−iθ e dependem do ângulo, enquanto os autovetores são fixos, (i1) e (−i1) , respectivamente. Já no caso das reflexões Rθ, os autovalores é que são fixos, sempre 1 e –1, enquanto os autovetores dependem do ângulo, (cosθsinθ) e (−sinθcosθ), respectivamente. Se quisermos rotações e reflexões aleatórias no plano, basta considerarmos θ uma variável aleatória. Podemos tomar uma distribuição uniforme no intervalo (0, 2π) para as rotações e no intervalo (0, π) para as reflexões. Nesse contexto, três problemas são muito naturais: entender a estatística dos autovalores, dos autovetores e dos elementos de matriz. No caso dos autovalores, faz mais sentido olhar para as rotações. Como as matrizes são reais, eles existem sempre em pares conjugados e estão uniformemente distribuídos sobre o círculo unitário no plano complexo. No caso dos autovetores, faz mais sentido olhar para as reflexões. Vemos que eles são ortogonais e também estão uniformemente distribuídos sobre o círculo unitário em ℝ2. Quanto se trata dos elementos de matriz, é mais conveniente tratar o grupo 𝒪(2) inteiro, entendendo que (7) ⟨ f ⁢ ( O ) ⟩ 𝒪 ⁢ ( 2 ) = 1 4 ⁢ π ⁢ ∫ 0 2 ⁢ π f ⁢ ( R θ ) ⁢ d θ + 1 2 ⁢ π ⁢ ∫ 0 π f ⁢ ( R θ ) ⁢ d θ . É fácil concluir que o valor médio de todos os elementos de matriz é zero ⟨Oij⟩O(2) = 0. Com relação às correlações entre os elementos, temos: (8) ⟨ ( O ) i 1 ⁢ j 1 ⁢ ( O ) i 2 ⁢ j 2 ⟩ 𝒪 ⁢ ( 2 ) = { 1 2 , se i 1 = i 2 e j 1 = j 2 , 0 , caso contrário . (convidamos o leitor a verificar esta afirmação). Vemos que os elementos estão descorrelacionados, o que não seria verdade se olhássemos só para as rotações ou só para as reflexões. 2.2. No espaço ℝN O grupo ortogonal 𝒪(N) é definido como o conjunto das matrizes que representam transformações lineares que preservam o produto escalar, (9) ⟨ x | y ⟩ = ∑ k = 1 N x k ⁢ y k , ou seja, das matrizes reais N×N que satisfazem (10) O T ⁢ O = O ⁢ O T = I N , onde IN é a matriz identidade. Para uma discussão pormenorizada sobre o grupo ortogonal e as rotações, incluindo uma interessante introdução aos quatérnions, sugerimos a leitura de [6]. Para o caso particular N = 3 e sua conexão com a teoria do momento angular em mecânica quântica, recomendamos [7]. Assim como no caso N = 2, o grupo 𝒪(N) possui duas componentes distintas: as rotações, que têm determinante + 1 e formam o subgrupo 𝒮𝒪(N), e as reflexões, que têm determinante –1 e não formam um subgrupo (o produto de duas reflexões não é uma reflexão). Essas duas componentes são como imagens no espelho uma da outra e existe uma bijeção simples entre elas. Se tomarmos uma reflexão qualquer, por exemplo a matriz diagonal cujo primeiro elemento é –1 e todos os outros são 1, e multiplicarmos todos os elementos de 𝒮𝒪(N) por essa reflexão, obteremos justamente o conjunto das reflexões. Em marcado contraste com o caso N = 2, para todo N > 2 o grupo das rotações não é comutativo. No caso N = 3 toda rotação se dá em torno de um eixo, que permanece invariante. Para N > 3 é interessante introduzir a noção de rotação elementar. Uma rotação é elementar se afeta apenas um espaço de dimensão 2. Toda rotação em 𝒮𝒪(2) ou em 𝒮𝒪(3) é elementar, mas isso não é mais verdade para N > 3. Por exemplo, toda matriz em 𝒮𝒪(4) pode ser escrita, por meio de uma mudança de base, na forma (11) ( cos ⁡ θ - sin ⁡ θ 0 0 sin ⁡ θ cos ⁡ θ 0 0 0 0 cos ⁡ ϕ - sin ⁡ ϕ 0 0 sin ⁡ ϕ cos ⁡ ϕ ) , ou seja, como duas rotações elementares independentes. Note que não se pode falar em eixo de rotação neste caso. Essa estrutura se repete em dimensões mais altas. Todo elemento de 𝒮𝒪(5), por exemplo, consiste de duas rotações elementares e uma direção invariante. Resumindo, os elementos de 𝒮𝒪(2N) consistem de N rotações elementares; essas matrizes possuem N pares de autovalores conjugados (que podem ser iguais a 1 caso haja rotações elementares triviais). Por outro lado, elementos de 𝒮𝒪(2N + 1) consistem de N rotações elementares e uma direção invariante; nesse caso, pelo menos um dos autovalores será sempre igual a 1. Também no caso das reflexões é interessante introduzir a ideia das operações elementares. Uma reflexão elementar age sobre ℝN mantendo um espaço ℝN−1 invariante e trocando o sentido de um espaço unidimensional. Essas matrizes sempre têm portanto N – 1 autovalores iguais a 1 e um autovalor igual a –1. A composição de um número par de reflexões elementares é uma rotação, e a composição de um número ímpar é uma reflexão, que não será elementar se o autovalor –1 for degenerado. De fato, um teorema de Cartan garante que qualquer elemento de 𝒪(N) pode sempre ser escrito como o produto de no máximo N reflexões (ver, por exemplo, o capítulo 8 de [8]). Como podemos fazer para considerar rotações aleatórias em ℝN? Uma possibilidade é escrever as matrizes explicitamente em termos de algumas variáveis, tais como o ângulo θ no caso do ℝ2 ou os ângulos de Euler no caso do ℝ3, e depois tomar essas variáveis de forma aleatória. Mas como são as matrizes? Antes de mais nada, quantas variáveis precisamos? Essa é a dimensão do grupo. Uma matriz N×N possui N2 elementos, porém o vínculo (10) garante que não são todos independentes. A melhor maneira de encontrar a dimensão do grupo 𝒮𝒪(N) é expressar seus elementos na forma O = eX para algum X, sendo a exponencial definida simplesmente em termos da série de Taylor, (12) e X = I N + X + X 2 2 ! + X 3 3 ! + ⋯ Para a matriz X, a condição de vínculo OT = O−1 se traduz em XT = −X, de modo que X deve ser anti-simétrica. Essa é a única restrição que devemos impor a X. Assim, seus elementos diagonais são todos nulos e os elementos abaixo da diagonal são os negativos dos elementos acima da diagonal. Cada elemento acima da diagonal é um grau de liberdade, ou seja contribui para a dimensão do grupo, que portanto é N(N−1)/2. A relação eTrX = det⁡O mostra que det⁡O = 1, por isso esse procedimento permite a construção apenas das rotações e não das reflexões. Enquanto 𝒮𝒪(N) é um grupo de Lie, o conjunto das matrizes reais anti-simétricas forma uma álgebra de Lie. Para uma introdução a essa teoria, recomendamos o livro de Stillwell [9]. Então sabemos que são necessárias N(N−1)/2 variáveis para parametrizarmos 𝒮𝒪(N) ou 𝒪(N). Mas qual é a cara das matrizes? Elas são relativamente complicadas e, por simplicidade, preferimos omitir essa discussão. A construção explícita pode ser encontrada por exemplo em [10] ou em [11]. Em vez de usarmos essas parametrizações, vamos recorrer a argumentos mais gerais. . Depois, abordamos o problema de como sortear rotações aleatórias no computador, na Seção 3 3. Resultados Numéricos No grupo ortogonal, assim como em outros grupos de matrizes, existe uma medida de probabilidade natural, conhecida como medida de Haar. Vamos denotá-la por P(O). No caso do 𝒪(N), essa medida é invariante por multiplicação tanto à esquerda quanto à direita, ou seja, P(OA) = P(AO) = P(O) para qualquer A pertencente ao grupo. Isso quer dizer simplesmente que a medida é uniforme e que todos os elementos do grupo são igualmente prováveis em um sorteio. A medida de Haar sobre os grupos de matrizes é análoga à distribuição uniforme sobre a circunferência ou sobre qualquer intervalo finito. Como podemos, então, sortear uma matriz de rotação distribuída segundo a medida de Haar? Bom, as colunas de O são N vetores ortonormais. Precisamos então construir N vetores ortonormais aleatórios. Isso pode ser feito aplicando o processo de ortogonalização de Gram-Schmidt aos autovetores de alguma outra matriz aleatória, com elementos independentes e gaussianos, como descrito por Mezzadri [12]. Esse algoritmo está implementado na maioria das linguagens de programação e é chamado decomposição QR: ele escreve uma matriz qualquer como o produto de uma matriz ortogonal, Q, e uma matriz triangular superior, R. Entretanto, a decomposição QR não é única, pois basta trocar Q por QA e R por A−1R para obter outra decomposição equivalente. Para torná-la única, impomos que os elementos não nulos da diagonal principal de R devem ser positivos. Com isso, a matriz Q terá exatamente a distribuição de Haar sobre o grupo 𝒪(N). O código a seguir implementa esse algoritmo em Python: import numpy as np import scipy.linalg as spl def random_rot(N): a = np.random.randn(N,N) Q, R = spl.qr(a) r = np.diag(R) A = np.diag(r/np.abs(r)) M = np.dot(Q,A) return M O algoritmo começa sorteando uma matriz a com distribuição normal. Depois, aplica a decomposição QR. Os elementos diagonais da matriz R são colocados no vetor r e seus sinais são colocados na matriz diagonal A. Finalmente, a matriz ortogonal que havia resultado da decomposição QR é multiplicada por A pela direita, garantindo unicidade. Se quisermos o grupo 𝒮𝒪(N) em vez do 𝒪(N), podemos simplesmente calcular o determinante da matriz O e descartá-la se este for –1, ou então podemos multiplicar O por uma reflexão fixa para transformá-la numa rotação. Agora que somos capazes de gerar matrizes aleatórias distribuídas uniformemente sobre o grupo 𝒪(N) de acordo com a medida de Haar, podemos investigar numericamente suas propriedades estatísticas. Comecemos com seus autovalores. Eles são uniformemente distribuídos no círculo unitário, conforme vemos na Fig. 1b, onde mostramos os autovalores de uma única matriz ortogonal aleatória de ordem 100. Entretanto, é possível notar que os autovalores não são variáveis independentes. Basta comparar com a Fig. 1a, onde temos 100 pontos aleatórios independentes sobre o círculo. Esses pontos tendem a formar aglomerados, em contraste com os autovalores, que preferem manter distância entre si. Este comportamento é chamado de repulsão. Os autovalores comportam-se mais ou menos como cargas de mesmo sinal dispostas sobre o círculo, ou seja, tendem a se afastar uns dos outros. Veremos isso com mais detalhes a seguir. Figura 1 Comparação entre 100 pontos independentes distribuídos no círculo unitário (à esquerda) e o autovalores de uma matriz de rotação de ordem 100 (à direita). Podemos detectar que há repulsão entre os autovalores, que têm uma distribuição mais uniforme. Como os autovalores têm módulo 1, podemos escrevê-los como eiθ com θ ∈ [0,2π). A distribuição dessas autofases encontra-se na Fig. 2a (sorteamos 105 matrizes de ordem N = 100). Encontramos de fato uma distribuição aproximadamente uniforme (igual a 12⁢π para normalização), exceto por uma ligeira prevalência das fases θ = 0 e θ = π, associadas aos autovalores ±1, mas esse efeito diminui conforme N se torna maior. Figura 2 À esquerda, distribuição das fases dos autovalores de matrizes ortogonais. À direita, distribuição do traço, x = TrO. Nos dois casos, sorteamos 105 matrizes de dimensão 100. Uma quantidade de destaque no estudo de matrizes é o traço, a soma dos elementos da diagonal principal ou a soma dos autovalores. A distribuição do traço encontra-se na Fig. 2b (calculada usando as mesmas 105 matrizes de ordem N = 100). Como o traço é a soma de um grande número de variáveis aleatórias, ainda que não independentes, poderíamos suspeitar que tivesse distribuição normal, devido a um processo semelhante ao Teorema Central do Limite. Vemos que sua distribuição é de fato bem aproximada por uma distribuição normal com média zero e desvio padrão 1. Na Seção 4.3 veremos que a distribuição é realmente essa e não depende do tamanho das matrizes. Também podemos nos perguntar sobre a distribuição dos elementos de matriz. Na Fig. 3, temos a distribuição de um elemento da diagonal principal, O11, e de um elemento fora da diagonal, O34. A distribuição dos elementos parece não depender dos índices. Entretanto, depende da ordem das matrizes. À esquerda, temos a distribuição para matrizes de ordem N = 5; à direita, matrizes de ordem N = 50. Conforme o tamanho das matrizes aumenta, a distribuição se aproxima cada vez mais de uma distribuição normal com média zero e desvio padrão 1/N. Figura 3 Distribuição dos elementos de matriz: O11 em vermelho e O34 em preto. À esquerda, as matrizes têm dimensão N = 5 e a curva azul é o resultado exato. À direita, N = 50 e a curva azul é o resultado assintótico, gaussiano. , e aproveitamos para mostrar alguns resultados numéricos. Nas seções 4 4. Elementos de Matriz Como os elementos de uma matriz ortogonal podem ser positivos ou negativos com igual probabilidade, é natural que todos tenham valor esperado nulo, ⟨Oij⟩𝒪(N) = 0. E a variância? Como a distribuição das matrizes é invariante por rotação, todos os elementos devem ter a mesma variância. A condição OTO = 1 é equivalente a ∑j=1NOi⁢j2=1 para todo i, de modo que podemos concluir que (13) ⟨ O i ⁢ j 2 ⟩ 𝒪 ⁢ ( N ) = 1 N . 4.1. Dimensão grande E quanto às correlações entre os elementos de matriz? Eles não podem ser independentes, pois as colunas da matriz O devem ser ortogonais e normalizadas. Olhemos apenas uma das colunas, esquecendo a ortogonalidade e levando em conta somente a normalização. Temos então um vetor x→ de dimensão N, normalizado, ∑i=1Nxi2=1, e queremos saber qual é a distribuição conjunta dos primeiros m elementos. Se o único vínculo que as variáveis precisam satisfazer é a normalização, então essa distribuição é proporcional a (14) ∫ d x m + 1 ⁢ ⋯ ⁢ d x N ⁢ δ ⁢ ( 1 - ∑ i = 1 N x i 2 ) . Usando a representação integral da distribuição delta, δ(x)∝∫eikxdk, temos (15) ∫ d k ⁢ e i ⁢ k ⁢ ( 1 - ∑ i = 1 m x i 2 ) ⁢ ( ∫ d x ⁢ e - i ⁢ k ⁢ x 2 ) N - m , que é proporcional a (16) ∫ d k ⁢ e i ⁢ k ⁢ ( 1 - ∑ i = 1 m x i 2 ) ⁢ k - ( N - m ) / 2 ∝ ( 1 - ∑ i = 1 m x i 2 ) ( N - m ) / 2 - 1 . Em particular, a distribuição de um único elemento é proporcional a (1−x2)(N−3)/2. Essa é a distribuição que aparece na Figura 3a. Note que a variável reescalada y=x⁢N adquire distribuição normal para N grande, pois (1−y2/N)N≈e−y2. De forma mais geral, podemos olhar para um bloco de elementos de matriz. Seja u o bloco que contém os elementos Oij com i, j ≤ m. Então, u é uma matriz aleatória e sua distribuição é conhecida [13]: ela é proporcional a (17) det ⁡ ( 1 - u ⁢ u T ) ( N - 1 ) / 2 - m . Note que este resultado é análogo a (16). Novamente, se N≫1 então a matriz renormalizada v=u⁢N tem distribuição normal, pois (1−vvT/N)(N−1)/2−m ≈ e−vvT. Concluímos que se a dimensão N for muito grande, o vínculo da ortogonalidade não é muito forte e os elementos de matriz se tornam variáveis aleatórias aproximadamente independentes. 4.2. Dimensão finita, exemplos Podemos dizer mais sobre a distribuição dos elementos de matriz, mesmo para dimensões N finitas. É possível mostrar, por exemplo, que [14] (18)⟨O114⟩𝒪⁢(N)=3N⁢(N+2) e que [14] (19)⟨O112⁢O222⟩𝒪⁢(N)=(N+1)N⁢(N-1)⁢(N+2). Vemos que, para N grande, este último resultado se aproxima de ⟨O112⟩𝒪⁢(N)⁢⟨O222⟩𝒪⁢(N) (ver (13)), como deveria em vista da independência assintótica. Como último exemplo, temos (20) ⟨ O 14 ⁢ O 12 ⁢ O 32 ⁢ O 34 ⟩ 𝒪 ⁢ ( N ) = - 1 N ⁢ ( N - 1 ) ⁢ ( N + 2 ) . Note que este resultado é de ordem 1/N vezes menor que o de cima, refletindo também a independência assintótica das variáveis para N grande. 4.3. Dimensão finita, teoria Vamos chamar de pareamentos as partições do conjunto {1,2,…,2n} em pares, ou seja, em n blocos de tamanho 2. Expressamos um pareamento 𝔪 na forma {{𝔪(1),𝔪(2)},{𝔪(3),𝔪(4)},…}. Por exemplo, no caso de quatro elementos, existem três pareamentos, (21) 𝔪 1 = { { 1 , 2 } , { 3 , 4 } } , 𝔪 2 = { { 1 , 3 } , { 2 , 4 } } , 𝔪 3 = { { 1 , 4 } , { 2 , 3 } } . Seja ℳn o conjunto dos pareamentos possíveis em um conjunto de 2n números. O tamanho desse conjunto é (2n−1)!! = (2n−1)(2n−3)(2n−5)… . Dada uma lista de números, digamos (i1,…,i2n), dizemos que essa lista satisfaz o pareamento 𝔪 se seus elementos coincidem de acordo com 𝔪. Ou seja, se i𝔪(2k−1) = i𝔪(2k) para todo k. Vejamos alguns exemplos. A lista a = (1,1,2,2) satisfaz 𝔪1 porque (22) a 𝔪 1 ⁢ ( 1 ) = a 1 = a 𝔪 1 ⁢ ( 2 ) = a 2 = 1 , a 𝔪 1 ⁢ ( 3 ) = a 3 = a 𝔪 1 ⁢ ( 4 ) = a 4 = 2 . Por outro lado, a lista b = (1,2,1,2) satisfaz 𝔪2 porque (23) b 𝔪 2 ⁢ ( 1 ) = b 1 = b 𝔪 2 ⁢ ( 2 ) = b 3 = 1 , b 𝔪 2 ⁢ ( 3 ) = b 2 = b 𝔪 2 ⁢ ( 4 ) = b 4 = 2 . Finalmente, a lista c = (1,2,2,1) satisfaz 𝔪3 porque (24) c 𝔪 3 ⁢ ( 1 ) = c 1 = c 𝔪 3 ⁢ ( 2 ) = c 4 = 1 , c 𝔪 3 ⁢ ( 3 ) = c 2 = c 𝔪 3 ⁢ ( 4 ) = c 3 = 2 . A lista (1, 1, 1, 1) satisfaz todos os pareamentos. Por que estamos falando em pareamentos? Porque a integral (25) ⟨ ∏ k = 1 2 ⁢ n O i k ⁢ j k ⟩ 𝒪 ⁢ ( N ) só é diferente de zero se a lista de números (i1,…,i2n) satisfizer algum pareamento, e o mesmo para a lista (j1,…,j2n). Em termos concretos, se Δ𝔪(i) é a função que vale 1 quando a lista i satisfaz o pareamento 𝔪 e zero caso contrário, então a integral pode ser escrita assim: (26) ⟨ ∏ k = 1 2 ⁢ n O i k ⁢ j k ⟩ 𝒪 ⁢ ( N ) = ∑ 𝔪 , 𝔫 ∈ ℳ n Δ 𝔪 ⁢ ( i ) ⁢ Δ 𝔫 ⁢ ( j ) ⁢ W ⁢ ( 𝔪 , 𝔫 ) . Por exemplo, podemos notar que as listas i = (1,1,3,3) e j = (4,2,2,4) aparecem no exemplo (20) e portanto, de acordo com a fórmula acima, temos que o lado direito da equação (20) é igual a W(𝔪1,𝔪3). Resta dizer quem é a função W, chamada de função de Weingarten. Para isso, definimos um grafo Γ(𝔪,𝔫) da seguinte maneira: temos vértices com índices de 1 a 2n e ligamos dois vértices se seus índices aparecem no mesmo bloco em 𝔪 ou em 𝔫. Depois, definimos uma matriz G cujos elementos são dados por G𝔪,𝔫 = Nc(𝔪,𝔫), onde c é o número de caminhos fechados no grafo Γ(𝔪,𝔫). Finalmente, a função W(𝔪,𝔫) é igual [14] ao elemento (𝔪,𝔫) da inversa da matriz G. Por exemplo, para n = 2 temos os três pareamentos em (21). A matriz G nesse caso é (27) G = ( N 2 N N N N 2 N N N N 2 ) e sua inversa é (28) G − 1 = 1 N ( N − 1 ) ( N + 2 ) ( N + 1 − 1 − 1 − 1 N + 1 − 1 − 1 − 1 N + 1 ) . De fato, o elemento (G−1)13 dessa matriz coincide com o lado direito de (20). Por outro lado, no cálculo de ⟨O114⟩𝒪⁢(N) todos os pareamentos são possíveis, e o resultado é igual à soma de todos os elementos de G−1. (O leitor atento terá percebido que a matriz acima não está definida para N = 1. A matriz G associada aos pareamentos de 2n números de fato não tem inversa se N < n. Nesse caso é preciso usar a pseudo-inversa [15]. Omitimos essa discussão por simplicidade). Como aplicação desta teoria, podemos considerar a distribuição do traço da matriz. Vamos abordar esse problema usando o método dos momentos, ou seja, calculando ⟨(TrO)2n⟩𝒪(N) para todo n (potências ímpares do traço têm média zero). Usando a fórmula (26), temos (29) ⟨ ( Tr ⁢ O ) 2 ⁢ n ⟩ 𝒪 ⁢ ( N ) = ∑ i 1 , … , i 2 ⁢ n ∑ 𝔪 , 𝔫 ∈ ℳ n Δ 𝔪 ⁢ ( i ) ⁢ Δ 𝔫 ⁢ ( i ) ⁢ W ⁢ ( 𝔪 , 𝔫 ) (note que a lista j é igual à lista i neste caso). Trocando a ordem das somas, temos a quantidade ∑i1,…,i2n Δ𝔪(i)Δ𝔫(i). As funções Δ requerem que algumas das variáveis i sejam iguais e o resultado da soma será N elevado ao número de variáveis independentes. Alguma reflexão nos convencerá de que esse número é exatamente c(𝔪,𝔫). Assim, ficamos com (30) ⟨ ( Tr ⁢ O ) 2 ⁢ n ⟩ 𝒪 ⁢ ( N ) = ∑ 𝔪 , 𝔫 ∈ ℳ n G 𝔪 , 𝔫 ⁢ W ⁢ ( 𝔪 , 𝔫 ) . Mas definimos W(𝔪,𝔫) justamente como os elementos de matriz da inversa de G, de modo que o resultado se reduz a ⟨(TrO)2n⟩𝒪(N) = ∑𝔪 ∈ ℳn 1 = (2n−1)!!. Esses são os momentos de uma variável aleatória com distribuição normal (esta conta pressupõe a existência de G−1, portanto só vale se N > 2n, de modo que a distribuição só se aproxima da normal para grandes valores de N). Existe uma fórmula mais explícita para a função de Weingarten, que está relacionada ao fato de que pareamentos podem ser vistos como representantes das classes laterais do grupo do hiperoctaedro em relação ao grupo de permutações S2n. Preferimos omitir essa discussão, que pode ser encontrada em [14], por ser muito técnica. e 5 5. Autovalores 5.1. Distribuição conjunta Como já vimos, os autovalores das reflexões são fixos (sempre iguais a 1 ou –1). Portanto, para discutir autovalores restringimos a discussão ao subgrupo das rotações, o 𝒮𝒪(N). Além disso, é preciso distinguir os casos de dimensão par e os de dimensão ímpar. No segundo caso um dos autovalores é sempre igual a 1. Tanto para 𝒮𝒪(2N) quanto para 𝒮𝒪(2N + 1), os (demais) autovalores são denotados por eiθk e e−iθk, com 1 ≤ k ≤ N. Os valores 0 ≤ θk ≤ π são as autofases. A distribuição de probabilidade conjunta das autofases foi obtida por H. Weyl [16], sendo dada por (31) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 em dimensão par e por (32) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 (33) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos 2 ⁡ ( θ k / 2 ) - cos 2 ⁡ ( θ j / 2 ) ) 2 em dimensão ímpar. Vemos que os autovalores são variáveis aleatórias correlacionadas e podemos enxergar o seu comportamento repulsivo, já que as distribuições se anulam quadraticamente quando dois deles são próximos, θk ≈ θj, de modo que degenerescências são improváveis. Se no caso da dimensão par denotarmos cos⁡(θj) = xj, a distribuição fica sendo (34) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( x 1 , … , x N ) ∝ ∏ j = 1 N ( 1 - x j 2 ) - 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( x k - x j ) 2 , com − 1 ≤ xj ≤ 1. Analogamente, se no caso da dimensão ímpar denotarmos cos2⁡(θj/2) = yj, a distribuição fica sendo (35) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( y 1 , … , y N ) ∝ ∏ j = 1 N y j - 1 / 2 ⁢ ( 1 - y j ) 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( y k - y j ) 2 , com 0 ≤ yj ≤ 1. Feito isso, é possível calcular o valor médio de várias funções simétricas dos autovalores (relacionadas ao polinômio característico da matriz, por exemplo) usando a famosa integral de Selberg: (36) S ⁢ ( a , b , γ ) = ∫ ( 0 , 1 ) N d y ⁢ ∏ j = 1 N y j a - 1 ⁢ ( 1 - y j ) b - 1 ⁢ ∏ 1 ≤ j < k ≤ N | y k - y j | 2 ⁢ γ , cujo resultado é (37) S ⁢ ( a , b , γ ) = ∏ j = 0 N - 1 Γ ⁢ ( a + j ⁢ γ ) ⁢ Γ ⁢ ( b + j ⁢ γ ) ⁢ Γ ⁢ ( 1 + ( j + 1 ) ⁢ γ ) Γ ⁢ ( a + b + ( n + j - 1 ) ⁢ γ ) ⁢ Γ ⁢ ( 1 + γ ) . Note que, fazendo xj = 2yj − 1, podemos expressar a integral em termos das variáveis x. Essa integral é uma generalização para muitas variáveis da clássica integral de Euler, (38) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 = Γ ⁢ ( a ) ⁢ Γ ⁢ ( b ) Γ ⁢ ( a + b ) . É interessante observar que, assim como os clássicos polinômios de Jacobi Pna,b⁢(y) são ortogonais em relação ao integrando de Euler (39) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 ⁢ P n a , b ⁢ ( y ) ⁢ P m a , b ⁢ ( y ) ∝ δ n ⁢ m , é possível definir polinômios em várias variáveis que são ortogonais em relação ao integrando de Selberg (ver [17]). Nos casos particulares das equações (5.1) e (5.1), em que (a,b)=(12,12) e (12,32), respectivamente, esses polinômios são os caracteres do grupo, que mencionamos a seguir. 5.2. Caracteres Outra forma de abordar os autovalores é escrever sua distribuição em termos dos números complexos zk = eiθk e z¯k=e-i⁢θk. Nesse caso, temos (40) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( z 1 , … , z N , z ¯ 1 , … , z ¯ N ) ∝ ∏ 1 ≤ j < k ≤ N | z k - z j | 2 ⁢ | 1 - z k ⁢ z j | 2 e (41) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( z 1 , … , z N , z ¯ 1 , … , z ¯ N ) ∝ ∏ j = 1 N | 1 - z j | 2 ⁢ ∏ 1 ≤ j < k ≤ N | z k - z j | 2 ⁢ | 1 - z k ⁢ z j | 2 Essas distribuições admitem uma família de polinômios ortogonais, que generalizam a relação ∮zn⁢z¯m∝δn⁢m, na qual a integral é realizada sobre o círculo unitário. Além de terem várias variáveis, esses polinômios também têm vários índices inteiros, tradicionalmente denotados por λ = (λ1,λ2,…) com λi≥λi + 1. Eles são dados por [18] (42) o λ ( 2 ⁢ N ) ⁢ ( z 1 , … , z N , z ¯ 1 , … , z ¯ N ) = det ⁡ ( z i N + λ j - j + z ¯ i N + λ j - j ) det ⁡ ( z i N - j + z ¯ i N - j ) em dimensão par e (43) o λ ( 2 ⁢ N + 1 ) ⁢ ( z 1 , … , z N , z ¯ 1 , … , z ¯ N ) = det ⁡ ( z i N + λ j - j + 1 / 2 - z ¯ i N + λ j - j + 1 / 2 ) det ⁡ ( z i N - j + 1 / 2 - z ¯ i N - j + 1 / 2 ) em dimensão ímpar. Os determinantes são polinômios anti-simétricos, enquanto que a razão entre eles produz um polinômio simétrico. Vamos demonstrar essa ortogonalidade ∮oλ(2⁢N)⁢oμ(2⁢N)∝δλ⁢μ, nos restringindo à dimensão par por simplicidade. Primeiro, usamos o fato de que (44) det ⁡ ( z i N - j + z ¯ i N - j ) ∝ ∏ 1 ≤ j < k ≤ N ( z k - z j ) ⁢ ( 1 - z ¯ k ⁢ z ¯ j ) (45) ∝ ∏ 1 ≤ j < k ≤ N ( z ¯ k - z ¯ j ) ⁢ ( 1 - z k ⁢ z j ) . Como temos duas funções na integral, esse denominador aparece duas vezes e cancela com os termos presentes na medida (40). Ficamos então com (46) ∮ o λ ( 2 ⁢ N ) ⁢ o μ ( 2 ⁢ N ) ∝ ∮ det ⁡ ( z i N + λ j - j + z ¯ i N + λ j - j ) ⁢ det ⁡ ( z i N + μ j - j + z ¯ i N + μ j - j ) . Recorremos agora a um teorema conhecido como identidade de Andreief, que relaciona uma integral múltipla, sobre N variáveis, de dois determinantes ao determinante de uma matriz N × N, cujos elementos são integrais simples: (47) ∫ det ⁡ ( f i ⁢ ( z j ) ) ⁢ det ⁡ ( g j ⁢ ( z i ) ) = N ! ⁢ det ⁡ ( ∫ f i ⁢ ( z ) ⁢ g j ⁢ ( z ) ) . Aplicada ao nosso caso, essa identidade fornece (48) ∮ o λ ( 2 ⁢ N ) ⁢ o μ ( 2 ⁢ N ) ∝ det ⁡ ( ∮ ( z N + λ i - i + z ¯ N + λ i - i ) ⁢ ( z N + μ j - j + z ¯ N + μ j - j ) ) (49) ∝ det ⁡ ( ∮ ( z N + λ i - i ⁢ z ¯ N + μ j - j + z ¯ N + λ i - i ⁢ z N + μ j - j ) ) (50) ∝ det ⁡ ( δ λ i - i , μ j - j ) ∝ δ λ ⁢ μ . Para o leitor que quiser verificar a ortogonalidade em coordenadas reais, oferecemos um exemplo em N = 2. Nesse caso, (51) o ( 1 , 1 ) ( 4 ) = 1 + 2 ⁢ cos ⁡ ( θ 1 ) ⁢ cos ⁡ ( θ 2 ) e (52) o ( 2 , 0 ) ( 4 ) = 2 ⁢ o ( 1 , 1 ) ( 4 ) + 2 ⁢ cos ⁡ ( 2 ⁢ θ 1 ) + 2 ⁢ cos ⁡ ( 2 ⁢ θ 2 ) - 1 , enquanto que P𝒮𝒪(4)∝(cos⁡(θ2)−cos⁡(θ1))2. Em termos mais gerais da teoria de grupos, as funções oλ(N) são ortogonais porque correspondem aos caracteres das representações irredutíveis do grupo ortogonal 𝒪(N). Esses polinômios formam uma base para o espaço dos polinômios que são simétricos nos autovalores. Assim, a integral de qualquer função desse tipo pode ser calculada expandindo-a na base ortogonal. Para uma exposição dessa teoria, recomendamos [19]. , damos atenção a duas questões fundamentais sobre rotações aleatórias: a distribuição dos seus elementos de matriz e a distribuição dos seus autovalores. Apresentamos conclusões na Seção 6 6. Conclusão Apresentamos neste artigo uma discussão introdutória sobre rotações aleatórias, acessível a estudantes de graduação em física. Fizemos a distinção entre rotações e reflexões e introduzimos a medida de Haar sobre o grupo ortogonal, o que permite calcular diversas quantidades de interesse estatístico. O tema mais geral das matrizes aleatórias encontra inúmeras aplicações e integrais sobre o grupo ortogonal foram recentemente usadas em trabalhos do nosso grupo de pesquisa, por exemplo em [20, 21, 22, 23]. Esperamos que esta apresentação possa ajudar a disseminar o interesse por esse tema. M. Novaes foi financiado pelos processos 306765/2018-7 e 400906/2016-3 do CNPq. L.H. Oliveira tem bolsa de doutorado da Capes. Agradecemos a um parecerista anônimo por suas excelentes contribuições à clareza do artigo. .

2. O grupo de rotações e o grupo ortogonal

2.1. No plano 2

Começamos com o plano 2, com a coordenada horizontal denotada por x e a vertical por y, sendo (1 0) e (0 1) os versores ortogonais correspondentes. Uma rotação anti-horária por um ângulo θ, digamos Rθ, age sobre os versores de acordo com

(1) R θ ( 1 0 ) = ( cos θ sin θ ) , R θ ( 0 1 ) = ( - sin θ cos θ )

e portanto pode ser representada, na base desses versores, pela matriz

(2) R θ = ( cos θ - sin θ sin θ cos θ ) , 0 θ < 2 π .

O quadrado da distância entre dois pontos é o módulo quadrado do vetor entre eles, ou seja, é o produto escalar do vetor consigo mesmo,

(3) ( x y ) ( x y ) = x 2 + y 2 .

Rotações preservam distância: o módulo quadrado do vetor rodado é

(4) ( x y ) R θ T R θ ( x y ) = ( x y ) ( x y ) ,

onde usamos a operação de transposição para passar de um vetor coluna a um vetor linha e aplicamos a identidade RθTRθ=1, que pode ser deduzida diretamente de (2).

Se uma matriz qualquer O satisfaz a condição OTO = 1, ela é dita ortogonal. O conjunto de todas as matrizes ortogonais em duas dimensões é chamado de Grupo Ortogonal e denotado por 𝒪(2). É evidente que esse conjunto é um grupo: o produto de duas matrizes ortogonais é também uma matriz ortogonal, a inversa de uma matriz ortogonal é ortogonal, a identidade é uma matriz ortogonal e o produto é associativo (essas são as condições que definem um grupo).

Como vimos, rotações podem ser representadas por matrizes ortogonais. Será que toda matriz ortogonal é uma rotação? A resposta é não. As matrizes (1001) e (1001) são ortogonais, mas não representam nenhuma rotação. Em vez disso, elas representam reflexões em relação aos eixos horizontal e vertical, respectivamente. Naturalmente, podemos definir reflexões em relação a qualquer eixo do plano. A matriz associada à reflexão em relação ao eixo definido pelo vetor (cos⁡(θ)sin⁡(θ)) é dada por (é uma pena que as palavras ‘rotação’ e ‘reflexão’ comecem com a mesma letra):

(5) R θ = ( cos ( 2 θ ) sin ( 2 θ ) sin ( 2 θ ) - cos ( 2 θ ) ) , 0 θ < π .

(note que o domínio da variável θ neste caso vai só até π, pois estamos especificando apenas a direção e não o sentido do eixo).

O conjunto das rotações é um subgrupo (a composição de duas rotações é uma rotação, RθRϕ = Rθ + ϕ; toda rotação possui uma inversa, Rθ-1=R-θ; a identidade é R_0) do grupo ortogonal, chamado de Grupo Ortogonal Especial ou 𝒮𝒪(2). Por outro lado, o conjunto que contém somente as reflexões não forma um grupo porque a composição de duas reflexões não é uma reflexão e sim uma rotação:

(6) R θ R ϕ = R 2 θ - 2 ϕ .

O grupo 𝒪(2) consiste portanto das rotações e das reflexões (note que a inversão (xy)→(−xy) é uma rotação de π). O determinante de uma matriz em 𝒪(2) só pode ser igual a 1 ou a –1, pois a condição OTO = 1 implica (det O)2 = 1. As reflexões têm determinante negativo, pois alteram a orientação de uma das componentes do vetor em que atuam, enquanto que as rotações têm determinante positivo. Assim, o subgrupo 𝒮𝒪(2) pode ser especificado, dentro do grupo 𝒪(2), como contendo as matrizes O tais que det O = 1.

Com relação a autovalores e autovetores, os dois tipos de operação são complementares. No caso das rotações Rθ, os autovalores são eiθ e eiθ e dependem do ângulo, enquanto os autovetores são fixos, (i1) e (i1) , respectivamente. Já no caso das reflexões Rθ, os autovalores é que são fixos, sempre 1 e –1, enquanto os autovetores dependem do ângulo, (cosθsinθ) e (sinθcosθ), respectivamente.

Se quisermos rotações e reflexões aleatórias no plano, basta considerarmos θ uma variável aleatória. Podemos tomar uma distribuição uniforme no intervalo (0, 2π) para as rotações e no intervalo (0, π) para as reflexões. Nesse contexto, três problemas são muito naturais: entender a estatística dos autovalores, dos autovetores e dos elementos de matriz.

No caso dos autovalores, faz mais sentido olhar para as rotações. Como as matrizes são reais, eles existem sempre em pares conjugados e estão uniformemente distribuídos sobre o círculo unitário no plano complexo. No caso dos autovetores, faz mais sentido olhar para as reflexões. Vemos que eles são ortogonais e também estão uniformemente distribuídos sobre o círculo unitário em 2.

Quanto se trata dos elementos de matriz, é mais conveniente tratar o grupo 𝒪(2) inteiro, entendendo que

(7) f ( O ) 𝒪 ( 2 ) = 1 4 π 0 2 π f ( R θ ) d θ + 1 2 π 0 π f ( R θ ) d θ .

É fácil concluir que o valor médio de todos os elementos de matriz é zero ⟨OijO(2) = 0. Com relação às correlações entre os elementos, temos:

(8) ( O ) i 1 j 1 ( O ) i 2 j 2 𝒪 ( 2 ) = { 1 2 , se i 1 = i 2 e j 1 = j 2 , 0 , caso contrário .

(convidamos o leitor a verificar esta afirmação). Vemos que os elementos estão descorrelacionados, o que não seria verdade se olhássemos só para as rotações ou só para as reflexões.

2.2. No espaço N

O grupo ortogonal 𝒪(N) é definido como o conjunto das matrizes que representam transformações lineares que preservam o produto escalar,

(9) x | y = k = 1 N x k y k ,

ou seja, das matrizes reais N×N que satisfazem

(10) O T O = O O T = I N ,

onde IN é a matriz identidade. Para uma discussão pormenorizada sobre o grupo ortogonal e as rotações, incluindo uma interessante introdução aos quatérnions, sugerimos a leitura de [66. J.B. Kuipers, Quaternions and Rotation Sequences (Princeton University Press, Princeton, 2002).]. Para o caso particular N = 3 e sua conexão com a teoria do momento angular em mecânica quântica, recomendamos [77. W.J. Thompson, Angular Momentum (Wiley, New York, 1994).].

Assim como no caso N = 2, o grupo 𝒪(N) possui duas componentes distintas: as rotações, que têm determinante + 1 e formam o subgrupo 𝒮𝒪(N), e as reflexões, que têm determinante –1 e não formam um subgrupo (o produto de duas reflexões não é uma reflexão). Essas duas componentes são como imagens no espelho uma da outra e existe uma bijeção simples entre elas. Se tomarmos uma reflexão qualquer, por exemplo a matriz diagonal cujo primeiro elemento é –1 e todos os outros são 1, e multiplicarmos todos os elementos de 𝒮𝒪(N) por essa reflexão, obteremos justamente o conjunto das reflexões. Em marcado contraste com o caso N = 2, para todo N > 2 o grupo das rotações não é comutativo.

No caso N = 3 toda rotação se dá em torno de um eixo, que permanece invariante. Para N > 3 é interessante introduzir a noção de rotação elementar. Uma rotação é elementar se afeta apenas um espaço de dimensão 2. Toda rotação em 𝒮𝒪(2) ou em 𝒮𝒪(3) é elementar, mas isso não é mais verdade para N > 3. Por exemplo, toda matriz em 𝒮𝒪(4) pode ser escrita, por meio de uma mudança de base, na forma

(11) ( cos θ - sin θ 0 0 sin θ cos θ 0 0 0 0 cos ϕ - sin ϕ 0 0 sin ϕ cos ϕ ) ,

ou seja, como duas rotações elementares independentes. Note que não se pode falar em eixo de rotação neste caso. Essa estrutura se repete em dimensões mais altas. Todo elemento de 𝒮𝒪(5), por exemplo, consiste de duas rotações elementares e uma direção invariante. Resumindo, os elementos de 𝒮𝒪(2N) consistem de N rotações elementares; essas matrizes possuem N pares de autovalores conjugados (que podem ser iguais a 1 caso haja rotações elementares triviais). Por outro lado, elementos de 𝒮𝒪(2N + 1) consistem de N rotações elementares e uma direção invariante; nesse caso, pelo menos um dos autovalores será sempre igual a 1.

Também no caso das reflexões é interessante introduzir a ideia das operações elementares. Uma reflexão elementar age sobre N mantendo um espaço N−1 invariante e trocando o sentido de um espaço unidimensional. Essas matrizes sempre têm portanto N – 1 autovalores iguais a 1 e um autovalor igual a –1. A composição de um número par de reflexões elementares é uma rotação, e a composição de um número ímpar é uma reflexão, que não será elementar se o autovalor –1 for degenerado. De fato, um teorema de Cartan garante que qualquer elemento de 𝒪(N) pode sempre ser escrito como o produto de no máximo N reflexões (ver, por exemplo, o capítulo 8 de [88. J. Gallier, Geometric Methods and Applications (Springer, New York, 2011).]).

Como podemos fazer para considerar rotações aleatórias em N? Uma possibilidade é escrever as matrizes explicitamente em termos de algumas variáveis, tais como o ângulo θ no caso do 2 ou os ângulos de Euler no caso do 3, e depois tomar essas variáveis de forma aleatória. Mas como são as matrizes? Antes de mais nada, quantas variáveis precisamos? Essa é a dimensão do grupo. Uma matriz N×N possui N2 elementos, porém o vínculo (10) garante que não são todos independentes.

A melhor maneira de encontrar a dimensão do grupo 𝒮𝒪(N) é expressar seus elementos na forma O = eX para algum X, sendo a exponencial definida simplesmente em termos da série de Taylor,

(12) e X = I N + X + X 2 2 ! + X 3 3 ! +

Para a matriz X, a condição de vínculo OT = O−1 se traduz em XT = −X, de modo que X deve ser anti-simétrica. Essa é a única restrição que devemos impor a X. Assim, seus elementos diagonais são todos nulos e os elementos abaixo da diagonal são os negativos dos elementos acima da diagonal. Cada elemento acima da diagonal é um grau de liberdade, ou seja contribui para a dimensão do grupo, que portanto é N(N−1)/2. A relação eTrX = det⁡O mostra que det⁡O = 1, por isso esse procedimento permite a construção apenas das rotações e não das reflexões.

Enquanto 𝒮𝒪(N) é um grupo de Lie, o conjunto das matrizes reais anti-simétricas forma uma álgebra de Lie. Para uma introdução a essa teoria, recomendamos o livro de Stillwell [99. J. Stillwell, Naive Lie Theory (Springer, New York, 2008).].

Então sabemos que são necessárias N(N−1)/2 variáveis para parametrizarmos 𝒮𝒪(N) ou 𝒪(N). Mas qual é a cara das matrizes? Elas são relativamente complicadas e, por simplicidade, preferimos omitir essa discussão. A construção explícita pode ser encontrada por exemplo em [1010. P. Diaconis e P.J. Forrester, arXiv:1410.6535v1 (2016).] ou em [1111. Haar measure on 𝒮𝒪(n). Disponível em: https://math.stackexchange.com/questions/1364495/haar-measure-on-son.
https://math.stackexchange.com/questions...
]. Em vez de usarmos essas parametrizações, vamos recorrer a argumentos mais gerais.

3. Resultados Numéricos

No grupo ortogonal, assim como em outros grupos de matrizes, existe uma medida de probabilidade natural, conhecida como medida de Haar. Vamos denotá-la por P(O). No caso do 𝒪(N), essa medida é invariante por multiplicação tanto à esquerda quanto à direita, ou seja, P(OA) = P(AO) = P(O) para qualquer A pertencente ao grupo. Isso quer dizer simplesmente que a medida é uniforme e que todos os elementos do grupo são igualmente prováveis em um sorteio. A medida de Haar sobre os grupos de matrizes é análoga à distribuição uniforme sobre a circunferência ou sobre qualquer intervalo finito.

Como podemos, então, sortear uma matriz de rotação distribuída segundo a medida de Haar? Bom, as colunas de O são N vetores ortonormais. Precisamos então construir N vetores ortonormais aleatórios. Isso pode ser feito aplicando o processo de ortogonalização de Gram-Schmidt aos autovetores de alguma outra matriz aleatória, com elementos independentes e gaussianos, como descrito por Mezzadri [1212. F. Mezzadri, Notices Am. Math. Soc. 54, 592 (2007).]. Esse algoritmo está implementado na maioria das linguagens de programação e é chamado decomposição QR: ele escreve uma matriz qualquer como o produto de uma matriz ortogonal, Q, e uma matriz triangular superior, R.

Entretanto, a decomposição QR não é única, pois basta trocar Q por QA e R por A−1R para obter outra decomposição equivalente. Para torná-la única, impomos que os elementos não nulos da diagonal principal de R devem ser positivos. Com isso, a matriz Q terá exatamente a distribuição de Haar sobre o grupo 𝒪(N). O código a seguir implementa esse algoritmo em Python:

import numpy as np import scipy.linalg as spl def random_rot(N): a = np.random.randn(N,N) Q, R = spl.qr(a) r = np.diag(R) A = np.diag(r/np.abs(r)) M = np.dot(Q,A) return M

O algoritmo começa sorteando uma matriz a com distribuição normal. Depois, aplica a decomposição QR. Os elementos diagonais da matriz R são colocados no vetor r e seus sinais são colocados na matriz diagonal A. Finalmente, a matriz ortogonal que havia resultado da decomposição QR é multiplicada por A pela direita, garantindo unicidade.

Se quisermos o grupo 𝒮𝒪(N) em vez do 𝒪(N), podemos simplesmente calcular o determinante da matriz O e descartá-la se este for –1, ou então podemos multiplicar O por uma reflexão fixa para transformá-la numa rotação.

Agora que somos capazes de gerar matrizes aleatórias distribuídas uniformemente sobre o grupo 𝒪(N) de acordo com a medida de Haar, podemos investigar numericamente suas propriedades estatísticas. Comecemos com seus autovalores.

Eles são uniformemente distribuídos no círculo unitário, conforme vemos na Fig. 1b, onde mostramos os autovalores de uma única matriz ortogonal aleatória de ordem 100. Entretanto, é possível notar que os autovalores não são variáveis independentes. Basta comparar com a Fig. 1a, onde temos 100 pontos aleatórios independentes sobre o círculo. Esses pontos tendem a formar aglomerados, em contraste com os autovalores, que preferem manter distância entre si. Este comportamento é chamado de repulsão. Os autovalores comportam-se mais ou menos como cargas de mesmo sinal dispostas sobre o círculo, ou seja, tendem a se afastar uns dos outros. Veremos isso com mais detalhes a seguir.

Figura 1
Comparação entre 100 pontos independentes distribuídos no círculo unitário (à esquerda) e o autovalores de uma matriz de rotação de ordem 100 (à direita). Podemos detectar que há repulsão entre os autovalores, que têm uma distribuição mais uniforme.

Como os autovalores têm módulo 1, podemos escrevê-los como e com θ ∈ [0,2π). A distribuição dessas autofases encontra-se na Fig. 2a (sorteamos 105 matrizes de ordem N = 100). Encontramos de fato uma distribuição aproximadamente uniforme (igual a 12π para normalização), exceto por uma ligeira prevalência das fases θ = 0 e θ = π, associadas aos autovalores ±1, mas esse efeito diminui conforme N se torna maior.

Figura 2
À esquerda, distribuição das fases dos autovalores de matrizes ortogonais. À direita, distribuição do traço, x = TrO. Nos dois casos, sorteamos 105 matrizes de dimensão 100.

Uma quantidade de destaque no estudo de matrizes é o traço, a soma dos elementos da diagonal principal ou a soma dos autovalores. A distribuição do traço encontra-se na Fig. 2b (calculada usando as mesmas 105 matrizes de ordem N = 100). Como o traço é a soma de um grande número de variáveis aleatórias, ainda que não independentes, poderíamos suspeitar que tivesse distribuição normal, devido a um processo semelhante ao Teorema Central do Limite. Vemos que sua distribuição é de fato bem aproximada por uma distribuição normal com média zero e desvio padrão 1. Na Seção 4.3 4.3. Dimensão finita, teoria Vamos chamar de pareamentos as partições do conjunto {1,2,…,2n} em pares, ou seja, em n blocos de tamanho 2. Expressamos um pareamento 𝔪 na forma {{𝔪(1),𝔪(2)},{𝔪(3),𝔪(4)},…}. Por exemplo, no caso de quatro elementos, existem três pareamentos, (21) 𝔪 1 = { { 1 , 2 } , { 3 , 4 } } , 𝔪 2 = { { 1 , 3 } , { 2 , 4 } } , 𝔪 3 = { { 1 , 4 } , { 2 , 3 } } . Seja ℳn o conjunto dos pareamentos possíveis em um conjunto de 2n números. O tamanho desse conjunto é (2n−1)!! = (2n−1)(2n−3)(2n−5)… . Dada uma lista de números, digamos (i1,…,i2n), dizemos que essa lista satisfaz o pareamento 𝔪 se seus elementos coincidem de acordo com 𝔪. Ou seja, se i𝔪(2k−1) = i𝔪(2k) para todo k. Vejamos alguns exemplos. A lista a = (1,1,2,2) satisfaz 𝔪1 porque (22) a 𝔪 1 ⁢ ( 1 ) = a 1 = a 𝔪 1 ⁢ ( 2 ) = a 2 = 1 , a 𝔪 1 ⁢ ( 3 ) = a 3 = a 𝔪 1 ⁢ ( 4 ) = a 4 = 2 . Por outro lado, a lista b = (1,2,1,2) satisfaz 𝔪2 porque (23) b 𝔪 2 ⁢ ( 1 ) = b 1 = b 𝔪 2 ⁢ ( 2 ) = b 3 = 1 , b 𝔪 2 ⁢ ( 3 ) = b 2 = b 𝔪 2 ⁢ ( 4 ) = b 4 = 2 . Finalmente, a lista c = (1,2,2,1) satisfaz 𝔪3 porque (24) c 𝔪 3 ⁢ ( 1 ) = c 1 = c 𝔪 3 ⁢ ( 2 ) = c 4 = 1 , c 𝔪 3 ⁢ ( 3 ) = c 2 = c 𝔪 3 ⁢ ( 4 ) = c 3 = 2 . A lista (1, 1, 1, 1) satisfaz todos os pareamentos. Por que estamos falando em pareamentos? Porque a integral (25) ⟨ ∏ k = 1 2 ⁢ n O i k ⁢ j k ⟩ 𝒪 ⁢ ( N ) só é diferente de zero se a lista de números (i1,…,i2n) satisfizer algum pareamento, e o mesmo para a lista (j1,…,j2n). Em termos concretos, se Δ𝔪(i) é a função que vale 1 quando a lista i satisfaz o pareamento 𝔪 e zero caso contrário, então a integral pode ser escrita assim: (26) ⟨ ∏ k = 1 2 ⁢ n O i k ⁢ j k ⟩ 𝒪 ⁢ ( N ) = ∑ 𝔪 , 𝔫 ∈ ℳ n Δ 𝔪 ⁢ ( i ) ⁢ Δ 𝔫 ⁢ ( j ) ⁢ W ⁢ ( 𝔪 , 𝔫 ) . Por exemplo, podemos notar que as listas i = (1,1,3,3) e j = (4,2,2,4) aparecem no exemplo (20) e portanto, de acordo com a fórmula acima, temos que o lado direito da equação (20) é igual a W(𝔪1,𝔪3). Resta dizer quem é a função W, chamada de função de Weingarten. Para isso, definimos um grafo Γ(𝔪,𝔫) da seguinte maneira: temos vértices com índices de 1 a 2n e ligamos dois vértices se seus índices aparecem no mesmo bloco em 𝔪 ou em 𝔫. Depois, definimos uma matriz G cujos elementos são dados por G𝔪,𝔫 = Nc(𝔪,𝔫), onde c é o número de caminhos fechados no grafo Γ(𝔪,𝔫). Finalmente, a função W(𝔪,𝔫) é igual [14] ao elemento (𝔪,𝔫) da inversa da matriz G. Por exemplo, para n = 2 temos os três pareamentos em (21). A matriz G nesse caso é (27) G = ( N 2 N N N N 2 N N N N 2 ) e sua inversa é (28) G − 1 = 1 N ( N − 1 ) ( N + 2 ) ( N + 1 − 1 − 1 − 1 N + 1 − 1 − 1 − 1 N + 1 ) . De fato, o elemento (G−1)13 dessa matriz coincide com o lado direito de (20). Por outro lado, no cálculo de ⟨O114⟩𝒪⁢(N) todos os pareamentos são possíveis, e o resultado é igual à soma de todos os elementos de G−1. (O leitor atento terá percebido que a matriz acima não está definida para N = 1. A matriz G associada aos pareamentos de 2n números de fato não tem inversa se N < n. Nesse caso é preciso usar a pseudo-inversa [15]. Omitimos essa discussão por simplicidade). Como aplicação desta teoria, podemos considerar a distribuição do traço da matriz. Vamos abordar esse problema usando o método dos momentos, ou seja, calculando ⟨(TrO)2n⟩𝒪(N) para todo n (potências ímpares do traço têm média zero). Usando a fórmula (26), temos (29) ⟨ ( Tr ⁢ O ) 2 ⁢ n ⟩ 𝒪 ⁢ ( N ) = ∑ i 1 , … , i 2 ⁢ n ∑ 𝔪 , 𝔫 ∈ ℳ n Δ 𝔪 ⁢ ( i ) ⁢ Δ 𝔫 ⁢ ( i ) ⁢ W ⁢ ( 𝔪 , 𝔫 ) (note que a lista j é igual à lista i neste caso). Trocando a ordem das somas, temos a quantidade ∑i1,…,i2n Δ𝔪(i)Δ𝔫(i). As funções Δ requerem que algumas das variáveis i sejam iguais e o resultado da soma será N elevado ao número de variáveis independentes. Alguma reflexão nos convencerá de que esse número é exatamente c(𝔪,𝔫). Assim, ficamos com (30) ⟨ ( Tr ⁢ O ) 2 ⁢ n ⟩ 𝒪 ⁢ ( N ) = ∑ 𝔪 , 𝔫 ∈ ℳ n G 𝔪 , 𝔫 ⁢ W ⁢ ( 𝔪 , 𝔫 ) . Mas definimos W(𝔪,𝔫) justamente como os elementos de matriz da inversa de G, de modo que o resultado se reduz a ⟨(TrO)2n⟩𝒪(N) = ∑𝔪 ∈ ℳn 1 = (2n−1)!!. Esses são os momentos de uma variável aleatória com distribuição normal (esta conta pressupõe a existência de G−1, portanto só vale se N > 2n, de modo que a distribuição só se aproxima da normal para grandes valores de N). Existe uma fórmula mais explícita para a função de Weingarten, que está relacionada ao fato de que pareamentos podem ser vistos como representantes das classes laterais do grupo do hiperoctaedro em relação ao grupo de permutações S2n. Preferimos omitir essa discussão, que pode ser encontrada em [14], por ser muito técnica. veremos que a distribuição é realmente essa e não depende do tamanho das matrizes.

Também podemos nos perguntar sobre a distribuição dos elementos de matriz. Na Fig. 3, temos a distribuição de um elemento da diagonal principal, O11, e de um elemento fora da diagonal, O34. A distribuição dos elementos parece não depender dos índices. Entretanto, depende da ordem das matrizes. À esquerda, temos a distribuição para matrizes de ordem N = 5; à direita, matrizes de ordem N = 50. Conforme o tamanho das matrizes aumenta, a distribuição se aproxima cada vez mais de uma distribuição normal com média zero e desvio padrão 1/N.

Figura 3
Distribuição dos elementos de matriz: O11 em vermelho e O34 em preto. À esquerda, as matrizes têm dimensão N = 5 e a curva azul é o resultado exato. À direita, N = 50 e a curva azul é o resultado assintótico, gaussiano.

4. Elementos de Matriz

Como os elementos de uma matriz ortogonal podem ser positivos ou negativos com igual probabilidade, é natural que todos tenham valor esperado nulo, ⟨Oij⟩𝒪(N) = 0. E a variância? Como a distribuição das matrizes é invariante por rotação, todos os elementos devem ter a mesma variância. A condição OTO = 1 é equivalente a j=1NOij2=1 para todo i, de modo que podemos concluir que

(13) O i j 2 𝒪 ( N ) = 1 N .

4.1. Dimensão grande

E quanto às correlações entre os elementos de matriz? Eles não podem ser independentes, pois as colunas da matriz O devem ser ortogonais e normalizadas.

Olhemos apenas uma das colunas, esquecendo a ortogonalidade e levando em conta somente a normalização. Temos então um vetor x de dimensão N, normalizado, i=1Nxi2=1, e queremos saber qual é a distribuição conjunta dos primeiros m elementos. Se o único vínculo que as variáveis precisam satisfazer é a normalização, então essa distribuição é proporcional a

(14) d x m + 1 d x N δ ( 1 - i = 1 N x i 2 ) .

Usando a representação integral da distribuição delta, δ(x)∝∫eikxdk, temos

(15) d k e i k ( 1 - i = 1 m x i 2 ) ( d x e - i k x 2 ) N - m ,

que é proporcional a

(16) d k e i k ( 1 - i = 1 m x i 2 ) k - ( N - m ) / 2 ( 1 - i = 1 m x i 2 ) ( N - m ) / 2 - 1 .

Em particular, a distribuição de um único elemento é proporcional a (1−x2)(N−3)/2. Essa é a distribuição que aparece na Figura 3a. Note que a variável reescalada y=xN adquire distribuição normal para N grande, pois (1−y2/N)Ney2.

De forma mais geral, podemos olhar para um bloco de elementos de matriz. Seja u o bloco que contém os elementos Oij com i, jm. Então, u é uma matriz aleatória e sua distribuição é conhecida [1313. B.A. Khoruzhenko, H.-J. Sommers e K. Z̀yczkowski, Phys. Rev. E. 82, 040106(R) (2010).]: ela é proporcional a

(17) det ( 1 - u u T ) ( N - 1 ) / 2 - m .

Note que este resultado é análogo a (16). Novamente, se N≫1 então a matriz renormalizada v=uN tem distribuição normal, pois (1−vvT/N)(N−1)/2−mevvT. Concluímos que se a dimensão N for muito grande, o vínculo da ortogonalidade não é muito forte e os elementos de matriz se tornam variáveis aleatórias aproximadamente independentes.

4.2. Dimensão finita, exemplos

Podemos dizer mais sobre a distribuição dos elementos de matriz, mesmo para dimensões N finitas. É possível mostrar, por exemplo, que [1414. B. Collins e S. Matsumoto, J. Math. Phys. 50, 113516 (2009).]

(18)O114𝒪(N)=3N(N+2)

e que [1414. B. Collins e S. Matsumoto, J. Math. Phys. 50, 113516 (2009).]

(19)O112O222𝒪(N)=(N+1)N(N-1)(N+2).

Vemos que, para N grande, este último resultado se aproxima de O112𝒪(N)O222𝒪(N) (ver (13)), como deveria em vista da independência assintótica. Como último exemplo, temos

(20) O 14 O 12 O 32 O 34 𝒪 ( N ) = - 1 N ( N - 1 ) ( N + 2 ) .

Note que este resultado é de ordem 1/N vezes menor que o de cima, refletindo também a independência assintótica das variáveis para N grande.

4.3. Dimensão finita, teoria

Vamos chamar de pareamentos as partições do conjunto {1,2,…,2n} em pares, ou seja, em n blocos de tamanho 2. Expressamos um pareamento 𝔪 na forma {{𝔪(1),𝔪(2)},{𝔪(3),𝔪(4)},…}. Por exemplo, no caso de quatro elementos, existem três pareamentos,

(21) 𝔪 1 = { { 1 , 2 } , { 3 , 4 } } , 𝔪 2 = { { 1 , 3 } , { 2 , 4 } } , 𝔪 3 = { { 1 , 4 } , { 2 , 3 } } .

Seja ℳn o conjunto dos pareamentos possíveis em um conjunto de 2n números. O tamanho desse conjunto é (2n−1)!! = (2n−1)(2n−3)(2n−5)… .

Dada uma lista de números, digamos (i1,…,i2n), dizemos que essa lista satisfaz o pareamento 𝔪 se seus elementos coincidem de acordo com 𝔪. Ou seja, se i𝔪(2k−1) = i𝔪(2k) para todo k. Vejamos alguns exemplos. A lista a = (1,1,2,2) satisfaz 𝔪1 porque

(22) a 𝔪 1 ( 1 ) = a 1 = a 𝔪 1 ( 2 ) = a 2 = 1 , a 𝔪 1 ( 3 ) = a 3 = a 𝔪 1 ( 4 ) = a 4 = 2 .

Por outro lado, a lista b = (1,2,1,2) satisfaz 𝔪2 porque

(23) b 𝔪 2 ( 1 ) = b 1 = b 𝔪 2 ( 2 ) = b 3 = 1 , b 𝔪 2 ( 3 ) = b 2 = b 𝔪 2 ( 4 ) = b 4 = 2 .

Finalmente, a lista c = (1,2,2,1) satisfaz 𝔪3 porque

(24) c 𝔪 3 ( 1 ) = c 1 = c 𝔪 3 ( 2 ) = c 4 = 1 , c 𝔪 3 ( 3 ) = c 2 = c 𝔪 3 ( 4 ) = c 3 = 2 .

A lista (1, 1, 1, 1) satisfaz todos os pareamentos.

Por que estamos falando em pareamentos? Porque a integral

(25) k = 1 2 n O i k j k 𝒪 ( N )

só é diferente de zero se a lista de números (i1,…,i2n) satisfizer algum pareamento, e o mesmo para a lista (j1,…,j2n). Em termos concretos, se Δ𝔪(i) é a função que vale 1 quando a lista i satisfaz o pareamento 𝔪 e zero caso contrário, então a integral pode ser escrita assim:

(26) k = 1 2 n O i k j k 𝒪 ( N ) = 𝔪 , 𝔫 n Δ 𝔪 ( i ) Δ 𝔫 ( j ) W ( 𝔪 , 𝔫 ) .

Por exemplo, podemos notar que as listas i = (1,1,3,3) e j = (4,2,2,4) aparecem no exemplo (20) e portanto, de acordo com a fórmula acima, temos que o lado direito da equação (20) é igual a W(𝔪1,𝔪3).

Resta dizer quem é a função W, chamada de função de Weingarten. Para isso, definimos um grafo Γ(𝔪,𝔫) da seguinte maneira: temos vértices com índices de 1 a 2n e ligamos dois vértices se seus índices aparecem no mesmo bloco em 𝔪 ou em 𝔫. Depois, definimos uma matriz G cujos elementos são dados por G𝔪,𝔫 = Nc(𝔪,𝔫), onde c é o número de caminhos fechados no grafo Γ(𝔪,𝔫). Finalmente, a função W(𝔪,𝔫) é igual [1414. B. Collins e S. Matsumoto, J. Math. Phys. 50, 113516 (2009).] ao elemento (𝔪,𝔫) da inversa da matriz G.

Por exemplo, para n = 2 temos os três pareamentos em (21). A matriz G nesse caso é

(27) G = ( N 2 N N N N 2 N N N N 2 )

e sua inversa é

(28) G 1 = 1 N ( N 1 ) ( N + 2 ) ( N + 1 1 1 1 N + 1 1 1 1 N + 1 ) .

De fato, o elemento (G−1)13 dessa matriz coincide com o lado direito de (20). Por outro lado, no cálculo de O114𝒪(N) todos os pareamentos são possíveis, e o resultado é igual à soma de todos os elementos de G−1.

(O leitor atento terá percebido que a matriz acima não está definida para N = 1. A matriz G associada aos pareamentos de 2n números de fato não tem inversa se N < n. Nesse caso é preciso usar a pseudo-inversa [1515. G. Wang, Y. Wei e S. Qiao, Generalized Inverses (Springer, Singapore, 2018).]. Omitimos essa discussão por simplicidade).

Como aplicação desta teoria, podemos considerar a distribuição do traço da matriz. Vamos abordar esse problema usando o método dos momentos, ou seja, calculando ⟨(TrO)2n𝒪(N) para todo n (potências ímpares do traço têm média zero). Usando a fórmula (26), temos

(29) ( Tr O ) 2 n 𝒪 ( N ) = i 1 , , i 2 n 𝔪 , 𝔫 n Δ 𝔪 ( i ) Δ 𝔫 ( i ) W ( 𝔪 , 𝔫 )

(note que a lista j é igual à lista i neste caso). Trocando a ordem das somas, temos a quantidade ∑i1,…,i2n Δ𝔪(i𝔫(i). As funções Δ requerem que algumas das variáveis i sejam iguais e o resultado da soma será N elevado ao número de variáveis independentes. Alguma reflexão nos convencerá de que esse número é exatamente c(𝔪,𝔫). Assim, ficamos com

(30) ( Tr O ) 2 n 𝒪 ( N ) = 𝔪 , 𝔫 n G 𝔪 , 𝔫 W ( 𝔪 , 𝔫 ) .

Mas definimos W(𝔪,𝔫) justamente como os elementos de matriz da inversa de G, de modo que o resultado se reduz a ⟨(TrO)2n𝒪(N) = ∑𝔪 ∈ ℳn 1 = (2n−1)!!. Esses são os momentos de uma variável aleatória com distribuição normal (esta conta pressupõe a existência de G−1, portanto só vale se N > 2n, de modo que a distribuição só se aproxima da normal para grandes valores de N).

Existe uma fórmula mais explícita para a função de Weingarten, que está relacionada ao fato de que pareamentos podem ser vistos como representantes das classes laterais do grupo do hiperoctaedro em relação ao grupo de permutações S2n. Preferimos omitir essa discussão, que pode ser encontrada em [1414. B. Collins e S. Matsumoto, J. Math. Phys. 50, 113516 (2009).], por ser muito técnica.

5. Autovalores

5.1. Distribuição conjunta

Como já vimos, os autovalores das reflexões são fixos (sempre iguais a 1 ou –1). Portanto, para discutir autovalores restringimos a discussão ao subgrupo das rotações, o 𝒮𝒪(N). Além disso, é preciso distinguir os casos de dimensão par e os de dimensão ímpar. No segundo caso um dos autovalores é sempre igual a 1. Tanto para 𝒮𝒪(2N) quanto para 𝒮𝒪(2N + 1), os (demais) autovalores são denotados por ek e ek, com 1 ≤ kN. Os valores 0 ≤ θkπ são as autofases.

A distribuição de probabilidade conjunta das autofases foi obtida por H. Weyl [1616. H. Weyl, The Classical Groups: their Invariants and Representations (Princeton University Press, Princeton, 1939).], sendo dada por

(31) P 𝒮 𝒪 ( 2 N ) ( θ 1 , , θ N ) 1 j < k N ( cos ( θ k ) - cos ( θ j ) ) 2

em dimensão par e por

(32) P 𝒮 𝒪 ( 2 N + 1 ) ( θ 1 , , θ N ) j = 1 N sin 2 ( θ j / 2 ) 1 j < k N ( cos ( θ k ) - cos ( θ j ) ) 2
(33) j = 1 N sin 2 ( θ j / 2 ) 1 j < k N ( cos 2 ( θ k / 2 ) - cos 2 ( θ j / 2 ) ) 2

em dimensão ímpar.

Vemos que os autovalores são variáveis aleatórias correlacionadas e podemos enxergar o seu comportamento repulsivo, já que as distribuições se anulam quadraticamente quando dois deles são próximos, θkθj, de modo que degenerescências são improváveis.

Se no caso da dimensão par denotarmos cos⁡(θj) = xj, a distribuição fica sendo

(34) P 𝒮 𝒪 ( 2 N ) ( x 1 , , x N ) j = 1 N ( 1 - x j 2 ) - 1 / 2 1 j < k N ( x k - x j ) 2 ,

com − 1 ≤ xj ≤ 1. Analogamente, se no caso da dimensão ímpar denotarmos cos2⁡(θj/2) = yj, a distribuição fica sendo

(35) P 𝒮 𝒪 ( 2 N + 1 ) ( y 1 , , y N ) j = 1 N y j - 1 / 2 ( 1 - y j ) 1 / 2 1 j < k N ( y k - y j ) 2 ,

com 0 ≤ yj ≤ 1.

Feito isso, é possível calcular o valor médio de várias funções simétricas dos autovalores (relacionadas ao polinômio característico da matriz, por exemplo) usando a famosa integral de Selberg:

(36) S ( a , b , γ ) = ( 0 , 1 ) N d y j = 1 N y j a - 1 ( 1 - y j ) b - 1 1 j < k N | y k - y j | 2 γ ,

cujo resultado é

(37) S ( a , b , γ ) = j = 0 N - 1 Γ ( a + j γ ) Γ ( b + j γ ) Γ ( 1 + ( j + 1 ) γ ) Γ ( a + b + ( n + j - 1 ) γ ) Γ ( 1 + γ ) .

Note que, fazendo xj = 2yj − 1, podemos expressar a integral em termos das variáveis x.

Essa integral é uma generalização para muitas variáveis da clássica integral de Euler,

(38) 0 1 d y y a - 1 ( 1 - y ) b - 1 = Γ ( a ) Γ ( b ) Γ ( a + b ) .

É interessante observar que, assim como os clássicos polinômios de Jacobi Pna,b(y) são ortogonais em relação ao integrando de Euler

(39) 0 1 d y y a - 1 ( 1 - y ) b - 1 P n a , b ( y ) P m a , b ( y ) δ n m ,

é possível definir polinômios em várias variáveis que são ortogonais em relação ao integrando de Selberg (ver [1717. P.J. Forrester e S.O. Warnaar, Am. Math. Soc. 45, 489 (2008).]). Nos casos particulares das equações (5.1 5.1. Distribuição conjunta Como já vimos, os autovalores das reflexões são fixos (sempre iguais a 1 ou –1). Portanto, para discutir autovalores restringimos a discussão ao subgrupo das rotações, o 𝒮𝒪(N). Além disso, é preciso distinguir os casos de dimensão par e os de dimensão ímpar. No segundo caso um dos autovalores é sempre igual a 1. Tanto para 𝒮𝒪(2N) quanto para 𝒮𝒪(2N + 1), os (demais) autovalores são denotados por eiθk e e−iθk, com 1 ≤ k ≤ N. Os valores 0 ≤ θk ≤ π são as autofases. A distribuição de probabilidade conjunta das autofases foi obtida por H. Weyl [16], sendo dada por (31) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 em dimensão par e por (32) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 (33) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos 2 ⁡ ( θ k / 2 ) - cos 2 ⁡ ( θ j / 2 ) ) 2 em dimensão ímpar. Vemos que os autovalores são variáveis aleatórias correlacionadas e podemos enxergar o seu comportamento repulsivo, já que as distribuições se anulam quadraticamente quando dois deles são próximos, θk ≈ θj, de modo que degenerescências são improváveis. Se no caso da dimensão par denotarmos cos⁡(θj) = xj, a distribuição fica sendo (34) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( x 1 , … , x N ) ∝ ∏ j = 1 N ( 1 - x j 2 ) - 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( x k - x j ) 2 , com − 1 ≤ xj ≤ 1. Analogamente, se no caso da dimensão ímpar denotarmos cos2⁡(θj/2) = yj, a distribuição fica sendo (35) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( y 1 , … , y N ) ∝ ∏ j = 1 N y j - 1 / 2 ⁢ ( 1 - y j ) 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( y k - y j ) 2 , com 0 ≤ yj ≤ 1. Feito isso, é possível calcular o valor médio de várias funções simétricas dos autovalores (relacionadas ao polinômio característico da matriz, por exemplo) usando a famosa integral de Selberg: (36) S ⁢ ( a , b , γ ) = ∫ ( 0 , 1 ) N d y ⁢ ∏ j = 1 N y j a - 1 ⁢ ( 1 - y j ) b - 1 ⁢ ∏ 1 ≤ j < k ≤ N | y k - y j | 2 ⁢ γ , cujo resultado é (37) S ⁢ ( a , b , γ ) = ∏ j = 0 N - 1 Γ ⁢ ( a + j ⁢ γ ) ⁢ Γ ⁢ ( b + j ⁢ γ ) ⁢ Γ ⁢ ( 1 + ( j + 1 ) ⁢ γ ) Γ ⁢ ( a + b + ( n + j - 1 ) ⁢ γ ) ⁢ Γ ⁢ ( 1 + γ ) . Note que, fazendo xj = 2yj − 1, podemos expressar a integral em termos das variáveis x. Essa integral é uma generalização para muitas variáveis da clássica integral de Euler, (38) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 = Γ ⁢ ( a ) ⁢ Γ ⁢ ( b ) Γ ⁢ ( a + b ) . É interessante observar que, assim como os clássicos polinômios de Jacobi Pna,b⁢(y) são ortogonais em relação ao integrando de Euler (39) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 ⁢ P n a , b ⁢ ( y ) ⁢ P m a , b ⁢ ( y ) ∝ δ n ⁢ m , é possível definir polinômios em várias variáveis que são ortogonais em relação ao integrando de Selberg (ver [17]). Nos casos particulares das equações (5.1) e (5.1), em que (a,b)=(12,12) e (12,32), respectivamente, esses polinômios são os caracteres do grupo, que mencionamos a seguir. ) e (5.1 5.1. Distribuição conjunta Como já vimos, os autovalores das reflexões são fixos (sempre iguais a 1 ou –1). Portanto, para discutir autovalores restringimos a discussão ao subgrupo das rotações, o 𝒮𝒪(N). Além disso, é preciso distinguir os casos de dimensão par e os de dimensão ímpar. No segundo caso um dos autovalores é sempre igual a 1. Tanto para 𝒮𝒪(2N) quanto para 𝒮𝒪(2N + 1), os (demais) autovalores são denotados por eiθk e e−iθk, com 1 ≤ k ≤ N. Os valores 0 ≤ θk ≤ π são as autofases. A distribuição de probabilidade conjunta das autofases foi obtida por H. Weyl [16], sendo dada por (31) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 em dimensão par e por (32) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( θ 1 , … , θ N ) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos ⁡ ( θ k ) - cos ⁡ ( θ j ) ) 2 (33) ∝ ∏ j = 1 N sin 2 ⁡ ( θ j / 2 ) ⁢ ∏ 1 ≤ j < k ≤ N ( cos 2 ⁡ ( θ k / 2 ) - cos 2 ⁡ ( θ j / 2 ) ) 2 em dimensão ímpar. Vemos que os autovalores são variáveis aleatórias correlacionadas e podemos enxergar o seu comportamento repulsivo, já que as distribuições se anulam quadraticamente quando dois deles são próximos, θk ≈ θj, de modo que degenerescências são improváveis. Se no caso da dimensão par denotarmos cos⁡(θj) = xj, a distribuição fica sendo (34) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N ) ⁢ ( x 1 , … , x N ) ∝ ∏ j = 1 N ( 1 - x j 2 ) - 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( x k - x j ) 2 , com − 1 ≤ xj ≤ 1. Analogamente, se no caso da dimensão ímpar denotarmos cos2⁡(θj/2) = yj, a distribuição fica sendo (35) P 𝒮 ⁢ 𝒪 ⁢ ( 2 ⁢ N + 1 ) ⁢ ( y 1 , … , y N ) ∝ ∏ j = 1 N y j - 1 / 2 ⁢ ( 1 - y j ) 1 / 2 ⁢ ∏ 1 ≤ j < k ≤ N ( y k - y j ) 2 , com 0 ≤ yj ≤ 1. Feito isso, é possível calcular o valor médio de várias funções simétricas dos autovalores (relacionadas ao polinômio característico da matriz, por exemplo) usando a famosa integral de Selberg: (36) S ⁢ ( a , b , γ ) = ∫ ( 0 , 1 ) N d y ⁢ ∏ j = 1 N y j a - 1 ⁢ ( 1 - y j ) b - 1 ⁢ ∏ 1 ≤ j < k ≤ N | y k - y j | 2 ⁢ γ , cujo resultado é (37) S ⁢ ( a , b , γ ) = ∏ j = 0 N - 1 Γ ⁢ ( a + j ⁢ γ ) ⁢ Γ ⁢ ( b + j ⁢ γ ) ⁢ Γ ⁢ ( 1 + ( j + 1 ) ⁢ γ ) Γ ⁢ ( a + b + ( n + j - 1 ) ⁢ γ ) ⁢ Γ ⁢ ( 1 + γ ) . Note que, fazendo xj = 2yj − 1, podemos expressar a integral em termos das variáveis x. Essa integral é uma generalização para muitas variáveis da clássica integral de Euler, (38) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 = Γ ⁢ ( a ) ⁢ Γ ⁢ ( b ) Γ ⁢ ( a + b ) . É interessante observar que, assim como os clássicos polinômios de Jacobi Pna,b⁢(y) são ortogonais em relação ao integrando de Euler (39) ∫ 0 1 d y ⁢ y a - 1 ⁢ ( 1 - y ) b - 1 ⁢ P n a , b ⁢ ( y ) ⁢ P m a , b ⁢ ( y ) ∝ δ n ⁢ m , é possível definir polinômios em várias variáveis que são ortogonais em relação ao integrando de Selberg (ver [17]). Nos casos particulares das equações (5.1) e (5.1), em que (a,b)=(12,12) e (12,32), respectivamente, esses polinômios são os caracteres do grupo, que mencionamos a seguir. ), em que (a,b)=(12,12) e (12,32), respectivamente, esses polinômios são os caracteres do grupo, que mencionamos a seguir.

5.2. Caracteres

Outra forma de abordar os autovalores é escrever sua distribuição em termos dos números complexos zk = ek e z¯k=e-iθk. Nesse caso, temos

(40) P 𝒮 𝒪 ( 2 N ) ( z 1 , , z N , z ¯ 1 , , z ¯ N ) 1 j < k N | z k - z j | 2 | 1 - z k z j | 2

e

(41) P 𝒮 𝒪 ( 2 N + 1 ) ( z 1 , , z N , z ¯ 1 , , z ¯ N ) j = 1 N | 1 - z j | 2 1 j < k N | z k - z j | 2 | 1 - z k z j | 2

Essas distribuições admitem uma família de polinômios ortogonais, que generalizam a relação znz¯mδnm, na qual a integral é realizada sobre o círculo unitário. Além de terem várias variáveis, esses polinômios também têm vários índices inteiros, tradicionalmente denotados por λ = (λ1,λ2,…) com λiλi + 1. Eles são dados por [1818. E.S. Meckes, The Random Matrix Theory of the Classical Compact Groups (Cambridge University Press, Cambridge, 2019).]

(42) o λ ( 2 N ) ( z 1 , , z N , z ¯ 1 , , z ¯ N ) = det ( z i N + λ j - j + z ¯ i N + λ j - j ) det ( z i N - j + z ¯ i N - j )

em dimensão par e

(43) o λ ( 2 N + 1 ) ( z 1 , , z N , z ¯ 1 , , z ¯ N ) = det ( z i N + λ j - j + 1 / 2 - z ¯ i N + λ j - j + 1 / 2 ) det ( z i N - j + 1 / 2 - z ¯ i N - j + 1 / 2 )

em dimensão ímpar. Os determinantes são polinômios anti-simétricos, enquanto que a razão entre eles produz um polinômio simétrico.

Vamos demonstrar essa ortogonalidade oλ(2N)oμ(2N)δλμ, nos restringindo à dimensão par por simplicidade. Primeiro, usamos o fato de que

(44) det ( z i N - j + z ¯ i N - j ) 1 j < k N ( z k - z j ) ( 1 - z ¯ k z ¯ j )
(45) 1 j < k N ( z ¯ k - z ¯ j ) ( 1 - z k z j ) .

Como temos duas funções na integral, esse denominador aparece duas vezes e cancela com os termos presentes na medida (40). Ficamos então com

(46) o λ ( 2 N ) o μ ( 2 N ) det ( z i N + λ j - j + z ¯ i N + λ j - j ) det ( z i N + μ j - j + z ¯ i N + μ j - j ) .

Recorremos agora a um teorema conhecido como identidade de Andreief, que relaciona uma integral múltipla, sobre N variáveis, de dois determinantes ao determinante de uma matriz N × N, cujos elementos são integrais simples:

(47) det ( f i ( z j ) ) det ( g j ( z i ) ) = N ! det ( f i ( z ) g j ( z ) ) .

Aplicada ao nosso caso, essa identidade fornece

(48) o λ ( 2 N ) o μ ( 2 N ) det ( ( z N + λ i - i + z ¯ N + λ i - i ) ( z N + μ j - j + z ¯ N + μ j - j ) )
(49) det ( ( z N + λ i - i z ¯ N + μ j - j + z ¯ N + λ i - i z N + μ j - j ) )
(50) det ( δ λ i - i , μ j - j ) δ λ μ .

Para o leitor que quiser verificar a ortogonalidade em coordenadas reais, oferecemos um exemplo em N = 2. Nesse caso,

(51) o ( 1 , 1 ) ( 4 ) = 1 + 2 cos ( θ 1 ) cos ( θ 2 )

e

(52) o ( 2 , 0 ) ( 4 ) = 2 o ( 1 , 1 ) ( 4 ) + 2 cos ( 2 θ 1 ) + 2 cos ( 2 θ 2 ) - 1 ,

enquanto que P𝒮𝒪(4)∝(cos⁡(θ2)−cos⁡(θ1))2.

Em termos mais gerais da teoria de grupos, as funções oλ(N) são ortogonais porque correspondem aos caracteres das representações irredutíveis do grupo ortogonal 𝒪(N). Esses polinômios formam uma base para o espaço dos polinômios que são simétricos nos autovalores. Assim, a integral de qualquer função desse tipo pode ser calculada expandindo-a na base ortogonal. Para uma exposição dessa teoria, recomendamos [1919. R. Goodman e N.R. Wallach, Symmetry, Representations, and Invariants (Springer, New York, 2009).].

6. Conclusão

Apresentamos neste artigo uma discussão introdutória sobre rotações aleatórias, acessível a estudantes de graduação em física. Fizemos a distinção entre rotações e reflexões e introduzimos a medida de Haar sobre o grupo ortogonal, o que permite calcular diversas quantidades de interesse estatístico. O tema mais geral das matrizes aleatórias encontra inúmeras aplicações e integrais sobre o grupo ortogonal foram recentemente usadas em trabalhos do nosso grupo de pesquisa, por exemplo em [2020. M. Novaes, Ann. Phys. 361, 51 (2015)., 21,21. M. Novaes, J. Math. Phys. 57, 122105 (2015). 2222. P.H.S. Palheta, M.R. Barbosa e M. Novaes, arXiv: 2004.09266 (2020)., 2323. L.H. Oliveira e M. Novaes, arXiv:2002.08112 (2020).]. Esperamos que esta apresentação possa ajudar a disseminar o interesse por esse tema.

M. Novaes foi financiado pelos processos 306765/2018-7 e 400906/2016-3 do CNPq. L.H. Oliveira tem bolsa de doutorado da Capes. Agradecemos a um parecerista anônimo por suas excelentes contribuições à clareza do artigo.

References

  • 1.
    M.L. Mehta, Random Matrices (Elsevier, Amsterdam, 2004).
  • 2.
    R.J. Muirhead, Aspects of Multivariate Statistical Theory (John Wiley & Sons, Hoboken, 2009).
  • 3.
    K. Binder, Glassy Materials and Disordered Solids (World Scientific, Singapore, 2011).
  • 4.
    F. Haake, Quantum Signatures of Chaos (Springer, Cham, 2019), 4th ed.
  • 5.
    R. Brannon, Rotation, Reflection and Frame Changes (Institute of Physics, Bristol, 2018).
  • 6.
    J.B. Kuipers, Quaternions and Rotation Sequences (Princeton University Press, Princeton, 2002).
  • 7.
    W.J. Thompson, Angular Momentum (Wiley, New York, 1994).
  • 8.
    J. Gallier, Geometric Methods and Applications (Springer, New York, 2011).
  • 9.
    J. Stillwell, Naive Lie Theory (Springer, New York, 2008).
  • 10.
    P. Diaconis e P.J. Forrester, arXiv:1410.6535v1 (2016).
  • 11.
    Haar measure on 𝒮𝒪(n). Disponível em: https://math.stackexchange.com/questions/1364495/haar-measure-on-son
    » https://math.stackexchange.com/questions/1364495/haar-measure-on-son
  • 12.
    F. Mezzadri, Notices Am. Math. Soc. 54, 592 (2007).
  • 13.
    B.A. Khoruzhenko, H.-J. Sommers e K. Z̀yczkowski, Phys. Rev. E. 82, 040106(R) (2010).
  • 14.
    B. Collins e S. Matsumoto, J. Math. Phys. 50, 113516 (2009).
  • 15.
    G. Wang, Y. Wei e S. Qiao, Generalized Inverses (Springer, Singapore, 2018).
  • 16.
    H. Weyl, The Classical Groups: their Invariants and Representations (Princeton University Press, Princeton, 1939).
  • 17.
    P.J. Forrester e S.O. Warnaar, Am. Math. Soc. 45, 489 (2008).
  • 18.
    E.S. Meckes, The Random Matrix Theory of the Classical Compact Groups (Cambridge University Press, Cambridge, 2019).
  • 19.
    R. Goodman e N.R. Wallach, Symmetry, Representations, and Invariants (Springer, New York, 2009).
  • 20.
    M. Novaes, Ann. Phys. 361, 51 (2015).
  • 21.
    M. Novaes, J. Math. Phys. 57, 122105 (2015).
  • 22.
    P.H.S. Palheta, M.R. Barbosa e M. Novaes, arXiv: 2004.09266 (2020).
  • 23.
    L.H. Oliveira e M. Novaes, arXiv:2002.08112 (2020).

Datas de Publicação

  • Publicação nesta coleção
    04 Dez 2020
  • Data do Fascículo
    2021

Histórico

  • Recebido
    16 Jul 2020
  • Revisado
    23 Set 2020
  • Aceito
    22 Out 2020
Sociedade Brasileira de Física Caixa Postal 66328, 05389-970 São Paulo SP - Brazil - São Paulo - SP - Brazil
E-mail: marcio@sbfisica.org.br