03 de Julho de 2021

O MITO DA COINTEGRAÇÃO

Por Hindemburg Melão Jr.


Neste artigo discutiremos algumas das falhas cometidas pelo ganhador do prêmio Nobel de Economia de 2003, Clive William John Granger, em relação ao uso do conceito de cointegração, falhas estas que têm sido repetidas inadvertidamente pelos principais economistas e gestores do mundo nos últimos 40 anos. Também apresentaremos a maneira correta de como se deve lidar com essa questão.

Em nosso artigo anterior, foi discutida a variação nos tamanhos médios dos candles e dos spreads ao longo das últimas décadas. No presente artigo, comentaremos sobre um dos fatores que contribuem para este efeito. Aliás, talvez seja o fator que mais contribui para este efeito. Trata-se do crescimento no número de agentes que utilizam a estratégia conhecida como “Long-Short”, uma classe de operações estruturadas na qual são identificados pares de ativos que se movem aproximadamente juntos (cada um em sua respectiva escala) e quando se afastam muito um do outro, aposta-se que haverá alta probabilidade de que voltarão a se reaproximar.

Antes de começarmos a utilizar spreads variáveis nos backtests, eu achava que um dos principais motivos dessa redução nas performances era o fato de o spread fixo ser alto em relação aos spreads reais atuais e baixo em relação aos spreads antigos reais. Isso poderia explicar a desaceleração do crescimento nos backtests, e este realmente é um dos fatores, mas não é o único e provavelmente também não é o principal.

Em 1981, Clive William John Granger, que mais tarde foi laureado com o Nobel de Ciências Econômicas, propôs uma estratégia extremamente elementar e com algumas possibilidades de gerar lucros. Depois do Buy & Hold e da otimização de portfolios de Markowitz, a estratégia de Long-Short usando cointegração é provavelmente a 3a maneira mais simples de lucrar de forma consistente no Mercado Financeiro, e a mais lucrativa destas três alternativas. Embora os lucros auferidos com ela sejam pequenos e o risco seja relativamente grande, como essa estratégia é muito fácil de entender e de aplicar, além de ser a mais lucrativa entre as alternativas mais elementares, tem conquistado muitos adeptos entre os maiores gestores quantitativos nos últimos anos.

Consiste basicamente no seguinte:

1. Identifica-se pares de ativos fortemente correlacionados positivamente ou negativamente.
2. Analisa-se os resíduos da regressão linear destes ativos.
3. Seleciona-se aqueles cujos resíduos apresentem uma distribuição estacionária. Os pares (ou listas) de ativos que atendem a este quesito são chamados “cointegrados”.
4. Monitora-se os pares cointegrados e, quando um deles se afasta do outro mais que determinado limite, compra-se um ao mesmo tempo em que se vende o outro. Quando voltam a se aproximar, liquida-se as duas posições, com lucro.

A mesma estratégia também é aplicada usando correlação em vez de cointegração, tendo como única diferença a eliminação dos itens 2 e 3 da lista acima.

O uso do coeficiente de correlação de Pearson para medida de dissimilaridade entre pares de séries históricas de cotações de instrumentos financeiros apresenta uma série de problemas, entre as quais podemos destacar as seguintes:

1. A correlação em alguns trechos do histórico pode ser positiva, ao passo que em outros trechos do mesmo histórico pode ser negativa, bem como a força da correlação apresenta grandes variações em diferentes trechos. O uso de testes de cointegração não resolve este problema, mas permite filtrar os casos nos quais este problema esteja presente.
2. A escolha do time frame no qual o par de variáveis será comparado também influi na medida da correlação para um mesmo par de ativos. Um par de ativos pode estar positivamente correlacionado se utilizar candles de 1 minuto, mas negativa se considerar candles de 1 hora ou de 1 dia. Novamente o uso de testes de cointegração não resolve o problema.
3. O coeficiente de correlação produto-momento de Pearson se destina a medir a similaridade entre pares de variáveis quando uma delas varia quase linearmente em função da outra. Mas isso não acontece entre os pares de ativos no Mercado Financeiro. O uso de testes de cointegração também não resolve este problema, mas identifica os casos nos quais o problema esteja presente. Em artigos anteriores, discutimos o uso de Dynamic Time Warping para esta finalidade, e o amigo João Antonio sugeriu e testou o uso de distâncias de Fréchet, em lugar da correlação. Também testamos uma variedade de outras métricas, inclusive subvariantes como Continuous Dynamic Time Warping, que mede não apenas as distâncias aos pontos, mas também as distâncias de um ponto de uma série até a trajetória dos pontos da outra série e Derivative Dynamic Time Warping, que enumera os pontos de cada série.
4. O fato de haver forte correlação entre um par de variáveis não implica relação causal entre elas. A mesma limitação ocorre entre pares de variáveis cointegradas. Alguns autores afirmam incorretamente que a cointegração resolveria este problema, quando na verdade não há nenhuma diferença nesse quesito se comparada à medida de correlação.

Utilizando cointegração, em vez de correlação, não se consegue solucionar nenhum destes problemas. Os testes de cointegração apenas possibilitam identificar os casos nos quais alguns destes problemas estão presentes, tornando possível descartar estes casos, o que muitas vezes constitui uma decisão desvantajosa.

Os 3 gráficos a seguir mostram 3 instrumentos financeiros correlacionados, mas não cointegrados:

cointegracao.png


Podemos observar que as 3 curvas são similares na maior parte do tempo, mas não conservam a amplitude média desta diferença nem a amplitude média de variações nestas diferenças.

Num primeiro momento, a ideia de cointegração pode parecer sedutora e soar como uma solução milagrosa para os problemas observados com o uso da correlação como medida de similaridade, mas na verdade não resolve nenhum dos principais problemas, conforme veremos ao longo deste artigo, no qual analisaremos alguns dos aspectos positivos e dos negativos relacionados ao uso da cointegração. Antes, porém, veremos uma analogia que habitualmente se faz e que também não é muito apropriada:

Para explicar o conceito de ativos cointegrados, uma das analogias que se costuma utilizar é de um bêbado caminhando com um cachorro preso a uma coleira. O homem e o cachorro podem não seguir exatamente o mesmo caminho, mas o cachorro tende a ser puxado de volta para perto do homem e, a longo prazo, tendem a descrever trajetórias similares, sem jamais se afastarem muito um do outro.

Um dos problemas com esta analogia é que a coleira impõe um limite assintótico além do qual a distância entre eles não pode ser ultrapassada, exceto se for rompido o vínculo que os mantém unidos (se o homem soltar a coleira, se ela se romper etc.), mas no mercado acionário não existe esse limite assintótico. Os preços podem se distanciar indefinidamente, sem que o vínculo seja necessariamente rompido.

O que acontece no Mercado é que quanto mais os preços de ativos cointegrados se distanciam, maior é a probabilidade de que voltem a se aproximar, exceto em alguns casos raros, como na época da guerra do Iraque, em que o dinar iraquiano e o rial iraniano eram fortemente correlacionados e cointegrados, mas como a guerra afetou muito mais o Iraque, isso levou os preços a se distanciarem muito mais que o normal e nunca voltaram ao patamar anterior de proximidade.

No caso do Irã e Iraque, o motivo da dissociação entre os ativos foi amplamente conhecido e fácil de prever, porque se sabia da ocorrência da guerra e, com base nesse evento, era possível prognosticar o impacto que teria sobre as cotações. Mas, na maioria dos casos, os motivos que levam à dissociação entre pares de ativos cointegrados são menos visíveis, o que torna difícil saber prontamente quando dois pares deixaram de ser cointegrados, e o atraso na detecção dessa dissociação resulta em perdas. Isso se remenda utilizando stops, que interrompem as perdas se o distanciamento entre os pares continuar aumentando além do limite previsto.

Esta analogia do cachorro preso à coleira, portanto, não é um problema no modelo propriamente, mas sim uma limitação na analogia utilizada para explicar o modelo.

Uma das falhas no próprio modelo é que ao computar spreads, corretagens, aluguel de ações e outras taxas, os lucros efetivos se tornam bem menores, além de a volatilidade nos ganhos e nas perdas ser maior do que se poderia supor.

Outro problema é que a medida de estacionariedade pode ser feita por uma grande variedade de ferramentas estatísticas diferentes e de critérios diferentes. Há muitos testes de hipótese que podem ser utilizados para verificar se um par de variáveis pode ser interpretado como cointegrado, entre os quais os seguintes: Engle-Granger, Philips, Stock-Watson, Phillips-Ouliaris, trajetória de Johansen, máxima verossimilhança de Johansen, Gregory-Hansen, Maki, Hatemmi-J, Shin, Dickey Fuller, Phillips-Perron, KPSS, Schmidt-Perron, Elliott-Rothenberg-Stock, entre outros. Esta diversidade torna as escolhas bastante subjetivas e conduz a resultados que muitas vezes podem ser conflitantes.

A simples escolha dos critérios de qual p-valor deve ser utilizado já interfere dramaticamente no resultado. Se utilizar p-value 0,01 em vez de 0,05 como cut-off, por exemplo, pode-se aumentar a confiabilidade às custas de reduzir o número de oportunidades, e vice-versa. O número de pares de ativos e de períodos que atenderiam a um critério de estacionariedade forte e um p-value 0,01 seria muito menor do que se utilizasse como critério a estacionariedade fraca e um p-value 0,05. Por outro lado, neste segundo caso o número de falsos positivos seria muito maior.

Os problemas elencados acima são bem conhecidos e geralmente são computados nos cálculos, sem causar grandes surpresas. Mas além destes há também dois problemas (pelo menos dois), que pude pensar até o momento, depois de uma breve análise, e certamente há muito mais do que dois, se investigar o caso mais profundamente. Analisarei, a seguir, estes dois problemas:

Problema 1:

Os métodos utilizados para medir estacionariedade dependem do time frame considerado, do trecho histórico considerado, entre outros fatores. Por isso um par pode ser considerado cointegrado de 1987 a 1999, mas não cointegrado de 1999 a 2008 e depois voltar a ser cointegrado de 2008 a 2018, e novamente deixar de ser cointegrado. No conjunto do histórico de 1987 a 2021 seria não-cointegrado, mas considerando isoladamente alguns intervalos relativamente extensos, de cerca de 10 anos cada, seria classificado como cointegrado em alguns destes intervalos.

Isso significa que partindo de um histórico de 1987 a 1997, poder-se-ia aprovar o par como sendo cointegrado e começar a aplicar a estratégia, que funcionaria até 1999. Em 1999 não seria notado imediatamente que o par deixou de ser cointegrado, seria necessário reunir dados durante alguns anos para que essa propriedade estatística passasse a se manifestar como ausente naquele trecho histórico. Então o método ficaria gerando prejuízos de 1999 até, digamos, 2002, quando se teria reunido dados suficientes para verificar que o par deixou de ser cointegrado. Então este par deixaria de ser usado no portfólio, mas continuaria a ser monitorado. Em 2008 voltaria a ser cointegrado, mas novamente essa propriedade não seria visível imediatamente, seria necessário coletar mais dados até que ela emergisse claramente. Em 2010 começaria a ficar claro que aquele par voltou a ser cointegrado e a estratégia indicaria sua re-inclusão no portfólio. Então voltaria a produzir lucro até cerca de 2018, quando deixaria de ser cointegrado, mas novamente o efeito não seria percebido imediatamente e ficaria alguns anos sofrendo perdas. E assim sucessivamente.

Se os intervalos de duração de cada período de cointegração fossem mais curtos que 10 anos, então a duração das transições seria percentualmente maior em relação aos períodos de estabilidade, reduzindo ainda mais os lucros efetivos. Por isso o sucesso dessa estratégia, na prática, acaba sendo muito mais modesto do que na teoria.

Problema 2:

A estacionariedade dos resíduos não é tão importante para determinar se convém ou não fundamentar uma estratégia na hipótese de reaproximação de pares cointegrados ou correlacionados. A estacionariedade dos resíduos apenas ajuda a modelar com mais acurácia e fazer melhores previsões sobre qual é a probabilidade de as cotações voltarem a se aproximar. Um critério mais útil consiste em selecionar pares cuja amplitude de variação ultrapassa a soma dos custos com cada operação (spread + corretagem) numa maior proporção e as cotações dos ativos regressem mais rapidamente para perto uma do outra, assim se economiza custódias ou swaps e se tem retornos mais rápidos. Essa propriedade, mesmo em ativos que não estejam cointegrados, é mais importante do que o fato de estarem cointegrados.

O motivo é simples: mesmo que um par não esteja cointegrado, desde que a distribuição dos resíduos não seja excessivamente caótica, a distribuição histórica destes resíduos possibilita ter uma ideia razoável sobre a amplitude de variação nas distâncias e a partir de que distância a probabilidade de reaproximação é alta. A única vantagem da estacionariedade é que a distribuição dos resíduos fica aderente a uma distribuição normal e isso permite calcular com mais acurácia qual será a probabilidade de continuar se distanciando em contraste à probabilidade de começarem a se reaproximar. Mas esta propriedade é menos útil do que o tamanho típico de variação nos distanciamentos ser muito maior que os custos com cada operação, bem como é menos importante que a rapidez com que os preços voltam a convergir depois de cada afastamento.

De forma resumida, não importa tanto saber que o lucro esperado é algo entre 2,45% e 2,65% com 95% de probabilidade de ficar nesse intervalo. É preferível saber que o lucro ficará entre 8% e 14% com 68% de probabilidade. Ou seja, não importa tanto que a incerteza na medida seja menor, desde que a média de longo prazo na rentabilidade seja substancialmente maior. Claro que há um limite a partir do qual a incerteza se torna tão grande que há probabilidade significativa de retornos negativos, e nestes casos de não-estacionariedade em nível muito selvagem, deve-se descartar os pares de ativos que apresentam essas características. Mas em casos “normais” de não-estacionariedade, os critérios citados acima são mais importantes que os critérios habitualmente utilizados.

Isso significa que o uso de cointegração, em lugar de correlação, não melhora significativamente a qualidade da estratégia de long-short. Apenas se cria a ilusão de possuir um controle maior da situação, que permite fazer previsões mais acuradas com base nos parâmetros da distribuição. Mas o objetivo não é – ou pelo menos não deveria ser – tornar os resultados mais previsíveis nem tornar as previsões mais acuradas, mas sim maximizar a relação lucro/risco. E para maximizar esta relação, os critérios devem ser os que comentei acima. O detalhe de que a modelagem da distribuição será um pouco mais difícil é de importância menor, mesmo porque há uma grande variedade de distribuições, além da gaussiana, que podem ser utilizadas para modelar séries temporais não-estacionárias.

Outro ponto a ser considerado é que quando a distribuição dos resíduos é muito heteroscedástica, então mesmo que sua tendência central se conserve aproximadamente constante, isso é pior do que se fosse homoscedástica com uma variação aproximadamente constante na posição da tendência central, porque a variação na amplitude da distribuição das distâncias é geralmente mais difícil de prognosticar com base no histórico do que a variação na posição da tendência central.

Além disso, se uma série não-estacionária tiver um crescimento aproximadamente constante ao longo do tempo, é bastante fácil compensar esse crescimento e tratá-la exatamente como se fosse estacionária, estimando qual será a média futura com base no histórico conhecido de como as médias evoluem ao longo do tempo. Porém se a volatilidade cresce ao longo do tempo, sabe-se apenas que a amplitude está crescendo nas duas direções e isso aumentará as incertezas, mas não se tem dados úteis para corrigir este efeito, como no caso de uma série não-estacionária cuja média varie de maneira modelável e previsível.

Na imagem a seguir, podemos ver um exemplo de distribuição de resíduos com estacionariedade forte (a tendência central e a dispersão permanecem aproximadamente inalteradas ao longo do tempo):

nao4.png

E a seguir um exemplo no qual a tendência central varia uniformemente ao longo do tempo, portanto não é uma série estacionária:

nao4.png


Embora nesse caso a distribuição também não seja estacionária, é praticamente tão fácil modelar estes dados quanto os da série anterior, porque a maneira como a tendência central varia é fácil de prever e de modelar.

Vejamos mais um exemplo, agora como uma tendência central estável, mas a dispersão variando de maneira não cumulativa e não-periódica:

nao4.png


Nesse caso, além de a modelagem ser mais difícil, não há dados suficientes para assegurar que o modelo seja adequado, pois não está claro se a dispersão voltou a aumentar, se continuará aumentando até perto do máximo anterior e em seguida voltará a se estreitar, ou se continuará a se alargar indefinidamente, entre outras possibilidades.

No próximo exemplo de não-estacionariedade é ainda mais difícil de modelar, porque a tendência central muda de posição de uma maneira que não é possível modelar com uma função suave com poucos parâmetros, e ao utilizar muitos parâmetros na modelagem não há como saber se o modelo continuará fornecendo estimativas seguras para a posição da média quando forem considerados casos fora do intervalo utilizado no cálculo dos parâmetros.

nao4.png


Seguem mais dois exemplos de não-estacionariedade difíceis de modelar, porque embora a tendência central permaneça aproximadamente inalterada, a dispersão oscila sem seguir um padrão que possa ser facilmente reconhecido e modelado:


Seguem mais dois exemplos de não-estacionariedade difíceis de modelar, porque embora a tendência central permaneça aproximadamente inalterada, a dispersão oscila sem seguir um padrão que possa ser facilmente reconhecido e modelado:


Mas o tipo de não-estacionariedade mais frequentemente observado no Mercado Financeiro não costuma ser nenhum destes. O tipo mais comum envolve variações sazonais e cumulativas que são relativamente fáceis de modelar.

Por isso, dependendo do tipo de não-estacionariedade, isso nem sequer afeta a acurácia nas previsões, embora, em alguns casos, isso possa realmente representar um impedimento para a modelagem.

O que podemos concluir é que estamos diante a um erro relativamente básico cometido pelo ganhador do Nobel, que se equivocou ao interpretar essa situação, e incrivelmente a humanidade inteira tem reincidido no mesmo erro durante 40 anos, sobre quais são os fatores relevantes para selecionar pares de ativos promissores para long-short. Isso não anula o fato de que a estratégia-base tem esperança matemática positiva, porém é bem menos lucrativa do que poderia ser e o uso de cointegração não oferece uma vantagem substancial em comparação ao uso de correlação, podendo inclusive, em alguns casos, ter desvantagem.

Apesar dessa falha, a ideia tem seduzido cada vez mais seguidores desde 2003, quando Granger foi distinguido com o Nobel, e isso explica um dos efeitos observados cerca de 2 anos depois, quando grandes fundos começaram a adotar essa ideia e afetar o comportamento natural do Mercado. Por isso os tamanhos dos candles começaram a diminuir e estes efeitos começaram a se tornar visíveis desde 2005.

Há muitos fundos e gestores movimentando grandes volumes – e volumes crescentes –, baseados nesta estratégia, e isso está reduzindo a volatilidade nos Mercados. Não encontrei dados detalhados e acurados sobre a rentabilidade média que esses fundos estão obtendo com isso, mas uma estimativa preliminar sugere algo perto de 4,5% ao ano. Embora não seja muito, é cerca de 3 vezes mais do que se consegue com Buy & Hold e 2,5 vezes o que se consegue com otimização de portfolios de Markowitz.

Com o crescimento no número de agentes que utilizam esta estratégia, e o aumento no volume total negociado por estes agentes, toda vez que um forte movimento de tendência começa a se configurar, vários destes agentes entram na direção contrária, apostando que o preço retornará para a média, e influenciam os preços nesse sentido.

Para lidar com essa situação, adotaremos duas providências, uma simples e imediata, enquanto a outra requer algumas investigações para reunir dados suficientes antes de ser adotada:

1. A solução simples: desenvolver uma pequena estratégia de long-short para operar simultaneamente com a estratégia do Saturno V. Assim, embora essa estratégia seja aproximadamente inerte, nos momentos em que o Saturno perderia ela deverá ganhar e atenuar as perdas. E nos momentos que o Saturno ganhar ela deverá somar mais alguns pequenos ganhos.

2. A solução elaborada: modificar a estratégia do Saturno V de modo a incorporar estes efeitos como filtros complementares para os critérios de entrada e saída. Isso não deve ser tão simples nem tão rápido, mas deve proporcionar uma melhora bastante significativa nas performances e uma redução nos riscos.

Em resumo, a seleção de pares de ativos cointegrados é um critério inadequado para compor um portfólio. Os fatores que representam de fato desvantagens e deveriam ser utilizados como critérios são:

1. A amplitude máxima de afastamento entre cada par de ativos precisa ser grande em comparação aos custos (corretagens, spreads, swaps, custódia etc.).
2. A frequência com que ocorrem as oscilações de maior amplitude precisa ser grande.

Portanto a estratégia de long-short utilizando cointegração funciona, mas não tão bem quanto se costuma alardear e não é muito melhor que a simples utilização da correlação, podendo inclusive resultar em performances piores que o uso da correlação, por filtrar pares de ativos que deveriam ser selecionados por atenderem aos critérios relevantes.