Artigo técnico

Home/Artigo técnico/Um Modelo de Precificação Relativa para o Mercado de Taxas Reais no Brasil
Um Modelo de Precificação Relativa para o Mercado de Taxas Reais no Brasil 2017-03-20T15:40:01+00:00

Project Description

Um Modelo de Precificação Relativa para o Mercado de Taxas Reais no Brasil

1.Introdução

A metodologia Rich/Cheap de valor relativo visa detectar desvios entre o preço observado dos títulos e o preço do modelo. O objetivo é comparar o preço de risco de duration dos títulos no universo do mercado de renda fixa brasileiro, a fim de identificar potenciais excessos. Trata-se de um modelo de precificação relativa de títulos, dado que compara as taxas ao longo da curva visando descobrir quais vértices estão sobreprecificados/subprecificados.

No exterior, tal classe de modelos é amplamente utilizada pela indústria, embora, na maioria dos casos, não seja acompanhada da devida validação estatística. Neste artigo, nós desenvolvemos e testamos o modelo Rich/Cheap para títulos indexados à inflação, que, a despeito de seu tamanho e importância, receberam relativamente pouco espaço na literatura. Não obstante as restrições de venda a descoberto no mercado de taxas locais, nossos resultados mostram que o modelo tem poder para detectar distorções que aparecem com frequência na estrutura a termo de taxas reais. Vamos além da análise padrão da literatura de finanças e testamos a robustez dos nossos resultados com técnicas de fronteira. Em suma, a inovação do trabalho consiste na análise sistemática de estratégias de precificação relativa com dados brasileiros, bem como na verificação de sua validade fora da amostra.

Este texto para discussão está estruturado da seguinte maneira. Na próxima seção, fazemos uma breve revisão da literatura relevante. Na seção 3, descrevemos a metodologia para estimação da estrutura a termo e a estratégia dela derivada. Na seção 4, descrevemos a base de dados utilizada em nossas simulações, e, na seção seguinte, apresentamos os resultados da estratégia Rich/Cheap sob diferentes medidas de desempenho. A seção 6 testa a robustez dos resultados com foco no desempenho fora da amostra do portfólio Rich/Cheap. A última seção resume nossos resultados e conclui.

2. Revisão da literatura

O artigo seminal sobre técnicas de precificação relativa para títulos é Sercu e Wu (1997). Eles estimam modelos diários da classe afim (Vasicek, 1977; Cox, Ingerson e Ross, 1985) de ativos do governo belga entre 1991 e 1992. Seus testes de regressão revelam que parte dos desvios entre o preço observado e o preço do modelo era revertida nos dias seguintes, sugerindo que os resíduos contêm informação sobre erros de precificação genuínos. Eles testam, então, uma estratégia de compra de títulos subprecificados e venda de títulos sobreprecificados, concluindo que tal estratégia é lucrativa. O excesso de retorno médio sobre posição aplicada nos títulos é de 3-9%, em um período de 18 meses. Nossas simulações são baseadas em seu trabalho, porém modificamos a estratégia para melhor adaptá-la ao mercado brasileiro.

Desde seu trabalho, poucos artigos testaram empiricamente o poder preditivo de modelos de estrutura a termo. Um exemplo é Ioannides (2001). O autor compara diferentes métodos de estimação da curva de juros britânica utilizando dados diários de janeiro de 1995 até o mesmo mês de 1999. Além das estatísticas de teste usuais, ele simula estratégias de negociação cujos sinais são extraídos dos resíduos de cada modelo. A análise de seus retornos revela que representações parcimoniosas da estrutura a termo apresentam performance superior àquelas baseadas em modelos de splines. Nossa escolha de representação exponencial da estrutura a termo se baseia em seus resultados. A partir da curva estimada, extraímos os sinais utilizados pelos algoritmos testados.

No Brasil, autores como Almeida et al. (2008) aplicaram o modelo de Nelson e Siegel para prever a estrutura a termo brasileira. A maioria dos artigos foca na curva nominal (futuros de DI), e, até onde sabemos, nenhum artigo analisou o desempenho de estratégias de precificação relativa no mercado de taxas reais brasileiro.

3. Metodologia

De maneira geral, a metodologia pode ser considerada um procedimento em dois estágios: (1) estimação do modelo de estrutura a termo no corte transversal para cada dia; e (2) extração de sinal dos resíduos obtidos no primeiro estágio.

Dentro da família de modelos paramétricos, Nelson e Siegel (1987) propuseram uma forma exponencial para a estrutura a termo. A curva teórica é suficientemente flexível para acomodar os diversos formatos assumidos pela curva, incluindo períodos nos quais a estrutura a termo é não-monotônica, apresenta um pico ou está invertida. Eles postulam a forma funcional abaixo para a taxa a termo r(m) no período m:
formula01_art1_ed4

Os parâmetros a serem estimados compreendem tanto os betas quanto o lambda. Essa especificação vem de uma função de Laguerre que consiste de polinômios multiplicados por um termo de decaimento exponencial governado pelo parâmetro λ. Integrando em relação à m, chegamos à curva à vista:

formula02_art1_ed4

O modelo é uma explicação intuitiva sobre os parâmetros. Beta0 é o fator associado com o nível da estrutura a termo. Ele captura deslocamentos paralelos da curva. Beta1 é o fator associado com a inclinação e, portanto, determina movimentos de aumento/redução da inclinação (steepening/flattening). Beta3 é o fator de curvatura, responsável por mudanças na concavidade da curva. Mais tarde, Svensson (1994) estende o modelo original de Nelson e Siegel, com o intuito de aumentar sua flexibilidade, adicionando dois parâmetros extras:

formula03_art1_ed4

Esse modelo é largamente utilizado entre participantes do mercado e bancos centrais (por exemplo, o Banco Central Europeu, o Banco da Inglaterra e o Banco do Canadá). Doravante, nos referimos a tal modelo como modelo NSS. A vantagem principal de tal modelo é a habilidade de sintetizar em poucos parâmetros os efeitos de mudanças no ambiente macroeconômico sobre o comportamento da curva de juros. Há uma extensa literatura sobre a análise fatorial da dinâmica das curvas de juros na literatura financeira. Artigos seminais incluem o modelo de três fatores de Litterman e Scheinkman (1991) e também o procedimento de dois estágios de Diebold e Li (2006). Em suma, um modelo bem estimado captura os efeitos de mudanças nos fundamentos econômicos sobre a estrutura a termo, o que implica que divergências entre as taxas estimadas pelo modelo e as efetivamente realizadas refletem distorções de mercado que reverterão no curto prazo. Todavia, parte dessa divergência pode ser causada por uma especificação incorreta do modelo, o que torna imperativo o uso de inferência estatística para separar as duas fontes de ruído; esta contém informação valiosa para gestão de ativos de renda fixa, enquanto aquela pode gerar sinais errôneos.

Para cada dia útil, a curva NSS é estimada utilizando preços de fechamento. Utilizamos a fórmula usual de fluxo de caixa descontado para determinar o preço do título i no dia t:

formula04_art1_ed4

Pi,t é o preço, Ci,j,t é o fluxo de caixa pago na data t, Єi,t é o erro de precificação, mi,j é o período no qual o pagamento é feito ao detentor do título (base de 252 dias úteis), e dt (mi,j) é a curva de desconto:

formula05_art1_ed4

A Associação Brasileira das Entidades dos Mercados Financeiro e de Capitais (Anbima) utiliza uma função de perda quadrática para estimar os parâmetros do modelo NSS (Anbima, 2010). Os estimadores resolvem o seguinte problema de otimização:

formula06_art1_ed4

Como argumentam Bolder e Stréliski (1999), o alto nível de não-linearidade da função objetivo torna as estimativas dos parâmetros dependentes das condições iniciais do algoritmo de minimização. Portanto, é necessário um método de otimização robusto, que evite falsa convergência, isto é, a situação na qual o método fica preso em um mínimo local, em vez do global. Gimeno & Nave (2006) propõem utilizar algoritmos genéticos (Holland, 1975) para aprimorar a estabilidade das estimativas, em vez de métodos mais tradicionais (ex: mínimos quadrados não lineares). De acordo com os autores, heurísticas genéticas possuem a vantagem de ser menos sensíveis às condições iniciais utilizadas, reduzindo, portanto, os riscos de falsa convergência. As estimativas mostraram maior estabilidade dos parâmetros ao longo do tempo, aumentando a confiabilidade da curva de desconto estimada e dos resíduos utilizados por nossa estratégia. O gráfico 1 apresenta a curva estimada em março de 2016.

  • Gráfico 1

Após essa visão geral da metodologia NSS, apresentamos, agora, nosso método para processar a informação contida na curva estimada e gerar oportunidades de trading. De maneira geral, nosso objetivo é identificar potenciais excessos que surgem no mercado e se posicionar para explorá-los. Para tanto, computamos, para cada vértice da curva, os desvios das cotações de seus correspondentes valores teóricos (isto é, os valores calculados a partir da curva estimada para aquele dia) para cada dia disponível em nossa amostra.

Semelhante à abordagem de Sercu e Wu (1997), utilizamos esses desvios para testar a performance de uma estratégia contrária, que consiste em vender os títulos sobreprecificados e manter posição aplicada nos demais. Dado que utilizamos preços de fechamento, existe uma defasagem entre o dia de construção da curva e a efetiva implementação da estratégia. Chamamos o portfólio construído de tal maneira de “portfólio Rich/Cheap”. Ademais, analisamos também um portfólio alternativo, no qual as posições aplicadas/tomadas em cada título são ponderadas de acordo com a magnitude do respectivo resíduo. Assumindo-se que a curva esteja bem estimada, os resíduos formam um processo estacionário. Quanto maior o desvio computado em determinado dia, mais provável é a reversão a zero (a média do processo). Por esse motivo, é razoável aumentar a exposição naquelas maturidades que apresentam os maiores desvios. Chamamos esse portfólio ponderado de “portfólio Rich/Cheap modificado”.

A construção acima mencionada tem por objetivo lucrar com distorções nos preços surgidas de excessos no mercado. Se o desvio estimado é devido a erro de especificação do modelo da estrutura a termo, não esperamos que ele seja informativo e nem que tenha valor estratégico. Por outro lado, se o desvio corresponde a um excesso genuíno nos preços, esperamos que as forças do mercado ajam no sentido de corrigi-lo ao longo do tempo. Portanto, uma estratégia contrária bem calibrada pode lucrar com essas oportunidades. Além disso, há a necessidade de fazer um teste de significância estatística dos desvios de cada vértice, a fim de filtrar os sinais espúrios. Em outras palavras, nossa estratégia deve incorporar um critério estatístico para selecionar as “verdadeiras” oportunidades que surgem da interação entre os agentes do mercado e que provavelmente irão reverter.

Alguns títulos apresentam desvios persistentes da curva estimada pelo modelo, que podem ser causados por fatores técnicos, como liquidez. Dado que tais fatores não são controlados na metodologia NSS, utilizamos testes de hipótese para averiguar se determinado desvio é idiossincrático (persistente) ou não. Mais precisamente, para cada dia, calculamos a média e o desvio-padrão utilizando os 55 dias úteis imediatamente anteriores. É importante excluir a última informação disponível para garantir um teste fora da amostra. Com essa informação, computamos uma estatística t doravante chamada de Z score.

O gráfico 2 apresenta os Z scores estimados junto de um valor crítico de 1,3. Normalizar pelo desvio padrão ajusta a estatística de teste de tal forma que todos os vértices podem ser comparados na mesma escala, em termos de volatilidade. Para melhor verificar em que medida os desvios são significantes, o gráfico 3 apresenta a mesma informação, em termos de taxas e intervalos de confiança. Essa representação é mais intuitiva, dado que utiliza taxas cotadas, em vez de um Z score adimensional, facilitando a visualização dos sinais gerados pelo modelo. A escolha do valor crítico baseou-se nos resultados de nossas simulações (backtesting). Para o teste de robustez de nosso procedimento, ver a seção 6.

Virtualmente, quase todas as taxas apresentam algum desvio da curva estimada, o que é natural, dado que o modelo NSS é uma aproximação para a verdadeira curva de desconto. De forma geral, sempre existirá algum erro de precificação, dado que o modelo não controla para todos os fatores que afetam o preço de determinado título (ex.: liquidez, taxação). Não obstante, quando se utilizam os resíduos do modelo NSS para alimentar um algoritmo de trading, é necessário separar sinal de ruído. Como exemplificado pelo gráfico 3, somente um subconjunto dos desvios é informativo, ao passo que os demais são espúrios, dado que se situam dentro do intervalo de confiança. A análise econométrica desses desvios ao longo do tempo produz valiosa informação sobre se os títulos estão sobreprecificados, subprecificados ou nenhum dos dois, vis-à-vis a curva de desconto subjacente.

  • Gráfico 2
  • Gráfico 3

4.Dados

Nossa análise estende-se sobre o período que começa em novembro de 2010 e vai até fevereiro de 2016, contendo 1.328 dias de negociação. Os dados de preços foram obtidos da Bloomberg, e os coeficientes da curva NSS foram estimados pela Anbima. As tabelas abaixo apresentam as estatísticas descritivas dos retornos diários em valores percentuais (utilizando preços limpos) para algumas maturidades. A NTN-B 2019 e a 2023 foram emitidas em janeiro de 2014 e, portanto, têm um histórico menor que as demais. A média dos retornos diários é aproximadamente igual para todas as maturidades consideradas (1-3 p.b.), mas a volatilidade varia substancialmente – bem como os momentos de ordem maior.

Nossa amostra contém um período particularmente volátil para as taxas locais (tanto nominais quanto reais). Os gráficos 4 e 5 apresentam o histograma de retornos diários de um vértice curto (agosto 2022) e um benchmark para a ponta longa (agosto 2050). As diferentes características das distribuições de retornos de cada vértice fazem imperativo o uso de uma estratégia flexível o bastante para incorporar as diferentes razões ruído-sinal ao longo da curva. De fato, a distribuição de retornos da NTN-B longa apresenta maior volatilidade e também maior número de observações extremas.

  • Gráfico 4
  • Gráfico 5

5. Desempenho da estratégia

No Brasil, diferentemente de outros mercados latino-americanos, a prática é cotar preços “sujos”, isto é, incluindo os juros dos pagamentos de cupom. Neste texto para discussão, optamos por utilizar preços limpos, removendo os juros relativos ao cupom dos preços antes de computar retornos. Seguimos a convenção de acumulação linear da taxa de cupom ao longo do semestre. Na análise que segue, comparamos o desempenho acumulado de posições aplicadas em cada vértice, com a estratégia que vende a descoberto o título nos dias em que o modelo sinaliza que ele está sobreprecificado, ou seja, quando o modelo sinaliza que o título está “rich”.

Os gráficos 6 e 7 apresentam o retorno acumulado da estratégia Rich/Cheap e de uma posição aplicada simples ao longo do período que vai de maio de 2015 até fevereiro de 2016. Reportamos os resultados para um vértice curto (NTN-B 2022) e um longo (NTN-B 2050). Os retornos são computados a partir dos preços de fechamento e não consideram custos de transação, tais como taxas de corretagem e impostos. Os resultados sugerem que nossa metodologia apresenta desempenho superior do que posições aplicadas puras tanto para o segmento intermediário quanto para a ponta longa da curva. Isso é especialmente verdade para a NTN-B 2050, uma maturidade cuja volatilidade aumentou sensivelmente no período entre o fim de julho de 2015 (após a primeira revisão da meta de superávit primário) e meados de agosto do mesmo ano (acompanhando as incertezas surgidas da mudança de política cambial chinesa). Embora não seja possível evitar completamente sinais errôneos, essa análise preliminar sugere que a metodologia Rich/Cheap tem potencial para entregar bons resultados.

  • Gráfico 6
  • Gráfico 7

Esse ponto fica mais evidente ao se observar os índices de Sharpe de cada título testado. Para computá-los, utilizamos a taxa CDI média de 2015 como aproximação para a taxa livre de risco. O gráfico 8 mostra que a nossa metodologia gerou retornos ajustados ao risco (exceto a NTN-B 2017), ao passo que posições aplicadas em todos os vértices sofreram perdas durante o período. Alguns títulos apresentaram desempenho relativamente superior, como a NTN-B 2045, cujo índice de Sharpe anualizado é maior do que 4 – um valor excepcionalmente elevado.

  • Gráfico 8

Não obstante tais resultados, a estratégia Rich/Cheap obtém melhor desempenho quando é utilizada para construir os portfólios descritos na seção 3. Pode-se aumentar os retornos ao se explorar os eventuais sinais de sobreprecificação que surgem ao longo da curva a cada dia. O gráfico 9 compara os retornos acumulados de um portfólio igualmente balanceado, do portfólio Rich/Cheap e de sua versão modificada. Vê-se que ambas as versões do portfólio Rich/Cheap apresentaram retorno superior ao longo do período, e o portfólio modificado teve desempenho ainda maior após meados de outubro.

O gráfico 10 compara os três portfólios no plano risco-retorno. Nessa métrica, novamente ambas as versões de nossa estratégia apresentam desempenho inequivocamente superior ao portfólio igualmente balanceado, porém a comparação entre uma e outra não é imediata. De fato, ao se rebalancear a posição em cada vértice pela magnitude do desvio, a estratégia Rich/Cheap modificada entregou retorno médio anualizado de 36,2%, superior ao da outra versão da estratégia (30%). Por outro lado, tal ajuste dinâmico das posições ao longo da curva também aumenta o impacto de sinais errôneos sobre o retorno diário do portfólio, o que se reflete na maior volatilidade anualizada da versão modificada vis-à-vis o portfólio Rich/Cheap básico (6,1% e 5,3%, respectivamente). O gráfico apresenta também três linhas retas correspondendo a índices de Sharpe iguais a dois e três, utilizando a CDI como aproximação para a taxa livre de risco da economia. O portfólio estático obteve índice menor do que um, ao passo que as estratégias dinâmicas baseadas em nosso modelo entregaram índices superiores a três.

  • Gráfico 9
  • Gráfico 10

Para aprofundar a análise dos resultados, apresentamos os gráficos do tipo boxplot para as três estratégias (gráfico 11). O retorno diário mediano das estratégias Rich/Cheap é muito próximo, sugerindo que o maior retorno médio da versão modificada se deve a valores extremos. Uma parte desses retornos atípicos se concentra entre julho e agosto de 2015 – um período de elevado estresse nos mercados locais. Por outro lado, nossas estratégias apresentam um número substancialmente menor de retornos negativos extremos. Adicionalmente, o intervalo interquartil (distância entre o terceiro e o primeiro quartil) de ambos os portfólios Rich/Cheap é substancialmente menor do que o da carteira balanceada. Isso sugere que a estratégia proposta foi capaz de antecipar, pelo menos parcialmente, alguns dos movimentos diários mais drásticos nas taxas locais em 2015. Temos, assim, outra medida do desempenho ajustado ao risco superior da metodologia, o que é consistente com os resultados anteriores.

Do ponto de vista de um gestor, também é importante ter uma medida de estabilidade do fluxo de retornos. O gráfico 12 apresenta retornos móveis de 90 dias para cada um dos portfólios. Durante o período, o portfólio Rich/Cheap teve melhor desempenho do que a carteira balanceada em quase todos os meses. A divergência fica mais marcante a partir do segundo semestre de 2015, quando as incertezas fiscais e políticas no Brasil impactaram fortemente os mercados de juros locais.

Em suma, os resultados de nossas simulações sugerem que a estratégia Rich/Cheap tem potencial para gerar performance. Não obstante as restrições de venda a descoberto no mercado de renda fixa brasileiro, o modelo pode ser utilizado para aumentar o desempenho de portfólios de renda fixa com exposição a taxas reais. Como exemplo de aplicação prática, um investidor posicionado em um título que nosso modelo estima estar sobreprecificado pode trocar a posição para um vértice próximo que esteja subprecificado. Assim, a metodologia possibilita ampliar o desempenho do portfólio controlando para o risco de duration desejado pelo investidor. Em outras palavras, nossos exercícios econométricos mostram que o modelo de apreçamento relativo discutido neste texto é uma valiosa ferramenta para a gestão ativa de portfólios estruturais. As indicações geradas pelo modelo aprimoram a alocação tática de gestores de renda fixa, possibilitando que eles agreguem mais valor a partir de distorções surgidas no mercado. Entretanto, é crucial checar a robustez de nossos resultados para verificar se o Rich/Cheap de fato tem potencial lucrativo fora da amostra.

  • Gráfico 11
  • Gráfico 12

6. Teste de robustez

O uso de simulações (em inglês, backtesting) é comum tanto no meio acadêmico quanto no mercado. O objetivo é computar a série de ganhos/perdas que uma estratégia de investimento iria gerar caso fosse implementada ao longo de determinado período de tempo. Em geral, a comparação entre estratégias alternativas se dá via comparação de estatísticas de desempenho, como o índice de Sharpe. Nese contexto, é importante traçar uma distinção entre desempenho dentro da amostra (simulado na amostra usada no desenvolvimento da estratégia) e fora da amostra. Quando um investidor recebe uma simulação promissora de um estrategista/analista, ele espera que o desempenho fora da amostra seja tão bom quanto o dentro da amostra.

No entanto, quando se simula o desempenho histórico de uma estratégia, é preciso cautela com o problema de overfitting. É pouco usual um estrategista reportar o número de tentativas por trás da descoberta de uma estratégia “vencedora”. Com os recursos computacionais da atualidade, é relativamente fácil testar milhões, ou mesmo bilhões, de variantes de uma estratégia, descartar as que têm desempenho inferior e reportar somente um subconjunto de estratégias otimizadas (dentro da amostra). Harvey et al. (2014) listam diversos exemplos, na literatura, de fatores de risco nos quais múltiplos testes sobre uma mesma amostra são conduzidos sem se controlar pelo número de tentativas. Bailey et al. (2014) argumentam que o problema de overfitting pode ser a razão pela qual muitos fundos sistemáticos (que utilizam estratégias selecionadas via simulação histórica) frequentemente apresentam desempenho insatisfatório.

Para testar a robustez de nossas simulações de retorno, utilizamos a metodologia de Bailey et al. (2015). Os autores propõem uma técnica de aproximação para a Probabilidade de Overfitting (PO) definida abaixo. Intuitivamente, a PO mede a chance de calibrar a estratégia para lucrar com o ruído passado, em vez do sinal futuro. Estratégias bem-sucedidas geram retorno ao identificar um fenômeno com baixa razão ruído/sinal. Isso acontece porque a competição entre investidores para obter o maior retorno ajustado ao risco possível reduz a dita razão e torna mais desafiador distinguir um padrão robusto de mero ruído amostral. É comum no mercado usar o poder computacional barato disponível para calibrar os parâmetros de uma estratégia de investimento com o objetivo de maximizar a performance. Todavia, essa prática pode gerar resultados espúrios. Como Miller (1981) observa, a probabilidade de encontrar falsos positivos aumenta com o número de testes conduzidos na mesma base de dados.

Escolhemos utilizar tal metodologia, em vez da prática mais comum de reservar uma parte da amostra (conhecida como “hold-out sample” na literatura especializada) para testar o modelo estimado no restante da amostra, por diversas razões. Primeiramente, dado que não existe um padrão aceito para se determinar o tamanho da subamostra de teste, há sempre o risco de que o analista use (de maneira consciente ou não) o comportamento das variáveis financeiras nesse período de teste para desenvolver a estratégia. Em segundo lugar, o método não é apropriado quando a amostra é pequena, como no caso das séries de títulos brasileiros. Em terceiro, mesmo em amostras grandes, a escolha do tamanho adequado da subamostra não é imediata: uma amostra muito pequena fará com que o teste seja inconclusivo; uma amostra excessivamente grande consumirá muita informação, o que prejudica o desenvolvimento da estratégia. Além disso, os resultados de qualquer backtest são sensíveis ao intervalo de tempo escolhido: se a amostra de teste for composta das observações no final da série temporal, perdemos as observações mais recentes; se utilizar as observações do início da série, o teste será feito, provavelmente, na parte da amostra menos representativa. Finalmente, o método não leva em conta o número de estratégias testadas na simulação e, portanto, não pode verificar o quão informativa sobre o desempenho fora da amostra ela é.

No presente contexto, overfitting é definido como a probabilidade de que uma estratégia ótima dentro da amostra tenha um desempenho inferior à mediana das demais configurações testadas. É importante notar que tal definição explicitamente leva em conta a multiplicidade de tentativas (isto é, as diferentes configurações da estratégia testada) feitas pelo estrategista. Ademais, a metodologia é não paramétrica, dado que o conceito de overffiting definido diz respeito ao processo de seleção de estratégias, não ao modelo estatístico subjacente (no nosso caso, o modelo dinâmico de Svensson).

A ideia central consiste em dividir a amostra em conjuntos de “treino” e de teste para estimar o desempenho fora da amostra de uma estratégia selecionada no primeiro conjunto. Os autores definem a estatística logit, que mede a consistência entre o desempenho dentro e fora da amostra. Valores mais altos do logit indicam um baixo nível de overfitting, aumentando a confiabilidade do procedimento de seleção da estratégia.

  • Gráfico 13

Para testar a estratégia Rich/Cheap, utilizamos um procedimento de reamostragem (bootstrap) para simular a distribuição da estatística logit. A probabilidade empírica de a estatística assumir valores negativos constitui um estimador da PO. Aplicamos o método para verificar o quão realística é nossa simulação de retornos. Em outras palavras, buscamos determinar o quão confiantes estamos de que a estratégia é capaz de entregar performance. Testamos 100 configurações do Rich/Cheap, variando o nível crítico do filtro de 1 até 3. O gráfico 13 mostra que a PO estimada (área da distribuição de logits à esquerda do zero) é de menos de 6%, indicando que a performance da estratégia Rich/Cheap apresentada na seção 5 não é produto de ruído amostral.

7. Conclusão

Neste texto para discussão, apresentamos um modelo de precificação relativa para aprimorar o desempenho de portfólios de renda fixa soberana brasileira. Nosso foco foi em títulos indexados ao índice de preço, mas a metodologia também pode ser aplicada para taxas nominais. O Rich/Cheap pode ser usado para identificar títulos sobrevalorizados e subvalorizados, bem como possibilita lucrar com as distorções que surgem no mercado quase diariamente. Nossas simulações mostram que o modelo tem potencial de gerar retornos em excesso sobre posições aplicadas passivas para quase todos os vértices da curva. Ademais, uma estratégia contrária baseada em nosso modelo tem melhor desempenho que um portfólio balanceado. Testamos, ainda, a robustez de nosso backtest e apresentamos evidências de que os resultados obtidos não são fruto de ruído amostral.

Referências

  • Almeida C., Romeu G., Leite A., Vicente J. “Movimentos da estrutura a termo e critérios de minimização do erro de previsão em um modelo paramétrico exponencial.” Revista Brasileira de Economia, 62, n. 4 (2008): 497-510.
  • Bailey, D., J. Borwein, M. Lopez de Prado, J. Zhu. “Pseudo-mathematics and financial charlatanism: The effects of backtest over fitting on out-of-sample performance.” Notices of the AMS, 61 May (2014), 458-471.
  • Bailey, D., Jonathan M. Borwein, Marcos Lopez de Prado, Qiji Jim Zhu. “The probability of backtest overfitting.” Journal of Computational Finance (Risk Journals) (2015).
  • Cox, John C., Jonathan E. Ingersoll Jr., Stephen A. Ross. “A theory of the term structure of interest rates.” Econometrica: Journal of the Econometric Society (1985): 385-407.
  • Diebold, Francis X., Canlin Li. “Forecasting the term structure of government bond yields.” Journal of econometrics, 130, n. 2 (2006): 337-364.
  • Harvey, Campbell R., Yan Liu, Heqing Zhu. “Editor’s choice:… and the cross-section of expected returns.” Review of Financial Studies, 29, n. 1 (2016): 5-68.
  • Ioannides, Michalis. “A comparison of yield curve estimation techniques using UK data.” Journal of Banking & Finance, 27, n. 1 (2003): 1-26.
  • Miller, R.G. Simultaneous Statistical Inference. 2 ed. Springer Verlag, New York,1981. ISBN 0-387-90548-0.
  • Nelson, C., Siegel, A. (1987). Parsimonious modelling of yield curves. Journal of Business, 60(4), 473–489.
  • Litterman, Robert B., José Scheinkman, Laurence Weiss. “Volatility and the yield curve.” The Journal of Fixed Income, n. 1 (1991): 49-53.
  • Sercu, Piet, Xueping Wu. “The information content in bond model residuals: An empirical study on the Belgian bond market.” Journal of Banking & Finance, 21, no. 5 (1997): 685-720.
  • Svensson, L., 1994. Estimating and interpreting forward interest rates: Sweden 1992–1994. International Monentary Fund, Working paper n. 114 (Sep).
  • Vasicek, O. (1977). An equilibrium characterization of the term structure. Journal of financial economics, 5(2), 177-188.

Autores

Eduardo Alonso Marza dos Santos
Eduardo Alonso Marza dos Santos
Economista Sr. (Itaú Unibanco) – Bacharel (FEA-USP) e mestre (EESP-FGV) em Teoria Econômica