Thursday 15 March 2018

Estratégias adaptativas para negociação de alta freqüência


Adaptive + Strategies + for + HFT.


Categoria: Documentos.


JORNAL OF STELLAR MS e E 444 RELATÓRIOS 1 Estratégias adaptativas para o comércio de alta freqüência Os preços de Erik Anderson e Paul Merolla e Alexis Pribula S Tock em trocas eletrônicas são determinados em cada marca por um algoritmo de correspondência que combina compradores com vendedores, que podem ser pensados ​​como agentes independentes que negociam sobre um preço aceitável de compra ou venda. As trocas mantêm um "livro de pedidos", que é uma lista das ordens de compra e solicitação enviadas por esses agentes independentes. Em cada marca, haverá uma distribuição de ofertas e pedirá pedidos no caderno de pedidos. Não só haverá uma variação nos preços de oferta e oferta, mas haverá uma variação no número de ações disponíveis a cada preço. Por exemplo, às 11:00 da manhã, em 12 de fevereiro de 2008, o caderno de pedidos da Chicago Mercantile Exchange continha as cotações do contrato ES, conforme mostrado abaixo: Licitação 1362 1361.75 1361.50 1361.25 1361 Pergunte 1362,25 1362,5 1362.75 1363 1363.25 # Ações de lances 81 610 934 815 1492 # Oferta Ações 79 955 1340 1786 1335 O objetivo deste projeto foi explorar se o caderno de pedidos é uma importante fonte de informação para prever as flutuações a curto prazo dos retornos de estoque. Intuitivamente, seria de esperar que, quando a taxa e o tamanho das ordens de compra excederem o de ordens de venda, o preço das ações teria uma propensão para derivar. Se isso acontece ou não depende, em última análise, de como os agentes reagem e atualizam suas estratégias de negociação. Nossa esperança é que, ao considerar o livro de pedidos, podemos prever melhor os comportamentos dos agentes e seus efeitos sobre a dinâmica do mercado, ao contrário de um método de previsão que não considerou o livro. Houve três fases em nosso projeto. Primeiro obtivemos uma fonte de dados históricos adequada (Seção I), da qual extraímos métricas com base no livro de pedidos (Seção II). Em seguida, desenvolvemos um algoritmo de filtragem adaptativo projetado para predição de curto prazo (Seção III). Para avaliar o nosso método de predição, criamos um ambiente de negociação simulado e testamos uma estratégia de negociação simples para a comercialização (Seções IV, V e VI). Descobrimos que a nossa técnica de previsão funciona bem na maior parte, no entanto, os movimentos de mercado coordenados (às vezes chamados de choques de mercado) muitas vezes resultaram em grandes perdas. A fase final do projeto foi empregar uma técnica de aprendizado de máquina mais sofisticada, máquinas de suporte de vetores (SVMs), para prever próximos choques e desabilitar com dificuldade nossa estratégia de criação de mercado (Seções VII, VIII e IX). Nossos resultados sugerem que a combinação de previsão de curto prazo com gerenciamento de risco é uma estratégia promissora. Também conseguimos concluir que o livro de pedidos, de fato, aumenta o poder preditivo do algoritmo, dando-nos uma vantagem adicional em técnicas de fabricação de mercado menos sofisticadas. I. CONJUNTO DE DADOS DE RESERVAS DE O RADIO Nós exigimos um conjunto de dados apropriado para treinar e testar nossos algoritmos de previsão. Inicialmente, esperamos usar o banco de dados TAQ, no entanto, verifica-se que o TAQ apenas acompanha o melhor lance e a melhor oferta (a denominada cotação interna) em várias trocas. Essas cotações internas múltiplas são, em muitos casos, não equivalentes ao livro de pedidos, uma vez que normalmente, a maior parte da negociação para uma determinada segurança ocorre em uma ou poucas trocas. Nosso conjunto de dados ideal seria um catálogo de pedidos abrangente, que incluirá todos os mercados e limitará a ordem enviada para uma troca, juntamente com todos os detalhes relevantes (por exemplo, hora, preço, tamanho, etc.). Esses conjuntos de dados, de fato, existem, mas atualmente o custo para obter acesso a eles é proibitivo. Os dados para os quais conseguimos ter acesso foram o contrato ES que abrange de 12 de fevereiro de 2008 a 26 de março de 2008; ES é um contrato de futuros Mini S & amp; P negociado na Chicago Mercantile Exchange (CME) que possui um multiplicador em dinheiro de US $ 50. Ao contrário do livro abrangente, nosso conjunto de dados contém aproximadamente três instantâneos um segundo dos cinco melhores lances e ofertas (Figura 1). Há dois pontos a serem observados a partir desta figura: primeiro, é claro que o ES só pode ser negociado em intervalos de 0,25 (representando US $ 12,5 com o multiplicador de caixa), que é uma regra imposta pela troca. Portanto, as cotações de preços do livro de pedidos não fornecem informações adicionais (ou seja, as ordens na fila sempre se sentam a intervalos de 0,25 a partir do orçamento interno); Verificamos o nosso conjunto de dados que este é quase sempre o caso durante as horas de negociação normais. Em segundo lugar, nosso conjunto de dados existe em um quadro centrado na citação. Ou seja, quando a citação interna muda, diferentes níveis da fila são revelados ou cobertos. Na seção a seguir, descrevemos um método para converter de uma moldura centrada em citações para um quadro independente de citações, o que acaba por ser um detalhe importante ao extrair informações do livro. II. E XTRACTING PARAMETROS RELEVANTES DO LIVRO DE ORDEM Aqui, descrevemos duas quantidades que extraímos do livro de encomendas relacionadas à oferta e à demanda: a primeira quantidade que rastreamos foi a soma cumulativa das ordens nas filas de ofertas e ofertas. Em essência, esta soma reflete como JORNAL OF STELLAR MS e E 444 RELATÓRIOS 2 1360 1359,5 1359 Preço 1358,5 1358 1357,5 1357 1356,5 Ask Mid Bid 14:15:04 14:15:12 14:15:21 14:15:30 14: 15:38 14:15:47 14:15:56 14:16:04 14:16:13 Tempo (HH: MM: SS) Fig. 1. Um minuto do livro de encomendas para o contrato ES que mostra as cinco melhores ofertas (azul) e pergunta (vermelho) em 12 de fevereiro de 2008; Os dados foram obtidos no site de fonte aberta jBookTrader [1]. Os instantâneos de mercado chegam de forma assíncrona e são carimbados com uma precisão de milissegundos (arredondado para segundos na figura por clareza). Os volumes de pedidos, que variam de 3 a 1008 neste exemplo, são indicados pelo tamanho de cada ponto. Muitas partes são necessárias para mover uma segurança por um montante específico (muitas vezes referido na literatura como o impacto de preços [2]). Uma analogia útil é pensar nessas ordens em fila como barreiras que confinam o preço de uma segurança dentro de um determinado intervalo. Por exemplo, quando a barreira no lado da compra é maior que a do lado da venda (mais pedidos de compra na fila do que as ordens de venda), podemos esperar que o preço aumente nos próximos segundos. Claro que se isso acontece, em última análise, depende de como essas barreiras evoluem a tempo (ou seja, como os agentes reagem e atualizam suas estratégias de negociação), no entanto, esperamos que conhecer as alturas das barreiras nos ajude a prever melhor os movimentos do mercado. Além da soma cumulativa, também estimamos as taxas a que as ordens se dirigem para dentro e para fora do mercado. Para continuar com a nossa analogia, essas taxas refletem como as barreiras estão mudando de momento para momento, o que pode ser importante para detectar como os agentes reagem em determinadas condições de mercado. De fato, um artigo recente sugere que os agentes modelados como o envio de ordens com uma probabilidade fixa (estatísticas de Poisson) podem explicar uma ampla gama de comportamentos de mercado observados em média [3]. Com base nesse resultado, esperamos que o rastreamento de como essas taxas mudem continuamente pode capturar comportamentos de mercado em uma escala de tempo mais curta. Um problema sutil mas crítico é que quando o mercado muda (ou seja, há uma nova cotação interna), nossas medidas ficam corrompidas porque estamos usando um livro de pedidos centrado na citação. Por exemplo, considere quando o preço mudou de 1358,25 para 1358,5 logo após 14:15:04 na Figura 1. Aqui, a soma cumulativa para a fila de lance de repente diminui de 3517 para 2690 simplesmente porque uma parte da fila agora se tornou coberta (inversamente , a soma cumulativa da fila de perguntas aumentará porque parte da fila agora é revelada). Embora não tenha havido uma mudança fundamental na oferta e na demanda, a nossa soma cumulativa muda em 23%! Existem várias maneiras de corrigir esse salto super flúor - nossa abordagem era simplesmente subtrair a mudança esperada devido a uma mudança de mercado, estimada a partir de observações anteriores. Especificamente, rastreamos como cada nível da fila muda para as 200 mudanças de mercado anteriores (Figura 2) e subtrai a quantidade esperada quando uma mudança foi detectada. Voltando ao nosso exemplo anterior, agora podemos ver isso logo após 14:15:04 na Figura 1, a soma acumulada só mudou de 3517 para 3325 após corrigir a mudança esperada (agora apenas uma variação de 5%). De forma semelhante, também ajustamos nossos cálculos de taxa ao acompanhar a direção da mudança e depois calcular a taxa em níveis de preços vizinhos. III. A DAPTIVE M INIMUM M EAN S QUARED E REDUÇÃO DE PROPRIEDADES DE B EST B ID / A SK P RICES Nesta seção, discutimos o uso de técnicas de estimação de erro quadrado mínimo (MMSE) para prever os melhores preços de oferta ou de oferta M marca o futuro. Podemos estimar o melhor pedido (A) e o melhor lance (B) usando A (k + M) = (k + M) = B xT (k) ca (k) xT (k) cb (k). onde xT (k) é um vetor 1xP de parâmetros da lista de pedidos. Os coeficientes de filtragem variáveis ​​no tempo (ca, cb) podem ser determinados pelo treinamento para o melhor ajuste sobre os conjuntos de dados anteriores L (- (L - 1) ≤ k ≤ 0). Usamos uma função de custo que é uma soma de erros quadrados k C = m = k-L + 1 (y (m) - y (m)) 2 onde y e y são os valores observado e previsto, respectivamente. JORNAL DE STELLAR MS e E 444 RELATÓRIOS 3 0,35 0,3 0,25 Probabilidade 0,2 0,15 0,1 0,05 0 -1500 QD 1 QD 2 QD 3 QD 4 QD 5 -1000 -500 Variação do volume 0 500 1000 Fig. 2. Probabilidade de quanto o volume em uma determinada profundidade de fila (QD) mudou imediatamente após uma mudança de mercado ascendente (ou seja, o melhor lance aumentou); note um QD de 1 representa a cotação interna. Perto da cotação interna (QD's de 1, 2 e 3), há uma inclinação negativa pronunciada que indica que as novas ofertas diminuíram após uma mudança de mercado para cima, enquanto que os lances da citação interna (QD de 4 e 5) são simétricos ao redor 0 sugerindo que eles são menos efetuados por turnos de mercado. Nós também rastreamos essas distribuições para mudanças de mercado descendentes (parcela não mostrada). Os coeficientes de predição são então determinados de ca (k) = QT (k) Q (k) + λI QT (k) y (k) y (k) = (A (k);; A (k - L + 1 )) TQ (k) = xT (k - M); . ; xT (k - M - L + 1) -1 (1) onde y é um vetor Lx1 de observações históricas da variável a estimar, QT é uma matriz P xL dos dados a serem utilizados na estimativa, e λ é para regularização de uma matriz possivelmente mal condicionada QT Q. Observe que no cálculo do vetor coeficiente, as estimativas no tempo k são baseadas no vetor histórico de dados do livro no instante K-M. Equações semelhantes são válidas para o cálculo do vetor coefi - ciente para estimar os melhores preços de oferta. Observe que os coeficientes de previsão são atualizados em cada etapa do tempo para se adaptar às mudanças nos dados. Observe que este método permite que muitos tipos de vetores de entrada sejam usados ​​na previsão dos melhores preços de lances / pedidos na próxima vez. O vetor de entrada x pode consistir nos melhores preços de lances / pedidos, volumes de lances / pedidos ou outras funções ou estatísticas calculadas a partir dos dados em uma janela histórica recente. Aleatoriamente, incluindo vários parâmetros no vetor de entrada, não resultará em um bom preditor; os parâmetros precisam ser escolhidos com rigor. IV. O RADIO C DO RADIO Para testar os algoritmos acima para a criação de mercado, devemos ter algum tipo de metodologia para simular um algoritmo de correspondência de ordem de estoque. Aqui discutimos esta metodologia. Suponhamos que haja uma latência de rede uniforme, de modo que os pedidos de limite destinados ao binário K + M chegam à troca neste binário. Se as ordens de limite de lances no livro no tempo k + M forem maiores do que a melhor ordem de lance dos dados reais durante este intervalo de tempo, então assumimos que as ordens são claras com probabilidade 1. Se as ordens de compra no livro forem iguais ao melhor real Ordem de lance, então as ordens são claras com probabilidade p (doravante a probabilidade de "desobstrução de borda"). As ordens de lances inferiores ao melhor preço de oferta real não são claras e permanecem no livro até que elas sejam apagadas ou até que sejam canceladas. Da mesma forma, peça ordens no livro no tempo k + M que são menores do que o preço real durante esta lixeira com probabilidade 1. Se as ordens de pedido forem iguais ao preço real, então as ordens serão limpas com probabilidade p. Solicite encomendas maiores do que o preço do melhor preço real não limpe e permaneça no livro até que eles desmarquem ou até que sejam cancelados. Tudo isso pressupõe que trocamos pequenas quantidades suficientes para não perturbar o que realmente aconteceu. As simulações de ordem superior requerem dados sobre como seu algoritmo interage com a troca. V. T RADING A LGORITHM Testamos nossos métodos de previsão de preço de oferta / peça usando uma regra de negociação direta que funciona da seguinte forma. Como uma ressalva, esta regra de negociação não é de modo algum otimizada e, certamente, precisa de gerenciamento de riscos para ser construído com ela. Nós o usamos apenas como um meio de manter a pontuação de quão bem os métodos de previsão de preços estão funcionando. No momento k, empregamos 1 / N de nossa capital para enviar uma ordem de lance limite para a bolsa ao preço de oferta previsto. O parâmetro N pode ser considerado como o número de etapas de tempo que inicialmente leva para converter todo nosso dinheiro em estoque, assumindo que todos os pedidos são preenchidos; A propagação de compras ao longo de várias etapas de tempo dá diversidade de tempo à estratégia. Todas as compras são feitas em incrementos de 100 ações com 200 ações sendo o JOURNAL OF STELLAR MS e E 444 REPORTS 4 número mínimo de ações em uma ordem de oferta. Além disso, no momento k, tentamos vender todas as ações que possuímos com um limite para pedir o preço previsto. Os pedidos permanecem na troca até serem preenchidos ou cancelados. Devemos reservar o capital para ordens de compra até que sejam preenchidos ou cancelados. Se os melhores preços de oferta / venda se moverem o suficiente para longe dos pedidos existentes no livro, as ordens são canceladas para liberar o capital alocado para ordens de oferta / pedido a preços mais prováveis ​​de serem preenchidos. Assumimos que as taxas de transação são de 0,35 ¢ / share para ordens de oferta / pedido executadas e também que o cancelamento de pedidos custa 12 ¢. É certo que as taxas são índicas em comparação com o que os fundos realmente pagam. VI. IMPLICAÇÕES DO M ARKET M AKING S Nesta seção, realizamos alguns back-tests aplicando a metodologia conforme discutido acima. Usamos o contrato ES usando alguns dias de negociação em fevereiro e março de 2008. As simulações inicialmente assumem que começamos com 1,5 milhão. A Figura 3 mostra que a riqueza acumulada para o mercado é uma forte função da probabilidade de compensação da borda. As linhas sólidas representam a acumulação de riqueza para uma probabilidade de compensação de bordas de 40%, enquanto que as linhas tracejadas assumem uma probabilidade de 20%; A riqueza aumenta ao longo do tempo com maior probabilidade e diminui ao longo do tempo com menor probabilidade. A abordagem MMSE usando melhores lances / pedidos é comparada com outras duas estratégias de previsão de preços: use o último melhor lance / pedido como uma previsão para o próximo passo e use uma média móvel das melhores ofertas / solicitações. Note-se que a abordagem MMSE aqui não funciona melhor do que as outras duas estratégias mais simplistas. Conforme mostrado na Figura 4, que usa uma probabilidade de compensação de borda de 30%, o uso de dados maiores do livro de pedidos aumenta a lucratividade. A Figura 5 mostra a duração das ordens de oferta / pedido, ou seja, a quantidade de etapas de tempo necessárias para preencher as ordens nas várias estratégias. Também é mostrado quantas vezes os pedidos de etapas permanecem no livro até serem cancelados. Observe que a abordagem de ordem superior tem execuções de ordem de oferta / pedido ligeiramente maiores. A Figura 8 mostra um exemplo de dia de negociação para o contrato ES (3-20-08). As estratégias têm tempos difíceis em tempos de movimentos repentinos de preços como seria esperado - ainda há necessidade de incorporar o gerenciamento de risco. 1,4 1,3 1,2 Riqueza 1,1 1 0,9 0,8 0,7 0 MMSE Média em Movimento Último BBO 1 2 3 Dias 4 5 6 Fig. 3. A riqueza versus o tempo depende da probabilidade de as ordens serem preenchidas no melhor lance / pedido. As curvas sólidas mostram que a riqueza aumenta para uma probabilidade de compensação de borda de 40% enquanto as curvas tracejadas mostram que a riqueza diminui quando a probabilidade é reduzida para 20%. VII. S UPPORT V ECTOR M ACHINES (SVM) Também usamos o Support Vector Machines. SVM resolve o problema da classificação de binário (para mais informações, consulte o capítulo 7 de [4]). Digamos que recebemos dados empíricos: (x1, y1),. (xm, ym) ∈ Rn × onde os padrões xi ∈ Rn descrevem cada ponto nos dados empíricos e as etiquetas yi ∈ nos dizem em qual classe cada ponto do dado empírico pertence. O SVM treina nesses dados para que, quando ele recebe um novo ponto de dados não marcado x ∈ Rn, ele tenta o melhor que for possível para classificá-lo, fornecendo-nos um yn ∈ previsto. A maneira como ele faz isso é usando o melhor soft JOURNAL OF STELLAR MS e E 444 RELATÓRIOS 5 1.1 1.05 1 Riqueza 0.95 MMSE 0.9 Média em Movimento Último BBO Dados de Ordem Elevada 0.85 0 1 2 3 4 Dias Fig. 4. Maior uso de aumento de dados os retornos para uma probabilidade de compensação de bordas de 30%. 5 6 7 8 9 Solicitar ordens Ordens de lances executadas Excluídas BinDepth = 10, TrainDepth = 10, M = 1 2500 MMSE MA 2000 Últimos dados de pedidos superiores BBO 1500 1000 500 0 0 5 Compartimentos de tempo 10 BinDepth = 10, TrainDepth = 10, M = 1 2000 MMSE MA 1500 Últimos dados BBO de ordem superior 1000 500 0 0 5 Compartimentos de tempo 10 100 50 0 0 Solicitar ordens Ordens de lote canceladas Cancelado BinDepth = 10, TrainDepth = 10, M = 1 200 MMSE MA 150 Últimos dados de pedidos superiores do BBO BinDepth = 10, TrainDepth = 10, M = 1 200 MMSE MA 150 Últimos dados BBO de ordem superior 100 50 0 0 10 20 30 Compartimentos de tempo 40 10 20 30 Compartimentos de tempo 40 Fig. 5. Número de etapas de tempo necessárias para preencher ordens de compra / solicitação para 1 dia de negociação. Também é mostrado o número de passos de tempo que as ordens permanecem no livro até serem canceladas. Cada binário é um intervalo de 2 segundos para o contrato ES em 3-20-08. hiperplanos de margem. Ou seja, dados os dados empíricos (x1, y1),. (xn, yn) ∈ Rn ×, o SVM tenta encontrar um hiperavião tal que todos os padrões xi ∈ Rn com o rótulo yi = -1 estarão de um lado deste hiperplane e todos os padrões com rótulos yi = 1 estarão no outro lado. Este hiperplano é um hiperavião de margem ótima no sentido de que ele terá o melhor possível JORNAL OF STELLAR MS & E; 444 RELATÓRIOS 6 1.54 1.53 1.52 1.51 Riqueza 1.5 1.49 1.48 1.47 x 10 6 BinDepth = 10, TrainDepth = 10, M = 1 MMSE MA Últimos dados do BBO de ordem superior 1.46 0 2000 4000 6000 8000 Time Bins 10000 12000 14000 Fig. 6. Um exemplo de dia de negociação (contrato da ES em 3-20-08). Cada vez que o compartimento é um intervalo de 2 segundos e a probabilidade de compensação da borda é de 30%. distância entre o conjunto de padrões yi = -1 e o conjunto de padrões yi = 1. Isso acaba por ser importante porque melhora a capacidade de generalização do classi fi cador (através do uso da Minimização do Risco Estrutural), ou seja, melhora o grau de classificação dos novos padrões não testados. O último termo, hiperplaneamento suave, significa que, se os dados não forem separáveis, as variáveis ​​lentas serão usadas para suavizar o hiperplano e permitir valores esporádicos. Encontrar o ótimo hiperplane de margem suave pode ser feito com o seguinte problema de programação quadrática: w∈Rn, b∈R, ξ∈Rn min 1 2 w 2 + C mmi = 1 ξi sujeito a yi (& lt; w, xi & gt; + b ) ≥ 1 - ξ i, ∀i ∈ Além disso, para poder encontrar limites de separação não-lineares, SVM usa kernels em vez do produto ponto. Ou seja, em vez de computar & lt; xi, xj & gt; Para dois padrões, ele calcula & lt; Φ (xi), Φ (xj) & gt; = k (xi, xj), onde k (·, ·) é um kernel definitivo definitivo (ou seja, para qualquer m ∈ N e para qualquer padrão x1, xm ∈ Rn, A matriz Kij = k (xi, xj) é uma definição positiva). Isso permite que o SVM encontre um hiperplato de separação linear em um espaço dimensional maior e, a partir dele, crie limites de separação não-lineares no espaço de dados original (veja a Figura 7). VIII. I NDEPENDENT C OMPONENT A NALYSIS (ICA) Ao tentar prever choques de mercado (veja abaixo), SVM não era bastante confiável o suficiente. Assim, utilizamos o algoritmo de redução de dimensionalidade de Análise de Componente Independente (ICA) nos dados antes de enviá-lo para o SVM. A forma como funciona é a seguinte. Digamos que temos uma amostra aleatória x1,. xm ∈ Rn distribuído a partir de um vetor aleatório interdependente x ∈ Rn. O objetivo da ICA é transformar linearmente esses dados em componentes s1,. sm ∈ Rp que são tão independentes quanto possível e tal que a dimensão p do si seja menor que a dimensão n do xi original (para mais informações, veja os capítulos 7 e 8 de [5]). Essa transformação é alcançada em duas etapas. Primeiro, branqueamos os dados, ou seja, nós o centramos e m 1 o normalizamos para que possamos obter x1,. xm ∈ Rn amostrado de x ∈ Rn com μ = mi = 1 xi = 0 e tal que a matriz ~ ~ ~ ~ mm 1 1 ~ ~ ~ ~ Σij = mr = 1 xri xrj - μi μj = mr = 1 xri xrj é a matriz de identidade. Em segundo lugar, para encontrar componentes independentes, a seguinte heurística é utilizada. Seja B a matriz que queremos usar para transformar nossos dados, então s = B~. x Pelo teorema do limite central, a soma de duas variáveis ​​aleatórias independentes e idênticamente distribuídas é sempre mais gaussiana do que as variáveis ​​originais. Por conseguinte, para obter s o que é o mais independente possível, a ICA encontra linhas de B de tal forma que os resultados resultantes são tão não gaussianos quanto possível. Isso geralmente é feito através do teste de curtose ou outras características que os gaussianos são conhecidos por não terem. Além disso, ao limitar o número de linhas de B, podemos reduzir a dimensionalidade dos dados. JORNAL OF STELLAR MS e E 444 RELATÓRIOS 7 Fig. 7. Uma ilustração de como o Support Vector Machines divide os dados em duas regiões separadas. Este exemplo é aquele para o qual os dados são perfeitamente separáveis. IX. UMA PPLICAÇÃO DE ICA + SVM PARA P REDUÇÃO DE S HOCK As estratégias de fabricação de mercado são especialmente efetivas durante dias de negociação calmos. Isso ocorre porque eles foram especificamente criados para trocar a propagação quantas vezes for possível, o que funciona muito bem em dias de baixa volatilidade. No entanto, quando ocorrem choques de mercado, os algoritmos entram na espiral de qualquer compra, já que o contrato está em movimento ou vendendo à medida que o contrato está subindo. Na verdade, quando o mercado salta, essas estratégias ainda esperam que faça sentido comprar no fundo do spread, a fim de vender em breve mais tarde em um preço mais alto. Infelizmente, quando ocorre um choque, o mercado não volta e essas ordens simplesmente perdem dinheiro. Para resolver este problema, utilizamos o ICA + SVM para prever a direção do mercado com 1 minuto de antecedência para alertar e parar as estratégias de fazer o mercado a cada 2 segundos antes de ocorrerem choques. A ICA foi aplicada em janelas de dados muito longas (variando de horas para dias) para que ele possa efetivamente encontrar a característica mais interessante dos dados em toda a história do contrato. Em seguida, os resultados foram alimentados em um SVM que operava em janelas menores (variando de minutos a horas). A metodologia de negociação foi a mesma utilizada na seção VI com dados que variam entre 17 de março de 2008 e 26 de março de 2008. O tipo de dados utilizados para fazer as previsões foi: o último melhor lance, o último melhor pedido, a taxa de oferta corrigida e a taxa de percurso corrigida (como explicado na seção II). Finalmente, os parâmetros do SVM e ICA foram otimizados em dados de treinamento de 20 de fevereiro de 2008. Estes foram: 6 componentes independentes para ICA com uma janela de tempo, desde que os dados permitidos, para SVM usamos C = 4, γ = 4 e um treinamento janela de 25 minutos. A escolha da primeira aplicação da ICA nos dados faz sentido por dois motivos. Primeiro, ele reduz os dados e mantém apenas as informações mais relevantes, o que impede o SVM de tropeçar em dados irrelevantes, o que não ajudaria a prever qualquer coisa. A segunda razão para isso é baseada no fato de que uma heurística conhecida de classi fi cadores é que eles apresentam melhor desempenho em dados independentes em vez de dados dependentes. Usar diferentes longas janelas de tempo para ICA e SVM fazia sentido, porque dar mais dados à ICA melhora sua capacidade de criar componentes independentes mais interessantes. Na verdade, o objetivo da ICA é encontrar componentes que sejam tão diferentes quanto possível nos dados. Assim, mais dados significam componentes diferentes possíveis. Isso implica duas coisas para o SVM que usa uma janela de tempo curto do final da janela de tempo dos componentes independentes: primeiro, uma vez que a ICA tinha mais dados, o SVM obtém o benefício de obter melhores componentes independentes, em segundo ao otimizar sua janela de tempo, nós ainda estão dando a SVM a possibilidade de escolher o quão longe os dados relevantes podem ser encontrados. X. C ONCLUSÕES E RELAÇÕES F UTURA Neste relatório, discutimos estratégias adaptativas para o comércio de alta freqüência. Mostramos que o uso do livro de pedidos pode aumentar a lucratividade das estratégias de negociação em abordagens de primeira ordem. Além disso, propusemos um método para ajudar a reduzir o impacto de choques de mercado que usam o Support Vector Machines e Independent Component Analysis. Embora ainda haja novos testes, esses métodos são promissores. Outras orientações de pesquisa incluem otimizar a regra de negociação a ser usada em conjunto com o preditor de preços e incorporar gerenciamento de risco adicional acima e além de um preditor de choques de mercado. Além disso, o método Support Vector Machine pode ser otimizado (ajustes dos dados de entrada, variando a janela de treinamento, etc.). JORNAL DE STELLAR MS e E 444 RELATÓRIOS 8 Fig. 8. Exemplo de dias de negociação (Contrato ES em 3-17-08 até 3-26-08) para o SVM (linha pontilhada preta fina) em comparação com outros preditores de primeira ordem. R EFERENCES [1] code. google/p/jbooktrader/. [2] V. Plerou, P. Gopikrishnan, X. Gabaix e H. E. Stanley, "Quantificando a resposta preço-estoque às fl uctuações da demanda", Phys. Rev. E, vol. 66, não. 2, p. 027104, agosto de 2002. [3] J. D. Farmer, P. Patelli e I. I. Zovko, "O poder preditivo de zero inteligência nos mercados financeiros". Procedimentos da Academia Nacional de Ciências, vol. 102, não. 6, pp. 2254-2259, fevereiro de 2005. [4] B. Scholkopf e A. Smola, Learning with Kernels, Support Vector Machines, Regularização, Otimização e além. Boston, Massachusetts: MIT Press, 2002. [5] A. Hyvarinen, J. Karhunen e E. Oja, Independent Component Analysis. Nova York, Nova York: John Wiley and Sons, 2001.


JORNAL OF STELLAR MS & amp; amp; E 444 RELATÓRIOS 1 Estratégias adaptativas para o comércio de alta freqüência Erik Anderson e Paul Merolla e Alexis Pribula S Tock preços em intercâmbios eletrônicos ...


Estratégia de negociação de alta freqüência baseada em redes neurais profundas.


Andrés Arévalo Email autor Jaime Niño Alemão Hernández Javier Sandoval.


Este artigo apresenta uma estratégia de alta freqüência baseada em Redes Neurais Profundas (DNNs). O DNN foi treinado na hora atual (hora e minuto) e \ (n \) - pseudo-retornos de um minuto, desvios padrão de preços e indicadores de tendência para prever o próximo preço médio de um minuto. As previsões do DNN são usadas para construir uma estratégia de negociação de alta freqüência que compra (vende) quando o próximo preço médio previsto está acima (abaixo) do último preço de fechamento. Os dados utilizados para treinamento e teste são as transações AAPL tick-by-tick de setembro a novembro de 2008. O DNN mais encontrado possui uma precisão direcional de 66%. Esta estratégia produz 81% de negócios bem sucedidos durante o período de teste.


Referências.


Informações sobre direitos autorais.


Autores e afiliações.


Andrés Arévalo 1 Email autor Jaime Niño 1 Alemão Hernández 1 Javier Sandoval 2 1. Universidade Nacional de Colômbia Bogotá Colômbia 2. Instituto de Pesquisa Algocodex Universidad Externado Bogotá Colômbia.


Sobre este artigo.


Recomendações personalizadas.


Cite o papel.


.RIS Papers Reference Manager RefWorks Zotero.


.BIB BibTeX JabRef Mendeley.


Compartilhe papel.


Download instantâneo legível em todos os dispositivos Possuí-lo para sempre Imposto de venda local incluído, se aplicável.


Cite o papel.


.RIS Papers Reference Manager RefWorks Zotero.


.BIB BibTeX JabRef Mendeley.


Compartilhe papel.


Mais de 10 milhões de documentos científicos ao seu alcance.


Switch Edition.


&cópia de; 2017 Springer International Publishing AG. Parte de Springer Nature.


Negociação Algorítmica.


Graduei-me da ETH Zurich em 2008, onde escrevi minha tese de doutorado sobre temas na área de otimização matemática e negociação algorítmica. Veja abaixo uma lista dos meus documentos de pesquisa. Desde 2008, trabalhei para uma empresa comercial proprietária em seu grupo de arbitragem estatística.


Pesquisa em modelos e algoritmos para mercados financeiros, especialmente "Execução Ótima de Transações de Carteira".


Execução Ótima de Transações de Carteira.


R. Almgren, J. Lorenz: preço de chegada adaptável. Algorithmic Trading III, Primavera de 2007. (versão reduzida desta pré-impressão anterior)


R. Almgren, J. Lorenz: comércio adaptativo Bayesiano com um ciclo diário. Journal of Trading 1 (4): 38-46, 2006. Os modelos padrão de negociação algorítmica negligenciam a presença de um ciclo diário. Nós construímos um modelo em que o comerciante usa informações de observações de evolução de preços durante o dia para atualizar continuamente sua estimativa de tamanhos e direções de alvo de outros comerciantes. Ele usa essas informações para determinar um horário comercial ideal para minimizar o custo total de negociação previsto, sujeito a restrições de sinal (nunca compre como parte de um programa de venda). Nós argumentamos que, embora essas estratégias sejam determinadas usando um raciocínio dinâmico muito simples - em cada momento eles assumem que as condições atuais durarão até o final da negociação - são de fato as estratégias globalmente ótimas, como seria determinado pela programação dinâmica.


R. Almgren, J. Lorenz: Execução Adaptativa Ótima de Variância Média. Finanças Matemáticas Aplicadas 18 (2018) 395-422. Veja também o Capítulo 3 da minha tese de doutorado.


J. Lorenz: Execução Ótima de Transações de Carteira. IFOR Mitteilungen, No 64, setembro de 2008. Leitartikel.


J. Lorenz, J. Osterrieder: Simulação de um mercado controlado por ordem limite. Journal of Trading Winter 2009, Vol. 4, No. 1: pp. 23-30 Este artigo apresenta uma estrutura de modelo de fluxo de pedidos para mercados orientados por limites. Diferente dos modelos anteriores, o artigo modela explicitamente um processo de preço de referência que. sweeps. o livro de pedidos de limite, que flutua para cima e para baixo. Esta estrutura permite o uso de qualquer processo estocástico para modelar esse preço de referência e especificações muito gerais do fluxo de ordem limite. Os autores acreditam que este quadro pode combinar frutalmente modelos de fluxo de pedidos com modelos bem estudados para processos de preço de ações e fornece um passo em direção ao desenvolvimento de modelos realistas, ainda que atraentes, para mercados complexos orientados por limites. Os dados da ordem pública do SWX são usados ​​como exemplo para estimar os parâmetros do modelo.


Pesquisa competitiva e preço das opções de lookback.


J. Lorenz, K. Panagiotou A. Steger: Algoritmos ótimos para k-Search com aplicação em preço de opção. Actas do 15º Simpósio Europeu Anual sobre Algoritmos (ESA), 2007. No problema de pesquisa k, um jogador está procurando os preços mais altos (respectivamente, mais baixos) em uma seqüência, que é revelada a ela sequencialmente. Em cada cotação, o jogador deve decidir imediatamente se deseja aceitar o preço ou não. Usando a relação competitiva como medida de desempenho, damos algoritmos deterministas e randomizados ótimos para os problemas de maximização e minimização e descobrimos que os problemas se comportam substancialmente diferentes no pior caso. Como uma aplicação de nossos resultados, usamos esses algoritmos para preço "opções de lookback", uma classe específica de derivativos financeiros. We derive bounds for the price of these securities under a no-arbitrage assumption, and compare this to classical option pricing.


J. Lorenz, K. Panagiotou A. Steger: Optimal Algorithms for k-Search with Application in Option Pricing. Algorithmica , October 2009, Volume 55, Issue 2, pp 311-328.


Other Papers.


J. Lorenz, M. Marciniszyn, A. Steger: Observational Learning in Random Networks. Proceedings of the 20th Annual Conference on Learning Theory (COLT), 2007. (Full version)


In the standard model of observational learning, n agents sequentially decide between two alternatives a or b, one of which is objectively superior. Their choice is based on a stochastic private signal and the decisions of others. Assuming a rational behavior, it is known that informational cascades arise, which cause an overwhelming fraction of the population to make the same choice, either correct or false. If agents are able to observe the actions of all predecessors, false informational cascades are quite likely . In a more realistic setting, agents observe just a subset of their predecessors, modeled by a random network of acquaintanceships. We show that the probability of false informational cascades depends on the edge probability p of the underlying network. If p=p(n) is a sequence that decreases with n, correct cascades emerge almost surely ( provided the decay of p is not too fast ), benefiting the entire population.


High-Frequency Trading Strategy Based on Deep Neural Networks.


Andrés Arévalo Email author Jaime Niño German Hernández Javier Sandoval.


This paper presents a high-frequency strategy based on Deep Neural Networks (DNNs). The DNN was trained on current time (hour and minute), and \( n \) - lagged one-minute pseudo-returns, price standard deviations and trend indicators in order to forecast the next one-minute average price. The DNN predictions are used to build a high-frequency trading strategy that buys (sells) when the next predicted average price is above (below) the last closing price. The data used for training and testing are the AAPL tick-by-tick transactions from September to November of 2008. The best-found DNN has a 66 % of directional accuracy. This strategy yields an 81 % successful trades during testing period.


Referências.


Copyright information.


Authors and Affiliations.


Andrés Arévalo 1 Email author Jaime Niño 1 German Hernández 1 Javier Sandoval 2 1. Universidad Nacional de Colombia Bogotá Colombia 2. Algocodex Research Institute Universidad Externado Bogotá Colombia.


About this paper.


Personalised recommendations.


Cite paper.


.RIS Papers Reference Manager RefWorks Zotero.


.BIB BibTeX JabRef Mendeley.


Share paper.


Instant download Readable on all devices Own it forever Local sales tax included if applicable.


Cite paper.


.RIS Papers Reference Manager RefWorks Zotero.


.BIB BibTeX JabRef Mendeley.


Share paper.


Over 10 million scientific documents at your fingertips.


Switch Edition.


&cópia de; 2017 Springer International Publishing AG. Part of Springer Nature.


Crashes and High Frequency Trading.


29 Pages Posted: 24 Dec 2018.


Didier Sornette.


ETH Zürich - Department of Management, Technology, and Economics (D-MTEC); Swiss Finance Institute.


Susanne von der Becke.


Date Written: August 2018.


We present a partial review of the potential for bubbles and crashes associated with high frequency trading (HFT). Our analysis intends to complement still inconclusive academic literature on this topic by drawing upon both conceptual frameworks and indicative evidence observed in the markets. A generic classification in terms of Barenblatt’s theory of similarity is proposed that suggests, given the available empirical evidence, that HFT has profound consequences for the organization and time dynamics of market prices. Provided one accepts the evidence that financial stock returns exhibit multifractal properties, it is likely that HFT time scales and the associated structures and dynamics do significantly affect the overall organization of markets. A significant scenario of Barenblatt’s classification is called “non-renormalizable”, which corresponds to HFT functioning essentially as an accelerator to previous market dynamics such as bubbles and crashes. New features can also be expected to occur, truly innovative properties that were not present before. This scenario is particularly important to investigate for risk management purposes. This report thus suggests a largely positive answer to the question: “Can high frequency trading lead to crashes?”


Keywords: High-frequency trading, financial crashes, flash crash, liquidity, efficient market hypothesis, market makers, market breakers, herding, financial bubbles, computer trading, algorithmic trading.


JEL Classification: G01, G14.


Didier Sornette (Contact Author)


ETH Zürich - Department of Management, Technology, and Economics (D-MTEC) ( email )


Zurich, ZURICH CH-8092.


Swiss Finance Institute ( email )


c/o University of Geneve.


40, Bd du Pont-d'Arve.


1211 Geneva, CH-6900.


Susanne Von der Becke.


ETH Zurich ( email )


+41 (0) 44 632 96 56 (Phone)


Estatísticas de papel.


Jornais relacionados.


Swiss Finance Institute Research Paper Series.


Inscreva-se neste diário gratuito para artigos mais curados sobre este assunto.


EJournal de gerenciamento de riscos.


Assine este boletim de taxas para mais artigos com curadoria sobre este tópico.


Mercado de capitais: EJournal de eficiência de mercado.


Assine este boletim de taxas para mais artigos com curadoria sobre este tópico.


Microeconomics: General Equilibrium & Disequilibrium Models of Financial Markets eJournal.


Assine este boletim de taxas para mais artigos com curadoria sobre este tópico.


Innovation Finance & Accounting eJournal.


Assine este boletim de taxas para mais artigos com curadoria sobre este tópico.


Links Rápidos.


Sobre.


Os cookies são usados ​​por este site. Para recusar ou aprender mais, visite nossa página Cookies. Esta página foi processada por apollo5 em 0.172 segundos.

No comments:

Post a Comment