Tecnologia & amp; Finança quantitativa.
Sistema de negociação Software Developer | Negociação de alta frequência | Sistemas de baixa latência | Modelos de fabricação de mercado | C / C ++
Como faço para projetar sistemas de negociação de alta frequência e sua arquitetura. Parte I.
Neste artigo, gostaria de falar sobre como implementar um sistema de baixa latência, módulos necessários e sua arquitetura de sistema, e focar no lado do desenvolvimento de software.
Existem outras partes que precisam ser cobertas para ter um sistema completo, e elas podem ser coisas como comunicações de rede, switches / roteadores, servidores especializados, FPGAs, ajustes de operação do sistema, como o kernel-bypass, etc. disse, neste artigo vou estar mais focado no design de software e sua arquitetura.
Esta é uma abordagem básica, sobre o que considero melhores práticas para este tipo de sistemas de negociação. Dependendo de fatores diferentes, mercados, conformidades, isso pode variar, mas alguns princípios básicos permanecerão os mesmos para qualquer sistema de negociação.
É claro, que o principal fator aqui é ser capaz de lidar com grande quantidade de informações recebidas, tempo de resposta a eventos externos, tempo de resposta interno e recursos para fornecer o maior throughput e a menor latência.
Quando eu projeto sistemas de baixa latência, sempre encontro os seguintes desafios:
O sistema deve ser capaz de lidar com várias estratégias, certificando-se de que o sistema não terá desempenho inferior à medida que adicionamos mais estratégias. Encomendar a reconstrução de livros de diferentes locais. Se tomarmos como exemplo o mercado forex, existem milhares de locais e ECNs diferentes, todos eles usando diferentes padrões de API e conectividade. O sistema deve ser capaz de lidar com essas diferentes fontes e agregá-las em uma estrutura de dados interna e bem definida.
O manipulador de feeds é um dos componentes mais importantes de qualquer sistema de negociação algorítmica. Sem dados de mercado precisos, qualquer estratégia de alta frequência ou algorítmica não poderá tomar decisões corretas. Assim, a ideia deste módulo é capturar dados de mercado de diferentes locais, para permitir nossas estratégias, gerar decisões corretas e manter uma representação do livro de pedidos de limite dos locais.
Uma grande quantidade de atualizações de mercado pode ser recebida por segundo para cada local do mercado, e sua representação interna de cada livro de pedidos de limite deve ser alterada de acordo.
Esse processo deve ser assim:
O link entre os locais e seu sistema é geralmente feito usando o protocolo FIX, então eu tenho que colocar um mecanismo FIX, para se comunicar com eles (receber e enviar mensagens) e fornecer a infra-estrutura básica que faz a interface e gerencia a conectividade nos locais Protocolo FIX.
Receber mensagem estará recebendo atualizações de mercado, e enviando, estará enviando ordens geradas pelas minhas estratégias.
Existem duas opções para implementar um mecanismo FIX: personalizado ou uma opção comercial. Para implementar um mecanismo FIX personalizado, você precisará colocar muitas horas-homem e pode certificar-se de otimizar a comunicação para um ambiente de baixa latência. Empresas como grandes bancos e instituições preferirão seu próprio mecanismo FIX, para que possam ter a propriedade do código inteiro.
Eu prefiro ir com a opção comercial, uma vez que existem muitas opções boas por aí, e você só precisa conectar sua biblioteca, e você estará pronto para ir.
Observe que, além da latência de rede e de comunicação, haverá também uma latência de decodificação / análise, portanto, também devo cuidar disso. A análise é uma manipulação de string, portanto, muito cara em termos de ciclos de CPU e gerenciamento de memória.
Há locais que também começaram a fornecer conectividade por meio de protocolos mais novos e melhores, já que o FIX está se tornando lento demais para os algoritmos atuais. RÁPIDO, ITCH / OUTCH são protocolos binários e eu sempre tento usá-los desde que eles estejam disponíveis. Eles usarão um mecanismo diferente para se comunicar, mas o conceito permanece o mesmo.
Uma vez que o sistema tenha sua conectividade entre os locais, eu precisarei atualizar todos os eventos relatados por eles: ordenar atualizações / acréscimos ou exclusões (negociações, se necessário).
Para cada evento recebido, irei ao meu livro de pedidos interno e farei as alterações necessárias.
Geralmente, todos os locais enviam essas atualizações usando um identificador unUE (EntryID) e o tipo de atualização (a atualização é uma inserção, atualização ou exclusão) para que você possa replicar com precisão o seu pedido de limite.
Aqui mostro como funciona a reconstrução do livro de encomendas com limite:
Uma coisa importante a ter em mente aqui é o tipo de estrutura de dados que queremos usar para armazenar os dados do livro de ofertas. Lembre-se de que podemos obter vários milhões de atualizações por segundo, portanto, nossa estrutura de dados deve ser rápida o suficiente para encontrar uma entrada ou excluí-la.
De recomendações anteriores, afirmei que a melhor estrutura de dados é usar matrizes simples: uma para os lances e outra para as solicitações. Eles fornecem o melhor desempenho.
Além disso, pré-aloque o máximo de memória possível.
A alocação dinâmica é cara, não deve ser usada em caminhos críticos como a atualização de uma estrutura de dados do livro de ordens com limite e você acabará tendo uma grande quantidade de sobrecarga por alocação.
Mas como estamos construindo um sistema de baixa latência, precisamos pré-alocar nossas estruturas de dados. E mostrarei a diferença entre pré-alocação e alocação dinâmica e seu impacto no desempenho.
Na fase de inicialização do sistema, pré-aloque essas matrizes: bidsArray e askArrays, e digamos que vamos armazenar uma profundidade de 10 níveis do livro, portanto, precisaremos pré-alocar a matriz de bid / ask de 10 elementos. E vamos mover / substituir elementos, NÃO removendo e criando, pois o processo de alocação consumirá muito tempo.
O código a seguir mostra como a alocação dinâmica funciona:
Como você pode ver, adicionamos ou excluímos e, em seguida, classifico toda a matriz, para que possamos manter uma estrutura ordenada.
Na próxima seção, mostrarei como pré-alocar e reutilizar.
Você define o array com 10 elementos e você reutilizará todos esses elementos. Você pode perceber que, em vez de excluir o elemento, estou limpando seus valores e, uma vez solicitados, os enviei no início da matriz.
Depois de executar um teste de desempenho entre eles, contando os ciclos de CPU realizados em cada caso em uma amostra de 100.000 iterações, obtenho os seguintes resultados.
Uau, uma diferença de 60%. Não é uma surpresa para mim, alocação / desalocação é cara. E este foi um exemplo muito básico / simples.
Você pode verificar este exemplo de código no meu repositório gist. github / silahian.
Para ser continuado & # 8230;
Palavras-chave: #hft #quants #forex #fx #risco $ EURUSD $ EURGBP $ EURJPY.
Tecnologia & amp; Finança quantitativa.
Sistema de negociação Software Developer | Negociação de alta frequência | Sistemas de baixa latência | Modelos de fabricação de mercado | C / C ++
Como faço para projetar sistemas de negociação de alta frequência e sua arquitetura. Parte II.
Na primeira parte, expliquei conceitos básicos de arquitetura de um sistema de negociação de baixa latência e alguns exemplos de como implementar uma carteira de pedidos muito rápida.
Nesta segunda parte, explicarei como implementar os próximos componentes e a parte principal: qual padrão usar.
3. Sistema de gerenciamento de pedidos: OMS.
Este módulo irá gerenciar todos os pedidos enviados aos locais, com base nos sinais gerados pela sua estratégia. Ele tratará do envio, cancelamento e substituição de pedidos, bem como do acesso a informações sobre pedidos executados, incluindo ordens pendentes e abertas.
Devemos enviar esses pedidos de maneira eficiente e econômica, roteando cada pedido, dependendo de um ou mais dos seguintes itens:
o local da estratégia de sinais custa latências entre os melhores preços disponíveis, ações ou contratos disponíveis em cada local.
Além disso, precisa ser inteligente o suficiente para saber quando um pedido foi:
Rejeitado ou cancelado pelo local Parcialmente preenchido Totalmente preenchido.
Portanto, dependendo dos status acima, o sistema de gerenciamento de pedidos pode executar caminhos diferentes.
Como o cérebro do nosso sistema, as estratégias terão o livro de pedidos de limite de cada local e tomarão decisões definidas com base em diferentes parâmetros e valores.
Algumas estratégias precisarão analisar toda a profundidade dos livros, outras, apenas o preço dos livros, que é o melhor lance e é melhor perguntar.
Aqui, você pode aplicar um tipo quase infinito de estratégias e, claro, ter certeza de que elas serão ideias lucrativas.
Uma poderia ser uma estratégia de arbitragem de latência simples: cada local recebe informações de mercado em momentos diferentes, e se nosso sistema puder ser mais rápido o suficiente, podemos tirar proveito dessas lacunas de preço. Normalmente, essas discrepâncias não duram mais que 500 microssegundos e, depois disso, todos os participantes do mercado tentam se equilibrar.
Aqui está um exemplo. Uma grande instituição está no mercado para comprar uma grande encomenda de uma determinada ação. Ele terá algoritmos que executam o comércio lentamente, tentando obter o melhor preço, o que levará o que estiver disponível em, digamos, US $ 4,50 por ação e, em seguida, o que está disponível em US $ 4,51, e assim por diante. É aí que entra a "arbitragem de latência". Nossa estratégia pode ver que o algoritmo desse fundo está no mercado e basicamente compra todas as ações disponíveis a US $ 4,50 um instante antes delas. Agora, o algoritmo da empresa segue em frente e procura por ações a US $ 4,51. Nosso algoritmo vende todo o estoque que acabou de comprar por US $ 4,50, ganhando um centavo completamente livre de risco por ação.
Parece pequeno, mas se você fizer isso várias vezes ao dia, estaremos somando muitos milhões de dólares por dia de negociação e vários bilhões por ano.
Outro exemplo pode ser a arbitragem triangular bem conhecida & # 8217; & # 8211; Esta é uma arbitragem onde existem discrepâncias de preço entre 3 pares de moedas. Forex é negociado em pares, ou seja, EUR / USD EUR / GBP EUR / CHF. O que pode acontecer durante um grande evento de mercado, por exemplo, um golpe fracassado na Turquia como um exemplo extremo, o EUR / USD irá se mover mais rápido do que deveria ter que manter em proporção com a taxa de EUR / GBP. Isso pode ser apenas uma função de mercado, os comerciantes vendem EUR / USD antes de EUR / GBP sem algoritmos. Ou, grandes encomendas podem fazer com que a diferença entre EUR / USD e EUR / GBP seja ligeiramente baixa. Mesmo que seja apenas uma fração de dólar, isso pode gerar milhões em lucros se você for rápido o suficiente.
5. Arquitetura de Software: Padrões.
A diversão começa quando queremos juntar todas essas peças, interagir simultaneamente e com a menor latência possível entre os processos.
A arquitetura básica é assim:
Como já sabemos, a simultaneidade é fundamental e, para que ela funcione corretamente, precisaremos usar métodos de sincronização (para acessar simultaneamente os dados na memória) e uma arquitetura de design que atenda às nossas necessidades de baixa latência.
É por isso que precisamos falar sobre “padrões de design de software” e escolher o melhor para as nossas necessidades.
Existem várias opções bem conhecidas que podemos usar aqui:
Padrão de Design do Observador: é um padrão de design de software no qual um objeto, chamado de assunto, mantém uma lista de seus dependentes, chamados de observadores, e os notifica automaticamente sobre quaisquer mudanças de estado.
Isso é bom, mas se você tiver várias estratégias em execução no mesmo sistema, o processo de notificação será processado um por um. Significando, o sujeito primeiro notificará a “estratégia 1”, fará seus cálculos, enviará pedidos se alguns critérios forem atendidos e, em seguida, continuará com a “estratégia 2”, fará novamente o cálculo e verificará se alguns critérios foram atendidos. Isso soa como um processo sequencial !!
Então, nosso módulo de livro de pedidos será o assunto e a estratégia, nosso observador.
Como mostro abaixo, a implementação usando C ++ será algo como isto:
Observador e implementação do assunto.
O que fiz aqui foi configurar um observador (a estratégia) e o assunto (o livro de pedidos).
A carteira de pedidos enviará notificações assim que qualquer preço for alterado, para que todas as estratégias possam recebê-lo e agir sobre ele. Se a estratégia atender a seus critérios específicos, acionará pedidos para a troca. Esse processo, de afirmar se os critérios atendiam, poderia ser mais ou menos complicado, portanto, poderia levar mais ou menos tempo.
Como você pode ver, este é um processo serial, e se por qualquer motivo a "estratégia 1" levar alguns milissegundos para fazer alguns cálculos sofisticados, então, no momento da "estratégia 2", a notificação será muito tarde, e assim por diante ... . Até recebermos a notificação da última estratégia, que já está tomando decisões sobre informações passadas.
Essa é a razão pela qual não podemos usar esse padrão de design.
Apenas no caso de você estar pensando em lançar tópicos em cada notificação ou fazê-lo de forma assíncrona, deixe-me dizer que será ainda pior. A sobrecarga será tal que, fazendo isso sequencialmente, será mais rápido.
Você também pode encontrar este código no meu repositório gist. github / silahian.
Padrão de Sinal e Slots: usado para comunicação entre objetos ou processos. A implementação subjacente é semelhante ao Observer Pattern, e seu conceito é que o observador pode enviar sinais contendo informações de eventos que podem ser recebidas por outras pessoas usando funções especiais conhecidas como slots. Da mesma forma, em retornos de chamada do C ++ (ponteiros de função), mas o sistema de sinal / slot garante a correção do tipo dos argumentos de retorno de chamada.
Como esse padrão também é derivado do tipo de padrão observador, prefiro não usá-lo também.
Todos os tipos de padrões de eventos / mensagens / sinais são uma espécie de padrão observador, portanto, não é adequado para meus propósitos de baixa latência.
Ring buffer pattern: agora estamos nos aproximando. O desempenho desse padrão é muito eficaz e é implementado em muitos aplicativos de baixo nível. O buffer de anel é uma estrutura de dados de fila circular. Tem uma característica primeiro a entrar primeiro a sair (FIFO). Também possui dois índices, indicando de onde o processo pode ler e de onde pode escrever. Portanto, não haverá colisões, que serão traduzidas sem necessidade de sincronização. Esse tipo de estrutura é chamado de "lock-free", e seu desempenho está além de outros padrões.
Um grande adepto desse padrão é o LMAX com seu disruptor. Abaixo uma imagem de sua implementação usando esse padrão.
Esse tipo de padrão é ideal para comunicações de soquete em que os dados seriais precisam ser gerenciados, portanto, nesse caso, não é adequado para nossa arquitetura de negociação.
No próximo artigo, explicarei o que escolheria como arquitetura em um sistema de latência ultrabaixa, como pretendemos construir.
Para ser continuado & # 8230;
Palavras-chave: #hft #quants #forex #fx #risco $ EURUSD $ EURGBP $ EURJPY.
Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Uma das perguntas mais freqüentes que recebo no mailbag do QS é "Qual é a melhor linguagem de programação para negociação algorítmica?". A resposta curta é que não há "melhor" linguagem. Parâmetros de estratégia, desempenho, modularidade, desenvolvimento, resiliência e custo devem ser considerados. Este artigo descreverá os componentes necessários de uma arquitetura de sistema de comércio algorítmico e como as decisões relativas à implementação afetam a escolha da linguagem.
Primeiramente, os principais componentes de um sistema de negociação algorítmica serão considerados, como as ferramentas de pesquisa, o otimizador de portfólio, o gerenciador de risco e o mecanismo de execução. Posteriormente, diferentes estratégias de negociação serão examinadas e como elas afetam o design do sistema. Em particular, a frequência de negociação e o volume de negociação provável serão ambos discutidos.
Uma vez que a estratégia de negociação tenha sido selecionada, é necessário arquitetar todo o sistema. Isso inclui a escolha de hardware, o sistema operacional e a resiliência do sistema contra eventos raros e potencialmente catastróficos. Enquanto a arquitetura está sendo considerada, a devida atenção deve ser dada ao desempenho - tanto para as ferramentas de pesquisa quanto para o ambiente de execução ao vivo.
Qual é o sistema de negociação tentando fazer?
Antes de decidir sobre a "melhor" linguagem com a qual escrever um sistema de negociação automatizado, é necessário definir os requisitos. O sistema será puramente baseado em execução? O sistema exigirá um módulo de gerenciamento de risco ou de construção de portfólio? O sistema exigirá um backtester de alto desempenho? Para a maioria das estratégias, o sistema de negociação pode ser dividido em duas categorias: Pesquisa e geração de sinais.
A pesquisa está preocupada com a avaliação de um desempenho da estratégia em relação aos dados históricos. O processo de avaliação de uma estratégia de negociação sobre dados de mercado anteriores é conhecido como backtesting. O tamanho dos dados e a complexidade algorítmica terão um grande impacto na intensidade computacional do backtester. A velocidade e a simultaneidade da CPU costumam ser os fatores limitantes na otimização da velocidade de execução da pesquisa.
A geração de sinais preocupa-se em gerar um conjunto de sinais de negociação de um algoritmo e enviar esses pedidos ao mercado, geralmente por meio de uma corretora. Para determinadas estratégias, é necessário um alto nível de desempenho. Problemas de E / S, como largura de banda de rede e latência, são muitas vezes o fator limitante na otimização de sistemas de execução. Assim, a escolha de idiomas para cada componente de todo o seu sistema pode ser bem diferente.
Tipo, Frequência e Volume de Estratégia.
O tipo de estratégia algorítmica empregada terá um impacto substancial no design do sistema. Será necessário considerar os mercados que estão sendo negociados, a conectividade com fornecedores de dados externos, a frequência e o volume da estratégia, o tradeoff entre facilidade de desenvolvimento e otimização de desempenho, bem como qualquer hardware personalizado, incluindo customização co-localizada servidores, GPUs ou FPGAs que possam ser necessários.
As escolhas tecnológicas para uma estratégia de ações norte-americanas de baixa frequência serão muito diferentes daquelas de uma negociação de estratégia de arbitragem estatística de alta frequência no mercado de futuros. Antes da escolha da linguagem, muitos fornecedores de dados devem ser avaliados quanto à estratégia em questão.
Será necessário considerar a conectividade com o fornecedor, a estrutura de quaisquer APIs, a pontualidade dos dados, os requisitos de armazenamento e a resiliência em face de um fornecedor ficar off-line. Também é aconselhável ter acesso rápido a vários fornecedores! Vários instrumentos têm suas próprias peculiaridades de armazenamento, exemplos dos quais incluem vários símbolos de ticker para ações e datas de vencimento para futuros (para não mencionar quaisquer dados OTC específicos). Isso precisa ser levado em conta no design da plataforma.
A frequência da estratégia é provavelmente um dos maiores impulsionadores de como a pilha de tecnologia será definida. Estratégias que empregam dados com mais freqüência do que minuciosamente ou em segundo lugar exigem consideração significativa com relação ao desempenho.
Uma estratégia que excede as segundas barras (isto é, dados de ticks) leva a um design orientado pelo desempenho como o requisito primário. Para estratégias de alta frequência, uma quantidade substancial de dados de mercado precisará ser armazenada e avaliada. Softwares como HDF5 ou kdb + são comumente usados para essas funções.
Para processar os volumes extensos de dados necessários para aplicativos HFT, um backtester e um sistema de execução extensivamente otimizados devem ser usados. C / C ++ (possivelmente com algum montador) é provável que seja o candidato de idioma mais forte. Estratégias de frequência ultra-alta quase certamente exigirão hardware customizado, como FPGAs, co-location de troca e ajuste de interface de rede / kernal.
Sistemas de pesquisa.
Os sistemas de pesquisa geralmente envolvem uma mistura de desenvolvimento interativo e scripts automatizados. O primeiro ocorre com frequência dentro de um IDE, como o Visual Studio, o MatLab ou o R Studio. Este último envolve extensos cálculos numéricos sobre numerosos parâmetros e pontos de dados. Isso leva a uma escolha de idioma que fornece um ambiente simples para testar o código, mas também fornece desempenho suficiente para avaliar estratégias em várias dimensões de parâmetro.
IDEs típicos nesse espaço incluem o Microsoft Visual C ++ / C #, que contém extensos utilitários de depuração, recursos de conclusão de código (via "Intellisense") e visões gerais simples da pilha inteira do projeto (via banco de dados ORM, LINQ); MatLab, que é projetado para extensa álgebra linear numérica e operações vetorizadas, mas de uma forma de console interativo; R Studio, que envolve o console de linguagem estatística R em um IDE completo; Eclipse IDE para Linux Java e C ++; e IDEs semi-proprietários como o Enthought Canopy for Python, que incluem bibliotecas de análise de dados como NumPy, SciPy, scikit-learn e pandas em um único ambiente interativo (console).
Para backtesting numérico, todos os idiomas acima são adequados, embora não seja necessário utilizar uma GUI / IDE, pois o código será executado "em segundo plano". A consideração principal neste estágio é a velocidade de execução. Uma linguagem compilada (como C ++) é geralmente útil se as dimensões do parâmetro de backtesting forem grandes. Lembre-se que é necessário ter cuidado com esses sistemas, se for esse o caso!
Linguagens interpretadas, como Python, geralmente usam bibliotecas de alto desempenho como o NumPy / pandas para a etapa de backtesting, a fim de manter um grau razoável de competitividade com equivalentes compilados. Em última análise, a linguagem escolhida para o backtesting será determinada por necessidades algorítmicas específicas, bem como o leque de bibliotecas disponíveis na linguagem (mais sobre isso abaixo). No entanto, a linguagem usada para os ambientes de backtester e de pesquisa pode ser completamente independente daquelas usadas nos componentes de construção de portfólio, gerenciamento de risco e execução, como será visto.
Construção de Carteira e Gestão de Risco.
Os componentes de gerenciamento de risco e de construção de portfólio são frequentemente negligenciados pelos traders algorítmicos de varejo. Isso é quase sempre um erro. Essas ferramentas fornecem o mecanismo pelo qual o capital será preservado. Eles não apenas tentam aliviar o número de apostas "arriscadas", mas também minimizam a rotatividade dos negócios, reduzindo os custos de transação.
Versões sofisticadas desses componentes podem ter um efeito significativo na qualidade e consistência da lucratividade. É fácil criar uma estratégia estável, pois o mecanismo de construção de portfólio e o gerenciador de risco podem ser facilmente modificados para lidar com vários sistemas. Assim, eles devem ser considerados componentes essenciais no início do projeto de um sistema de negociação algorítmica.
O trabalho do sistema de construção de portfólio é pegar um conjunto de negócios desejados e produzir o conjunto de negociações reais que minimizam o churn, manter exposições a vários fatores (como setores, classes de ativos, volatilidade, etc.) e otimizar a alocação de capital para vários estratégias em um portfólio.
A construção de portfólio geralmente se reduz a um problema de álgebra linear (como uma fatoração de matriz) e, portanto, o desempenho é altamente dependente da eficácia da implementação da álgebra linear numérica disponível. Bibliotecas comuns incluem uBLAS, LAPACK e NAG para C ++. O MatLab também possui operações de matriz amplamente otimizadas. O Python utiliza o NumPy / SciPy para tais cálculos. Um portfólio freqüentemente reequilibrado exigirá uma biblioteca matricial compilada (e bem otimizada!) Para realizar este passo, de modo a não afunilar o sistema de negociação.
O gerenciamento de riscos é outra parte extremamente importante de um sistema de negociação algorítmica. O risco pode vir de várias formas: aumento da volatilidade (embora isso possa ser visto como desejável para certas estratégias!), Aumento de correlações entre classes de ativos, inadimplência de terceiros, interrupções de servidor, eventos "black swan" e erros não detectados no código de negociação. para nomear alguns.
Os componentes de gerenciamento de risco tentam antecipar os efeitos da volatilidade excessiva e correlação entre as classes de ativos e seus efeitos subseqüentes sobre o capital comercial. Muitas vezes, isso reduz a um conjunto de cálculos estatísticos, como os "testes de estresse" de Monte Carlo. Isso é muito semelhante às necessidades computacionais de um mecanismo de precificação de derivativos e, como tal, será vinculado à CPU. Estas simulações são altamente paralelizáveis (veja abaixo) e, até certo ponto, é possível "lançar hardware no problema".
Sistemas de Execução.
O trabalho do sistema de execução é receber sinais de negociação filtrados dos componentes de construção de carteira e gerenciamento de risco e enviá-los para uma corretora ou outros meios de acesso ao mercado. Para a maioria das estratégias de negociação algorítmica de varejo, isso envolve uma conexão API ou FIX para uma corretora como a Interactive Brokers. As principais considerações ao decidir sobre uma linguagem incluem a qualidade da API, a disponibilidade do wrapper de idioma para uma API, a frequência de execução e o escorregamento previsto.
A "qualidade" da API refere-se a quão bem documentada ela é, que tipo de desempenho ela fornece, se precisa de software independente para ser acessado ou se um gateway pode ser estabelecido de maneira sem cabeça (ou seja, sem GUI). No caso dos Interactive Brokers, a ferramenta Trader WorkStation precisa estar em execução em um ambiente GUI para acessar sua API. Certa vez, tive que instalar uma edição Ubuntu Desktop em um servidor de nuvem da Amazon para acessar remotamente o Interactive Brokers, puramente por esse motivo!
A maioria das APIs fornecerá uma interface C ++ e / ou Java. Geralmente, cabe à comunidade desenvolver wrappers específicos de linguagem para C #, Python, R, Excel e MatLab. Observe que, com cada plug-in adicional utilizado (especialmente os wrappers de APIs), há escopo para os bugs se infiltrarem no sistema. Sempre teste plugins desse tipo e garanta que eles sejam ativamente mantidos. Um indicador que vale a pena é ver quantas novas atualizações para uma base de código foram feitas nos últimos meses.
Freqüência de execução é da maior importância no algoritmo de execução. Observe que centenas de pedidos podem ser enviados a cada minuto e, como tal, o desempenho é crítico. A derrapagem será incorrida através de um sistema de execução com péssimo desempenho e isso terá um impacto dramático na lucratividade.
As linguagens com tipagem estática (veja abaixo) como C ++ / Java são geralmente ótimas para execução, mas há um compromisso em tempo de desenvolvimento, teste e facilidade de manutenção. Linguagens dinamicamente tipificadas, como Python e Perl, são geralmente "rápidas o suficiente". Certifique-se sempre de que os componentes são projetados de maneira modular (veja abaixo) para que possam ser "trocados" conforme o sistema é dimensionado.
Planejamento arquitetônico e processo de desenvolvimento.
Os componentes de um sistema de negociação, seus requisitos de frequência e volume foram discutidos acima, mas a infra-estrutura do sistema ainda não foi coberta. Aqueles que atuam como comerciantes de varejo ou que trabalham em um pequeno fundo provavelmente estarão "usando muitos chapéus". Será necessário estar cobrindo o modelo alfa, os parâmetros de gerenciamento e execução de riscos, e também a implementação final do sistema. Antes de aprofundar em linguagens específicas, o design de uma arquitetura de sistema ideal será discutido.
Separação de preocupações.
Uma das decisões mais importantes que devem ser tomadas no início é como "separar as preocupações" de um sistema de negociação. No desenvolvimento de software, isso significa essencialmente dividir os diferentes aspectos do sistema de negociação em componentes modulares separados.
Ao expor as interfaces em cada um dos componentes, é fácil trocar partes do sistema por outras versões que auxiliem o desempenho, a confiabilidade ou a manutenção, sem modificar nenhum código de dependência externo. Essa é a "melhor prática" para esses sistemas. Para estratégias em freqüências mais baixas, tais práticas são recomendadas. Para negociação de ultra alta frequência, o livro de regras pode ter que ser ignorado em detrimento do ajuste do sistema para um desempenho ainda maior. Um sistema mais fortemente acoplado pode ser desejável.
Criar um mapa de componentes de um sistema de negociação algorítmico vale um artigo em si. No entanto, uma abordagem ideal é garantir que haja componentes separados para as entradas de dados de mercado históricas e em tempo real, armazenamento de dados, API de acesso a dados, backtester, parâmetros estratégicos, construção de portfólio, gerenciamento de risco e sistemas automatizados de execução.
Por exemplo, se o armazenamento de dados em uso estiver atualmente com baixo desempenho, mesmo em níveis significativos de otimização, ele poderá ser substituído com reescritas mínimas para a API de acesso a dados ou acesso a dados. Tanto quanto o backtester e componentes subseqüentes estão em causa, não há diferença.
Outro benefício dos componentes separados é que ele permite que uma variedade de linguagens de programação seja usada no sistema geral. Não há necessidade de se restringir a um único idioma se o método de comunicação dos componentes for independente de idioma. Este será o caso se eles estiverem se comunicando via TCP / IP, Zero ou algum outro protocolo independente de linguagem.
Como um exemplo concreto, considere o caso de um sistema de backtesting sendo escrito em C ++ para desempenho "processamento de números", enquanto o gerenciador de portfólio e os sistemas de execução são escritos em Python usando SciPy e IBPy.
Considerações de desempenho.
O desempenho é uma consideração significativa para a maioria das estratégias de negociação. Para estratégias de maior frequência, é o fator mais importante. "Desempenho" abrange uma ampla variedade de problemas, como velocidade de execução algorítmica, latência de rede, largura de banda, E / S de dados, simultaneidade / paralelismo e dimensionamento. Cada uma dessas áreas é coberta individualmente por grandes livros didáticos, portanto, este artigo apenas arranhará a superfície de cada tópico. A arquitetura e a escolha de idiomas serão agora discutidas em termos de seus efeitos no desempenho.
A sabedoria predominante, como afirma Donald Knuth, um dos pais da Ciência da Computação, é que "a otimização prematura é a raiz de todo o mal". Isso é quase sempre o caso - exceto quando se constrói um algoritmo de negociação de alta frequência! Para aqueles que estão interessados em estratégias de baixa frequência, uma abordagem comum é construir um sistema da maneira mais simples possível e apenas otimizar à medida que os gargalos começam a aparecer.
As ferramentas de criação de perfil são usadas para determinar onde os gargalos surgem. Os perfis podem ser feitos para todos os fatores listados acima, seja em um ambiente MS Windows ou Linux. Existem muitas ferramentas de sistema operacional e idioma disponíveis para isso, bem como utilitários de terceiros. A escolha da língua será agora discutida no contexto do desempenho.
C ++, Java, Python, R e MatLab contêm bibliotecas de alto desempenho (como parte de seus padrões ou externamente) para estrutura de dados básica e trabalho algorítmico. O C ++ é fornecido com a Biblioteca de Modelos Padrão, enquanto o Python contém o NumPy / SciPy. Tarefas matemáticas comuns são encontradas nessas bibliotecas e raramente é benéfico escrever uma nova implementação.
Uma exceção é se a arquitetura de hardware altamente personalizada for necessária e um algoritmo estiver fazendo uso extensivo de extensões proprietárias (como caches personalizados). No entanto, muitas vezes a "reinvenção da roda" desperdiça tempo que poderia ser mais bem gasto desenvolvendo e otimizando outras partes da infraestrutura de negociação. O tempo de desenvolvimento é extremamente precioso, especialmente no contexto de desenvolvedores únicos.
A latência é frequentemente uma questão do sistema de execução, pois as ferramentas de pesquisa geralmente estão situadas na mesma máquina. Para o primeiro, a latência pode ocorrer em vários pontos ao longo do caminho de execução. Os bancos de dados devem ser consultados (latência de disco / rede), os sinais devem ser gerados (operacional, latência do sistema de mensagens kernal), sinais de negociação enviados (latência da NIC) e pedidos processados (latência interna do sistema de troca).
Para operações de freqüência mais alta, é necessário tornar-se intimamente familiarizado com a otimização do kernal, bem como com a otimização da transmissão da rede. This is a deep area and is significantly beyond the scope of the article but if an UHFT algorithm is desired then be aware of the depth of knowledge required!
Caching is very useful in the toolkit of a quantitative trading developer. Caching refers to the concept of storing frequently accessed data in a manner which allows higher-performance access, at the expense of potential staleness of the data. A common use case occurs in web development when taking data from a disk-backed relational database and putting it into memory. Any subsequent requests for the data do not have to "hit the database" and so performance gains can be significant.
For trading situations caching can be extremely beneficial. For instance, the current state of a strategy portfolio can be stored in a cache until it is rebalanced, such that the list doesn't need to be regenerated upon each loop of the trading algorithm. Such regeneration is likely to be a high CPU or disk I/O operation.
However, caching is not without its own issues. Regeneration of cache data all at once, due to the volatilie nature of cache storage, can place significant demand on infrastructure. Another issue is dog-piling , where multiple generations of a new cache copy are carried out under extremely high load, which leads to cascade failure.
Dynamic memory allocation is an expensive operation in software execution. Thus it is imperative for higher performance trading applications to be well-aware how memory is being allocated and deallocated during program flow. Newer language standards such as Java, C# and Python all perform automatic garbage collection , which refers to deallocation of dynamically allocated memory when objects go out of scope .
Garbage collection is extremely useful during development as it reduces errors and aids readability. However, it is often sub-optimal for certain high frequency trading strategies. Custom garbage collection is often desired for these cases. In Java, for instance, by tuning the garbage collector and heap configuration, it is possible to obtain high performance for HFT strategies.
C++ doesn't provide a native garbage collector and so it is necessary to handle all memory allocation/deallocation as part of an object's implementation. While potentially error prone (potentially leading to dangling pointers) it is extremely useful to have fine-grained control of how objects appear on the heap for certain applications. When choosing a language make sure to study how the garbage collector works and whether it can be modified to optimise for a particular use case.
Many operations in algorithmic trading systems are amenable to parallelisation . This refers to the concept of carrying out multiple programmatic operations at the same time, i. e in "parallel". So-called "embarassingly parallel" algorithms include steps that can be computed fully independently of other steps. Certain statistical operations, such as Monte Carlo simulations, are a good example of embarassingly parallel algorithms as each random draw and subsequent path operation can be computed without knowledge of other paths.
Other algorithms are only partially parallelisable. Fluid dynamics simulations are such an example, where the domain of computation can be subdivided, but ultimately these domains must communicate with each other and thus the operations are partially sequential. Parallelisable algorithms are subject to Amdahl's Law, which provides a theoretical upper limit to the performance increase of a parallelised algorithm when subject to $N$ separate processes (e. g. on a CPU core or thread ).
Parallelisation has become increasingly important as a means of optimisation since processor clock-speeds have stagnated, as newer processors contain many cores with which to perform parallel calculations. The rise of consumer graphics hardware (predominently for video games) has lead to the development of Graphical Processing Units (GPUs), which contain hundreds of "cores" for highly concurrent operations. Such GPUs are now very affordable. High-level frameworks, such as Nvidia's CUDA have lead to widespread adoption in academia and finance.
Such GPU hardware is generally only suitable for the research aspect of quantitative finance, whereas other more specialised hardware (including Field-Programmable Gate Arrays - FPGAs) are used for (U)HFT. Nowadays, most modern langauges support a degree of concurrency/multithreading. Thus it is straightforward to optimise a backtester, since all calculations are generally independent of the others.
Scaling in software engineering and operations refers to the ability of the system to handle consistently increasing loads in the form of greater requests, higher processor usage and more memory allocation. In algorithmic trading a strategy is able to scale if it can accept larger quantities of capital and still produce consistent returns. The trading technology stack scales if it can endure larger trade volumes and increased latency, without bottlenecking .
While systems must be designed to scale, it is often hard to predict beforehand where a bottleneck will occur. Rigourous logging, testing, profiling and monitoring will aid greatly in allowing a system to scale. Languages themselves are often described as "unscalable". This is usually the result of misinformation, rather than hard fact. It is the total technology stack that should be ascertained for scalability, not the language. Clearly certain languages have greater performance than others in particular use cases, but one language is never "better" than another in every sense.
One means of managing scale is to separate concerns, as stated above. In order to further introduce the ability to handle "spikes" in the system (i. e. sudden volatility which triggers a raft of trades), it is useful to create a "message queuing architecture". This simply means placing a message queue system between components so that orders are "stacked up" if a certain component is unable to process many requests.
Rather than requests being lost they are simply kept in a stack until the message is handled. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is Rabbit.
Hardware and Operating Systems.
The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a "cloud" provider or an exchange co-located server.
Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7/8, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots/patching (and often at the worst of times!). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI).
Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed.
A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system.
In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable.
A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha.
The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems? Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM? These issues will be highly dependent upon the frequency and type of strategy being implemented.
Resilience and Testing.
One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system.
It is likely that in any reasonably complicated custom quantitative trading application at least 50% of development time will be spent on debugging, testing and maintenance.
Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point .
Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C++ or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb, which is a sophisticated debugging tool. The Microsoft Visual C++ IDE possesses extensive GUI debugging utilities, while for the command line Linux C++ programmer, the gdb debugger exists.
Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to "fill in the blanks", the tests will eventually all pass, at which point development should cease.
TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C++, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options.
In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a "first line of attack" when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact! As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed.
Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns.
While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information.
Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric.
System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case.
Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected? 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected? The answers to both of these questions are often sobering!
It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment?
Similarly, high availability needs to be "baked in from the start". Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I won't delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system.
Choosing a Language.
Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised.
Type Systems.
When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C++ and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript.
For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesn't catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. 'Dynamic' languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone.
Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays.
Open Source or Proprietary?
One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. There are advantages and disadvantages to both approaches. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs.
The Microsoft. NET stack (including Visual C++, Visual C#) and MathWorks' MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant "battle testing" in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds.
Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C++, C# and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain.
There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools "play well" with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned.
MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive.
Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C++ and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats.
The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process.
Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce.
Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C++ in order to improve execution speeds, but it requires some experience in multi-language programming.
While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer.
I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C++ and R. The maturity, community size, ability to "dig deep" if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C++) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend.
Batteries Included?
The header of this section refers to the "out of the box" capabilities of the language - what libraries does it contain and how good are they? This is where mature languages have an advantage over newer variants. C++, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms.
C++ is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms "for free". Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance).
Outside of the standard libraries, C++ makes use of the Boost library, which fills in the "missing parts" of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C++11 spec, including native support for lambda expressions and concurrency.
Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL++ (MySQL/C++), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin!
An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C++ and Java, but some also support C# and Python, either directly or with community-provided wrapper code to the C++ APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol.
Conclusão.
As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries.
The benefit of a separated architecture is that it allows languages to be "plugged in" for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.
A Quantcademy.
Participe do portal de associação da Quantcademy que atende à crescente comunidade de traders de quantificação de varejo e aprenda como aumentar a lucratividade de sua estratégia.
Negociação Algorítmica Bem Sucedida.
Como encontrar novas ideias de estratégia de negociação e avaliá-las objetivamente para o seu portfólio usando um mecanismo de backtesting personalizado no Python.
Comércio Algorítmico Avançado.
Como implementar estratégias de negociação avançadas usando análise de séries temporais, aprendizado de máquina e estatísticas Bayesianas com R e Python.
The Heretic's Guide to Global Finance: Hacking the Future of Money.
Anarchic Adventures in Arts, Activism, Anthropology and Alternative Economics.
Wednesday, 17 June 2015.
Algorithmic surrealism: A slow-motion guide to high-frequency trading.
PART 1 (3500 Words)
A 900 million microsecond primer on high-frequency trading.
In the time it takes you to read this sentence, a high-frequency trading (HFT) algorithm, connected to a stock exchange via “low latency” trading infrastructure, could make, perhaps, 1,000 trades.
1.1: Putting HFT in context.
There was a time, in the distant past of the 1970s, when trades on stock exchanges were basically the exclusive domain of human actors. Whether it was the prudent, long-term investor buying a portfolio of stocks for a retirement fund, or the cowboy speculator buying and selling in rapid succession, the process was always limited by the speed of the human mind, and the time taken to actually pick up a phone and put an order through. Even the fastest speculator would still take a number of minutes to complete trades.
1.2: How should I feel about this?
1.3: Trading, to technical trading, to algo trading, to HFT.
Let’s take a step back, and try put this activity into context. Financial markets like a stock-market facilitate the buying and selling of financial instruments, which are contracts that give you rights to receive returns over time. They tend to host different players with different time horizons. On the outer rings you get the huge institutional investors such as pension funds. They arrive in the market occasionally and make big investments, buying up large numbers of shares, often with a view to holding them for a number of years. Then, in the inner rings, you get faster, more fickle, players – we might call them traders – who make money by jumping in and out of markets, like nimble sharks swimming between the slower pods of huge whales.
Start by understanding the general concept of trading : Financial traders buy and sell financial instruments, such as shares in companies. They hope to buy at a lower price than they sell at, thereby making a profit. Now understand Technical Trading : Traders have different technues of speculation. They may, for example, spend hours researching the records of a particular company to make assessments, a practice called fundamental trading. Alternatively, they may analyse the activities of other traders in a market to make decisions. This 'technical analysis' of price, order and volume data generated by other traders leads to technical trading. Now imagine that automated into Algorithmic Trading : One might decide to automate the process of technical trading, such that an algorithm analyses an incoming stream of price, order and volume data and makes trades under certain conditions. We call this algorithmic trading. (note: it's possible to make a distinction between algorithmic and automated trading, but for ease let's just assume these are the same) Then imagine that sped up into High-Frequency Trading : If you accelerate that process of automated algorithmic trading to extreme speeds, you are doing high-frequency trading. HFT is thus best initially thought of as very fast algorithmic trading , which itself is automated technical trading, which itself is a sub-branch of broader trading. It can be contrasted with, for example, slower, fundamental trading, which is what people like George Soros do (he and his analysts actually sit in a room and watch the world and then make big bets on it). Finally, remember that we can again contrast this entire world of trading with the world of long-term investing , which is what the big, slow pension funds do. To return to the earlier ecosystem analogy, then, HFT firms are kind of like piranhas among the sharks among the whales.
1.4: How to set up an HFT firm.
Different trading organisations might have slightly different reasons to engage in HFT. Some big banks, for example, use it as a tool to take a big order and fragment it into lots of small orders, like using a dispersion nozzle to turn a fire-hose jet into a fine market mist that people don’t readily notice. Many HFT players, though, are pure short-term speculators, specialist proprietary trading firms and hedge funds. If you wanted to set one of these up, here are some things you’d do.
This isn’t a pedantic technical article about the exact nature of HFT technology though. There are huge amounts of jargon-laden bumf and geeky discussions on the internet if you’re really interested in the tech, but the essence of what you have to do is this: you must cut some kind of a deal with a brokerage firm and a stock exchange to get your awesome algorithm as close to the stock exchange as possible ! You must minimise the physical distance between the computer your algorithm is in, and the computer that the exchange’s order-matching system is in, so that the two can enter into an intense, light-speed dialogue with each other.
High Frequency Trading Solutions.
High-Frequency Trading (HFT) também conhecido como Algorithmic Trading tornou-se uma função importante dentro dos mercados financeiros globais. Os volumes de negociação estão em alta e a HFT é o maior contribuinte. A velocidade é o diferenciador mais importante no HFT. Portanto, é essencial estabelecer a menor latência possível entre os ambientes de processamento.
A demanda por servidores de negociação de baixa latência aumentou tremendamente desde o advento da negociação algorítmica. Uma vantagem competitiva é agora determinada por nanossegundos e microssegundos. A velocidade é importante para os participantes sofisticados do mercado, pois afeta a rentabilidade de suas estratégias de negociação inovadoras.
Igualmente importante é a capacidade de superar os concorrentes durante períodos de pico de atividade de mercado. Esses atributos exigem uma infraestrutura ágil e de alto desempenho que ofereça suporte aos aplicativos de software de execução de hoje e aborda os enormes volumes e surtos de dados de mercado associados a períodos de alta volatilidade.
Servidores de Negociação Extrema de Alta Freqüência.
XENON has a strong track record of providing highly reliable 1U trading servers and low-latency solutions to leading HFT firms in global financial markets. These solutions are:
Projetado especificamente para negociações de baixa latência e isso é conseguido selecionando os melhores componentes para nossos servidores 1U HFT Projetados para desempenho máximo devido ao overclocking de CPU e memória Testado extensivamente para durabilidade para garantir um tempo de operação 24 x 7 Uma arquitetura escalável com previsível desempenho que se ajusta para atender aos requisitos de negócios. Equipado para lidar com períodos extremamente voláteis de atividade de mercado, sem tempo de inatividade 24 x 7 Global Onsite Warranty Support.
Para fazer o download da folha de dados eXtreme HFT Servers da XENON, clique nos seguintes links:
Комментарии
Отправить комментарий