Começando: Construindo um Sistema de Negociação Totalmente Automatizado.
Nos últimos 6 meses, tenho focado no processo de construção da pilha completa de tecnologia de um sistema de negociação automatizado. Eu me deparei com muitos desafios e aprendi muito sobre os dois métodos diferentes de backtesting (Vectorised e Event driven). Na minha jornada para construir um backtester orientado a eventos, veio a minha surpresa que o que você iria acabar é perto de toda a pilha de tecnologia necessária para construir uma estratégia, fazer backtest e executar a execução ao vivo.
Meu maior problema ao enfrentar o problema foi a falta de conhecimento. Procurei em muitos lugares uma introdução à construção da tecnologia ou um blog que me orientasse. Eu encontrei alguns recursos que vou compartilhar com vocês hoje.
Para iniciantes:
Para os leitores novatos em negociações quantitativas, eu recomendaria o livro de Ernie P. Chan intitulado: Negociação Quantitativa: Como construir seu próprio negócio de comércio algorítmico. Este livro é o básico. Na verdade, é o primeiro livro que li sobre negociação quantitativa e mesmo assim achei muito básico, mas há algumas notas que você deve tomar.
Da página 81-84 Ernie escreve sobre como, no nível de varejo, uma arquitetura de sistema pode ser dividida em estratégias semi-automatizadas e totalmente automatizadas.
Um sistema semi-automatizado é adequado se você quiser fazer algumas transações por semana. Ernie recomenda usar o Matlab, R ou até mesmo o Excel. Eu usei todas as 3 plataformas e este é o meu conselho:
Saltar do Matlab, custou muito dinheiro e só consegui acesso aos laboratórios da universidade. Não há muito material de treinamento como blogs ou livros que ensinem como codificar uma estratégia usando o Matlab. R tem toneladas de recursos que você pode utilizar para aprender como construir uma estratégia. Meu blog favorito cobrindo o tópico é: QuantStratTradeR é executado por Ilya Kipnis. É mais provável que o Microsoft Excel inicie onde você não tem experiência em programação. Você pode usar o Excel para negociações semi-automáticas, mas isso não vai funcionar quando se trata de construir a pilha completa de tecnologias.
Estrutura semiautomática pg 81.
Sistemas de negociação totalmente automatizados são para quando você deseja colocar automaticamente as negociações com base em um feed de dados ao vivo. Eu codifiquei o meu em C #, o QuantConnect também usa o C #, o QuantStart orienta o leitor através da construção em Python, o Quantopian usa o Python, o HFT provavelmente usará o C ++. Java também é popular.
Estrutura de negociação completamente automatizada página 84.
Passo 1: Conseguir um bom começo.
Faça o Programa Executivo em Algorithmic Trading oferecido pela QuantInsti. Acabei de começar o curso e o primeiro conjunto de palestras foi na arquitetura do sistema. Teria me poupado cerca de 3 meses de pesquisa se eu tivesse começado aqui. As palestras me acompanharam através de cada componente que eu precisaria, bem como uma descrição detalhada do que cada componente precisa fazer. Abaixo está uma captura de tela de um de seus slides usados na apresentação:
Você também pode usar essa estrutura geral ao avaliar outros sistemas de negociação automáticos.
No momento em que escrevo, estou apenas na terceira semana de palestras, mas estou confiante de que um praticante será capaz de construir uma estratégia comercial totalmente automatizada que poderia, com um pouco de refinamento, ser transformada no começo de um fundo de hedge quantitativo. .
Nota: o curso não está focado na construção da pilha de tecnologia.
Etapa 2: codifique um backtester baseado em eventos básicos.
Blog de Michael Hallsmore, quantstart & amp; livro “Negociação Algorítmica Bem Sucedida”
Este livro tem seções dedicadas à construção de um robusto backtester orientado a eventos. Ele orienta o leitor através de vários capítulos que explicarão sua escolha de idioma, os diferentes tipos de backtesting, a importância do backtesting orientado a eventos e como codificar o backtester.
Michael introduz o leitor às diferentes classes necessárias em um projeto orientado a objetos. Ele também ensina o leitor a construir um banco de dados mestre de títulos. É aqui que você verá como a arquitetura do sistema da QuantInsti se encaixa.
Nota: Você precisará comprar o livro dele: “Successful Algorithmic Trading”, seu blog deixa de fora muita informação.
Passo 3: Volte para o TuringFinance.
O programa EPAT Reading “Successful Algorithmic Trading” & amp; codificando um backtester em um idioma diferente de sua escolha.
Você deve ir para um blog chamado TuringFinance e ler o artigo intitulado "Algorithmic Trading System Architecture" Por: Stuart Gordon Reid. Em seu post ele descreve a arquitetura seguindo as diretrizes dos padrões ISO / IEC / IEEE 42010 e padrão de descrição de arquitetura de engenharia de software.
Eu achei este post muito técnico e tem algumas ótimas idéias que você deve incorporar em sua própria arquitetura.
Uma captura de tela de seu post.
Etapa 4: Estude os sistemas de negociação de código aberto.
4.1) Quantopian.
Escusado será dizer que Quantopian deve ser adicionado a esta lista e tenho vergonha de dizer que não passei muito tempo usando sua plataforma (devido à minha escolha de idioma). Quantopian tem muitas vantagens, mas as que mais se destacam para mim são as seguintes:
Fácil de aprender Python Acesso gratuito a muitos conjuntos de dados Uma grande comunidade e competições Eu amo como eles hospedam a QuantCon!
Quantopian é os líderes de mercado neste campo e é amado por todos os quants! Seu projeto de código aberto está sob o nome de código Zipline e isso é um pouco sobre isso:
“O Zipline é o nosso mecanismo de código aberto que alimenta o backtester no IDE. Você pode ver o repositório de código no Github e contribuir com solicitações de pull para o projeto. Há um grupo do Google disponível para procurar ajuda e facilitar discussões. ”
Aqui está um link para sua documentação:
4.2) QuantConnect.
Para aqueles que não estão familiarizados com o QuantConnect, eles fornecem um mecanismo completo de negociação algorítmica de código aberto. Aqui está um link.
Você deve dar uma olhada no código deles, estudá-lo, & amp; dê-lhes louvor. Eles são competição de quantopianos.
Eu gostaria de aproveitar esta oportunidade para agradecer à equipe da QuantConnect por me deixar escolher o cérebro deles e pelo serviço brilhante que eles fornecem.
Aqui está um link para sua documentação:
Observações finais:
Espero que este guia ajude os membros da comunidade. Eu gostaria de ter essa percepção 6 meses atrás quando comecei a codificar nosso sistema.
Eu gostaria de falar com a comunidade e perguntar: “Que bons cursos de negociação algorítmica você conhece?” Eu gostaria de escrever um post que analise o tópico e forneça uma classificação. Há alguma recomendação para criar um sistema de negociação totalmente automatizado que você gostaria de adicionar a este post?
QuantOffice.
Descoberta Alfa e Execução Otimizada.
O QuantOffice é o produto para o desenvolvimento visual, depuração e back-testing de estratégias integradas Alpha / EMS usando C # e Dot Net. Ele fornece uma gama completa de eventos (por exemplo, OnBarClose, OnBarOpen, OnTick, OnOrderBookChange) para granularidade de nível de instrumento e portfólio e permite que combinações de periodicidade diária, intra-dia, tick e eventos personalizados sejam usadas na criação de ordem proprietária algoritmos de execução. Uma vez que uma estratégia tenha sido aperfeiçoada, a estratégia (representada pelo código C #) é publicada no Strategy Trading Server para execução da produção. Dados de séries temporais para back-testing, simulação e negociação de produção são fornecidos pela conectividade com o banco de dados TimeBase.
Designer de estratégia visual.
O QuantOffice: Studio fornece um ambiente de desenvolvimento completo em C #, incluindo integração bidirecional com o Microsoft Visual Studio, Matlab e R. O QuantOffice: Studio também oferece um rico conjunto de bibliotecas de indicadores técnicos padrão da indústria, modelos estatísticos e econométricos para desenvolver estratégias. Além de criar estratégias e modelos em C #, os usuários também podem usar o construtor de lógica de processo visual. Usando “arrastar e soltar”, os usuários criam um diagrama de fluxo de lógica de processo; pressionando um botão, em seguida, gera o código C # subjacente. Por outro lado, os usuários podem gerar o diagrama lógico do processo a partir do código; isto é, eles podem alternar entre o código e a representação gráfica da estratégia ou modelo.
Processamento de Eventos Complexos (CEP)
O QuantOffice é implementado com o TimeBase como sua fonte de dados. Como tal, o QuantOffice utiliza o barramento de mensagens integrado do TimeBase para o CEP. Os desenvolvedores de estratégia podem usar eventos fornecidos (por exemplo, OnBarClose, OnBarOpen, OnTick) ou desenvolver eventos mais sofisticados, por exemplo eventos criados como saída interina da própria estratégia, ou uma “meta-estratégia”, que é um modelo que orquestra outras “sub-estratégias”.
Análise Visual Rápida.
A saída de estratégias (indicadores, sinais de negociação, ordens, execuções e P & L) é rapidamente exibida graficamente, nos níveis de instrumento e portfólio. Inspeção microscópica desta saída pode ser realizada para ver o movimento de ticks dentro de barras e a geração de sinais, ordens e execuções em periodicidades de ticks. Isso permite uma rápida avaliação, refinamento e reexecução de modelos em um processo iterativo. O desempenho do gráfico é extraordinário: leva apenas alguns segundos para testar todos os instrumentos no S & amp; P500 ao longo dos anos de dados de ticks.
Todos os dados também podem ser exibidos em forma de tabela. Por exemplo, clicar com o botão direito do mouse em um único ponto em um gráfico mostrará todos os dados de mercado subjacentes antes, depois e depois desse ponto. Todos os dados podem ser despejados nos formatos Excel, csv e PDF.
Atuação.
A operação de tempo de execução dos modelos (nos modos de back-testing e simulação) é imensamente rápida, como resultado do processamento de mensagens medido em milhões de registros por segundo. A produção de modelos operando em centenas de instrumentos ao longo de anos de dados de ticks leva literalmente segundos. Além da engenharia superior, o desempenho do QuantOffice é aprimorado pela capacidade de pré-carregar eventos do TimeBase no cache de memória.
Instrumentos Suportados.
Ações, opções, futuros, moedas, pares, cestas e instrumentos sintéticos personalizados são suportados. Instrumentos sintéticos vão desde cestas até a produção de estratégias.
Dados e periodicidades suportados.
São suportados dados de periodicidade diária, intra-dia e tick, Nível I e Nível II (profundidade de mercado / carteira de pedidos), notícias e dados fundamentais. Os usuários podem combinar periodicidades diferentes para construir uma estratégia. Por exemplo, o usuário pode usar dados fundamentais trimestrais combinados com dados de barras diárias para rebalanceamento diário de portfólios e dados de barra de minutos, notícias ou ticks para refinamento de estratégias de execução.
Criação de Bar.
Além de acessar barras baseadas em tempo criadas pelo TimeBase, o QuantOffice pode ser usado para criar barras usando técnicas mais complexas, que são então armazenadas no TimeBase. Por exemplo, os usuários podem definir lógica para geração de barras “por volume igual” ou “por número de comércio igual”. Essas barras são armazenadas no TimeBase em tempo real e são acessíveis ao QuantOffice em tempo real.
Otimização.
O QuantOffice suporta a otimização dos parâmetros do modelo pelos métodos de força bruta, genética e dinâmica (walk-forward). Uma das características mais interessantes da otimização dinâmica é a capacidade de definir uma “meta-estratégia”, ou seja, uma estratégia que controla, em relação a quando elas são executadas, outras “sub” estratégias criadas no QuantOffice.
Calendários de Negociação, Sessões de Negociação e Trocas.
O QuantOffice mantém calendários comerciais e feriados para todas as trocas. Dentro dessas restrições, os usuários podem definir sessões de negociação personalizadas, como intervalos de negociação diferentes, dias “sem negociação” e negociações contínuas de 24 horas. Para instrumentos sintéticos, o QuantOffice define automaticamente os intervalos da sessão de negociação como a interseção das sessões de negociação para as trocas de fonte do instrumento sintético.
Estratégias e Contas.
Estratégias podem ser definidas como “sub” estratégias de “meta” estratégias. Da mesma forma, as contas de negociação podem ser agrupadas em contas principais.
Mecanismo de relatórios.
O QuantOffice vem com um conjunto de relatórios padrão, incluindo relatórios de comércio (pedido e execução), desempenho (P & amp; L, levantamento, Sharpe, Sortino, etc.). Existem vários critérios de relatório definíveis, como intervalo de tempo, estratégia, grupos de estratégias, bem como a capacidade de criar relatórios definidos pelo usuário.
Implantação de produção.
Uma vez criados e otimizados, os modelos que estão prontos para a implantação de produção são implantados como está em QuantServer: UHF Trader. Como tal, não há “risco de implantação de modelo” que pode ocorrer quando um modelo é reprojetado no ambiente de negociação de produção.
Além disso, tendo implantado o modelo em produção, os usuários podem ver o desempenho real do modelo em relação aos dados de mercado em tempo real no QuantOffice - o mesmo ambiente em que o modelo foi criado e otimizado.
“Modo de aquecimento”: Transição contínua da simulação para a produção.
Um problema clássico ao migrar para a implantação da produção é que a estratégia precisa "conhecer" todos os seus indicadores de séries temporais com base em dados históricos anteriores. O QuantOffice pode ser executado no “modo de aquecimento”, em cujo estado ele verifica constantemente o “tempo de estratégia” em relação aos registros de data e hora dos dados de mercado. Assim, o QuantOffice executa a estratégia em dados históricos até que os dados em tempo real sejam alcançados, quando os sinais de negociação geram pedidos de negociação em tempo real.
Gerenciamento de execução de pedidos.
Particularmente em estratégias de negociação de alta frequência com baixas margens por negociação, o desempenho de qualquer geração alfa é altamente dependente do sucesso da tradução de sinais de negociação em transações executadas com escorregamentos mínimos. Para permitir um acoplamento estreito entre a geração alfa e a execução de ordens, o QuantOffice possui capacidade de execução de ordens onde os usuários podem definir seus próprios algoritmos de execução.
Simulador de Negociação.
Um dos principais desafios na criação bem-sucedida de estratégias de geração alfa é minimizar a diferença nos retornos observados durante o teste de retorno e os retornos realmente obtidos durante a negociação ao vivo. Além de evitar o “overfitting” da estratégia para o conjunto de dados de treinamento, um componente chave para obter consistência de retorno entre o backtesting e a produção é um simulador de negociação eficaz. O simulador de negociação QuantOffice permite o controle preciso das premissas de negociação, por exemplo, especificando o número de pulsos que decorrem entre a criação e a execução do pedido, conclusão do pedido de porcentagem.
Arquitetura e Design.
O QuantOffice é escrito em C # e é executado no Windows. Uma API rica e documentada permite interação direta com o ambiente QuantOffice. Os usuários também podem criar seus modelos, ou usar modelos existentes, escritos em C ++ e usar a API do QuantOffice para integrá-los ao ambiente do QuantOffice, com acesso total ao TimeBase e ao QuantServer.
Para uma demonstração, entre em contato conosco pelo sales @ deltixlab ou ligue para 1-800-856-6120.
Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Melhor Linguagem de Programação para Sistemas de Negociação Algorítmica?
Uma das perguntas mais freqüentes que recebo no mailbag do QS é "Qual é a melhor linguagem de programação para negociação algorítmica?". A resposta curta é que não há "melhor" linguagem. Parâmetros de estratégia, desempenho, modularidade, desenvolvimento, resiliência e custo devem ser considerados. Este artigo descreverá os componentes necessários de uma arquitetura de sistema de comércio algorítmico e como as decisões relativas à implementação afetam a escolha da linguagem.
Primeiramente, os principais componentes de um sistema de negociação algorítmica serão considerados, como as ferramentas de pesquisa, o otimizador de portfólio, o gerenciador de risco e o mecanismo de execução. Posteriormente, diferentes estratégias de negociação serão examinadas e como elas afetam o design do sistema. Em particular, a frequência de negociação e o volume de negociação provável serão ambos discutidos.
Uma vez que a estratégia de negociação tenha sido selecionada, é necessário arquitetar todo o sistema. Isso inclui a escolha de hardware, o sistema operacional e a resiliência do sistema contra eventos raros e potencialmente catastróficos. Enquanto a arquitetura está sendo considerada, a devida atenção deve ser dada ao desempenho - tanto para as ferramentas de pesquisa quanto para o ambiente de execução ao vivo.
Qual é o sistema de negociação tentando fazer?
Antes de decidir sobre a "melhor" linguagem com a qual escrever um sistema de negociação automatizado, é necessário definir os requisitos. O sistema será puramente baseado em execução? O sistema exigirá um módulo de gerenciamento de risco ou de construção de portfólio? O sistema exigirá um backtester de alto desempenho? Para a maioria das estratégias, o sistema de negociação pode ser dividido em duas categorias: Pesquisa e geração de sinais.
A pesquisa está preocupada com a avaliação de um desempenho da estratégia em relação aos dados históricos. O processo de avaliação de uma estratégia de negociação sobre dados de mercado anteriores é conhecido como backtesting. O tamanho dos dados e a complexidade algorítmica terão um grande impacto na intensidade computacional do backtester. A velocidade e a simultaneidade da CPU costumam ser os fatores limitantes na otimização da velocidade de execução da pesquisa.
A geração de sinais preocupa-se em gerar um conjunto de sinais de negociação de um algoritmo e enviar esses pedidos ao mercado, geralmente por meio de uma corretora. Para determinadas estratégias, é necessário um alto nível de desempenho. Problemas de E / S, como largura de banda de rede e latência, são muitas vezes o fator limitante na otimização de sistemas de execução. Assim, a escolha de idiomas para cada componente de todo o seu sistema pode ser bem diferente.
Tipo, Frequência e Volume de Estratégia.
O tipo de estratégia algorítmica empregada terá um impacto substancial no design do sistema. Será necessário considerar os mercados que estão sendo negociados, a conectividade com fornecedores de dados externos, a frequência e o volume da estratégia, o trade-off entre a facilidade de desenvolvimento e a otimização de desempenho, bem como qualquer hardware personalizado, incluindo customização co-localizada servidores, GPUs ou FPGAs que possam ser necessários.
As escolhas tecnológicas para uma estratégia de ações norte-americanas de baixa frequência serão muito diferentes daquelas de uma negociação de estratégia de arbitragem estatística de alta frequência no mercado de futuros. Antes da escolha da linguagem, muitos fornecedores de dados devem ser avaliados quanto à estratégia em questão.
Será necessário considerar a conectividade com o fornecedor, a estrutura de quaisquer APIs, a pontualidade dos dados, os requisitos de armazenamento e a resiliência em face de um fornecedor ficar off-line. Também é aconselhável ter acesso rápido a vários fornecedores! Vários instrumentos têm suas próprias peculiaridades de armazenamento, exemplos dos quais incluem vários símbolos de ticker para ações e datas de vencimento para futuros (para não mencionar quaisquer dados OTC específicos). Isso precisa ser levado em conta no design da plataforma.
A frequência da estratégia é provavelmente um dos maiores impulsionadores de como a pilha de tecnologia será definida. Estratégias que empregam dados com mais freqüência do que minuciosamente ou em segundo lugar exigem consideração significativa com relação ao desempenho.
Uma estratégia que excede as segundas barras (isto é, dados de ticks) leva a um design orientado pelo desempenho como o requisito primário. Para estratégias de alta frequência, uma quantidade substancial de dados de mercado precisará ser armazenada e avaliada. Softwares como HDF5 ou kdb + são comumente usados para essas funções.
Para processar os volumes extensos de dados necessários para aplicativos HFT, um backtester e um sistema de execução extensivamente otimizados devem ser usados. C / C ++ (possivelmente com algum montador) é provável que seja o candidato a idioma mais forte. Estratégias de frequência ultra-alta quase certamente exigirão hardware customizado, como FPGAs, co-location de troca e ajuste de interface de rede / kernal.
Sistemas de pesquisa.
Os sistemas de pesquisa geralmente envolvem uma mistura de desenvolvimento interativo e scripts automatizados. O primeiro ocorre com frequência dentro de um IDE, como o Visual Studio, o MatLab ou o R Studio. Este último envolve extensos cálculos numéricos sobre numerosos parâmetros e pontos de dados. Isso leva a uma escolha de idioma que fornece um ambiente simples para testar o código, mas também fornece desempenho suficiente para avaliar as estratégias em várias dimensões de parâmetro.
IDEs típicos nesse espaço incluem o Microsoft Visual C ++ / C #, que contém extensos utilitários de depuração, recursos de conclusão de código (via "Intellisense") e visões gerais simples da pilha inteira do projeto (via banco de dados ORM, LINQ); MatLab, que é projetado para extensa álgebra linear numérica e operações vetorizadas, mas de uma forma de console interativo; R Studio, que envolve o console de linguagem estatística R em um IDE completo; Eclipse IDE para Linux Java e C ++; e IDEs semi-proprietários como o Enthought Canopy for Python, que incluem bibliotecas de análise de dados como NumPy, SciPy, scikit-learn e pandas em um único ambiente interativo (console).
Para backtesting numérico, todos os idiomas acima são adequados, embora não seja necessário utilizar uma GUI / IDE, pois o código será executado "em segundo plano". A consideração principal neste estágio é a velocidade de execução. Uma linguagem compilada (como C ++) é geralmente útil se as dimensões do parâmetro de backtesting forem grandes. Lembre-se que é necessário ter cuidado com esses sistemas, se for esse o caso!
Linguagens interpretadas, como Python, geralmente usam bibliotecas de alto desempenho, como NumPy / pandas, para a etapa de backtesting, a fim de manter um grau razoável de competitividade com equivalentes compilados. Em última análise, a linguagem escolhida para o backtesting será determinada por necessidades algorítmicas específicas, bem como o leque de bibliotecas disponíveis na linguagem (mais sobre isso abaixo). No entanto, a linguagem usada para os ambientes de backtester e de pesquisa pode ser completamente independente daquelas usadas nos componentes de construção de portfólio, gerenciamento de risco e execução, como será visto.
Construção de Carteira e Gestão de Risco.
Os componentes de gerenciamento de risco e de construção de portfólio são frequentemente negligenciados por traders algorítmicos de varejo. Isso é quase sempre um erro. Essas ferramentas fornecem o mecanismo pelo qual o capital será preservado. Eles não apenas tentam aliviar o número de apostas "arriscadas", mas também minimizam a rotatividade dos negócios, reduzindo os custos de transação.
Versões sofisticadas desses componentes podem ter um efeito significativo na qualidade e consistência da lucratividade. É fácil criar uma estratégia estável, pois o mecanismo de construção de portfólio e o gerenciador de risco podem ser facilmente modificados para lidar com vários sistemas. Assim, eles devem ser considerados componentes essenciais no início do projeto de um sistema de negociação algorítmica.
O trabalho do sistema de construção de portfólio é pegar um conjunto de negócios desejados e produzir o conjunto de negociações reais que minimizam o churn, manter exposições a vários fatores (como setores, classes de ativos, volatilidade, etc.) e otimizar a alocação de capital para vários estratégias em um portfólio.
A construção de portfólio geralmente se reduz a um problema de álgebra linear (como uma fatoração de matriz) e, portanto, o desempenho é altamente dependente da eficácia da implementação da álgebra linear numérica disponível. Bibliotecas comuns incluem uBLAS, LAPACK e NAG para C ++. O MatLab também possui operações de matriz amplamente otimizadas. O Python utiliza o NumPy / SciPy para tais cálculos. Um portfólio freqüentemente reequilibrado exigirá uma biblioteca matricial compilada (e bem otimizada!) Para realizar este passo, de modo a não afunilar o sistema de negociação.
O gerenciamento de riscos é outra parte extremamente importante de um sistema de negociação algorítmica. O risco pode vir de várias formas: aumento da volatilidade (embora isso possa ser visto como desejável para certas estratégias!), Aumento de correlações entre classes de ativos, inadimplência de terceiros, interrupções de servidor, eventos "black swan" e erros não detectados no código de negociação. para nomear alguns.
Os componentes de gerenciamento de risco tentam antecipar os efeitos da volatilidade excessiva e correlação entre as classes de ativos e seus efeitos subsequentes sobre o capital comercial. Muitas vezes, isso reduz a um conjunto de cálculos estatísticos, como os "testes de estresse" de Monte Carlo. Isso é muito semelhante às necessidades computacionais de um mecanismo de precificação de derivativos e, como tal, será vinculado à CPU. Estas simulações são altamente paralelizáveis (veja abaixo) e, até certo ponto, é possível "lançar hardware no problema".
Sistemas de Execução.
O trabalho do sistema de execução é receber sinais de negociação filtrados dos componentes de construção de carteira e gerenciamento de risco e enviá-los para uma corretora ou outros meios de acesso ao mercado. Para a maioria das estratégias de negociação algorítmica de varejo, isso envolve uma conexão API ou FIX para uma corretora como a Interactive Brokers. As principais considerações ao decidir sobre uma linguagem incluem a qualidade da API, a disponibilidade do wrapper de idioma para uma API, a frequência de execução e o escorregamento previsto.
A "qualidade" da API refere-se a quão bem documentada ela é, que tipo de desempenho ela fornece, se precisa de software independente para ser acessado ou se um gateway pode ser estabelecido de maneira sem cabeça (ou seja, sem GUI). No caso dos Interactive Brokers, a ferramenta Trader WorkStation precisa estar em execução em um ambiente GUI para acessar sua API. Certa vez, tive que instalar uma edição Ubuntu Desktop em um servidor de nuvem da Amazon para acessar remotamente o Interactive Brokers, puramente por esse motivo!
A maioria das APIs fornecerá uma interface C ++ e / ou Java. Geralmente, cabe à comunidade desenvolver wrappers específicos de linguagem para C #, Python, R, Excel e MatLab. Observe que, com cada plug-in adicional utilizado (especialmente os wrappers de APIs), há escopo para os bugs se infiltrarem no sistema. Sempre teste plugins desse tipo e garanta que eles sejam ativamente mantidos. Um indicador que vale a pena é ver quantas novas atualizações foram feitas em uma base de código nos últimos meses.
Freqüência de execução é da maior importância no algoritmo de execução. Observe que centenas de pedidos podem ser enviados a cada minuto e, como tal, o desempenho é crítico. A derrapagem será incorrida através de um sistema de execução com péssimo desempenho e isso terá um impacto dramático na lucratividade.
As linguagens com tipagem estática (veja abaixo) como C ++ / Java são geralmente ótimas para execução, mas há um compromisso em tempo de desenvolvimento, teste e facilidade de manutenção. Linguagens dinamicamente tipificadas, como Python e Perl, são geralmente "rápidas o suficiente". Certifique-se sempre de que os componentes são projetados de maneira modular (veja abaixo) para que possam ser "trocados" conforme o sistema é dimensionado.
Planejamento arquitetônico e processo de desenvolvimento.
Os componentes de um sistema de negociação, seus requisitos de frequência e volume foram discutidos acima, mas a infra-estrutura do sistema ainda não foi coberta. Aqueles que atuam como comerciantes de varejo ou trabalham em um pequeno fundo provavelmente estarão "usando muitos chapéus". Será necessário estar cobrindo o modelo alfa, os parâmetros de gerenciamento de risco e execução, e também a implementação final do sistema. Antes de aprofundar em linguagens específicas, o design de uma arquitetura de sistema ideal será discutido.
Separação de preocupações.
Uma das decisões mais importantes que devem ser tomadas no início é como "separar as preocupações" de um sistema de negociação. No desenvolvimento de software, isso significa essencialmente dividir os diferentes aspectos do sistema de negociação em componentes modulares separados.
Ao expor as interfaces em cada um dos componentes, é fácil trocar partes do sistema por outras versões que auxiliem o desempenho, a confiabilidade ou a manutenção, sem modificar nenhum código de dependência externo. Essa é a "melhor prática" para esses sistemas. Para estratégias em freqüências mais baixas, tais práticas são recomendadas. Para negociação de ultra alta frequência, o livro de regras pode ter que ser ignorado em detrimento do ajuste do sistema para um desempenho ainda maior. Um sistema mais fortemente acoplado pode ser desejável.
Criar um mapa de componentes de um sistema de negociação algorítmico vale um artigo em si. No entanto, uma abordagem ideal é garantir que haja componentes separados para as entradas de dados de mercado históricas e em tempo real, armazenamento de dados, API de acesso a dados, backtester, parâmetros estratégicos, construção de portfólio, gerenciamento de risco e sistemas automatizados de execução.
Por exemplo, se o armazenamento de dados em uso estiver atualmente com desempenho insatisfatório, mesmo em níveis significativos de otimização, ele poderá ser substituído com reescritas mínimas para a API de acesso a dados ou acesso a dados. Tanto quanto o backtester e componentes subseqüentes estão em causa, não há diferença.
Outro benefício dos componentes separados é que ele permite que uma variedade de linguagens de programação seja usada no sistema geral. Não há necessidade de se restringir a um único idioma se o método de comunicação dos componentes for independente de idioma. Este será o caso se eles estiverem se comunicando via TCP / IP, Zero ou algum outro protocolo independente de linguagem.
Como um exemplo concreto, considere o caso de um sistema de backtesting sendo escrito em C ++ para desempenho "processamento de números", enquanto o gerenciador de portfólio e os sistemas de execução são escritos em Python usando SciPy e IBPy.
Considerações de desempenho.
O desempenho é uma consideração significativa para a maioria das estratégias de negociação. Para estratégias de maior frequência, é o fator mais importante. "Desempenho" abrange uma ampla variedade de problemas, como velocidade de execução algorítmica, latência de rede, largura de banda, E / S de dados, simultaneidade / paralelismo e dimensionamento. Cada uma dessas áreas é coberta individualmente por grandes livros didáticos, portanto, este artigo apenas arranhará a superfície de cada tópico. A arquitetura e a escolha de idiomas serão agora discutidas em termos de seus efeitos no desempenho.
A sabedoria predominante, como afirma Donald Knuth, um dos pais da Ciência da Computação, é que "a otimização prematura é a raiz de todo o mal". Isso é quase sempre o caso - exceto quando se constrói um algoritmo de negociação de alta frequência! Para aqueles que estão interessados em estratégias de baixa frequência, uma abordagem comum é construir um sistema da maneira mais simples possível e apenas otimizar à medida que os gargalos começam a aparecer.
As ferramentas de criação de perfil são usadas para determinar onde os gargalos surgem. Os perfis podem ser feitos para todos os fatores listados acima, seja em um ambiente MS Windows ou Linux. Existem muitas ferramentas de sistema operacional e idioma disponíveis para isso, bem como utilitários de terceiros. A escolha da língua será agora discutida no contexto do desempenho.
C ++, Java, Python, R e MatLab contêm bibliotecas de alto desempenho (como parte de seus padrões ou externamente) para estrutura de dados básica e trabalho algorítmico. O C ++ é fornecido com a Biblioteca de Modelos Padrão, enquanto o Python contém o NumPy / SciPy. Tarefas matemáticas comuns são encontradas nessas bibliotecas e raramente é benéfico escrever uma nova implementação.
Uma exceção é se a arquitetura de hardware altamente personalizada for necessária e um algoritmo estiver fazendo uso extensivo de extensões proprietárias (como caches personalizados). No entanto, muitas vezes a "reinvenção da roda" desperdiça tempo que poderia ser mais bem gasto desenvolvendo e otimizando outras partes da infraestrutura de negociação. O tempo de desenvolvimento é extremamente precioso, especialmente no contexto de desenvolvedores únicos.
A latência é frequentemente uma questão do sistema de execução, pois as ferramentas de pesquisa geralmente estão situadas na mesma máquina. Para o primeiro, a latência pode ocorrer em vários pontos ao longo do caminho de execução. Os bancos de dados devem ser consultados (latência de disco / rede), os sinais devem ser gerados (sistema operacional, latência do sistema de mensagens kernal), sinais de negociação enviados (latência NIC) e pedidos processados (latência interna dos sistemas de intercâmbio).
Para operações de freqüência mais alta, é necessário tornar-se intimamente familiarizado com a otimização do kernal, bem como com a otimização da transmissão da rede. Esta é uma área profunda e está significativamente além do escopo do artigo, mas se um algoritmo UHFT for desejado, esteja ciente da profundidade do conhecimento necessário!
O cache é muito útil no kit de ferramentas de um desenvolvedor de comércio quantitativo. O armazenamento em cache se refere ao conceito de armazenamento de dados acessados com frequência de uma maneira que permite acesso de maior desempenho, em detrimento do possível enfraquecimento dos dados. Um caso de uso comum ocorre no desenvolvimento da Web ao obter dados de um banco de dados relacional baseado em disco e colocá-lo na memória. Quaisquer solicitações subsequentes para os dados não precisam "atingir o banco de dados" e, portanto, os ganhos de desempenho podem ser significativos.
Para situações de negociação, o armazenamento em cache pode ser extremamente benéfico. Por exemplo, o estado atual de um portfólio de estratégias pode ser armazenado em um cache até que ele seja reequilibrado, de modo que a lista não precise ser regenerada em cada loop do algoritmo de negociação. Essa regeneração provavelmente será uma operação alta de I / O de CPU ou disco.
No entanto, o armazenamento em cache não é isento de seus próprios problemas. A regeneração dos dados em cache de uma só vez, devido à natureza volátil do armazenamento em cache, pode colocar uma demanda significativa na infraestrutura. Outro problema é o empilhamento de cães, em que múltiplas gerações de uma nova cópia de cache são realizadas sob uma carga extremamente alta, o que leva a uma falha em cascata.
Alocação de memória dinâmica é uma operação cara na execução de software. Portanto, é imperativo que os aplicativos de negociação de desempenho mais alto conheçam bem como a memória está sendo alocada e desalocada durante o fluxo do programa. Novos padrões de linguagem, como Java, C # e Python, executam a coleta de lixo automática, que se refere à desalocação da memória alocada dinamicamente quando os objetos saem do escopo.
A coleta de lixo é extremamente útil durante o desenvolvimento, pois reduz os erros e ajuda na legibilidade. No entanto, muitas vezes é sub-ótimo para certas estratégias de negociação de alta frequência. A coleta de lixo personalizada é geralmente desejada para esses casos. Em Java, por exemplo, ajustando o coletor de lixo e a configuração de heap, é possível obter alto desempenho para estratégias de HFT.
O C ++ não fornece um coletor de lixo nativo e, portanto, é necessário manipular toda alocação / desalocação de memória como parte da implementação de um objeto. Embora potencialmente sujeito a erros (potencialmente levando a ponteiros pendentes), é extremamente útil ter um controle refinado de como os objetos aparecem no heap para determinados aplicativos. Ao escolher um idioma, certifique-se de estudar como o coletor de lixo funciona e se ele pode ser modificado para otimizar um determinado caso de uso.
Muitas operações em sistemas de negociação algorítmica são passíveis de paralelização. Isto refere-se ao conceito de realizar múltiplas operações programáticas ao mesmo tempo, isto é, em "paralelo". Os chamados algoritmos "embarassingly parallel" incluem etapas que podem ser calculadas de forma totalmente independente de outras etapas. Certas operações estatísticas, como as simulações de Monte Carlo, são um bom exemplo de algoritmos embarassingly paralelos, pois cada sorteio aleatório e subseqüente operação de caminho podem ser computados sem o conhecimento de outros caminhos.
Outros algoritmos são apenas parcialmente paralelizáveis. Simulações de dinâmica de fluidos são um exemplo, onde o domínio de computação pode ser subdividido, mas, em última instância, esses domínios devem se comunicar entre si e, assim, as operações são parcialmente sequenciais. Os algoritmos paralelizáveis estão sujeitos à Lei de Amdahl, que fornece um limite superior teórico para o aumento de desempenho de um algoritmo paralelizado quando sujeito a processos separados por $ N $ (por exemplo, em um núcleo ou encadeamento da CPU).
A paralelização tornou-se cada vez mais importante como um meio de otimização, uma vez que as velocidades de clock do processador estagnaram, pois os processadores mais recentes contêm muitos núcleos com os quais executar cálculos paralelos. O aumento do hardware gráfico do consumidor (predominantemente para videogames) levou ao desenvolvimento de Unidades de Processamento Gráfico (Graphical Processing Units - GPUs), que contêm centenas de "núcleos" para operações altamente concorrentes. Essas GPUs agora são muito acessíveis. Estruturas de alto nível, como o CUDA da Nvidia, levaram à adoção generalizada na academia e nas finanças.
Esse hardware GPU geralmente é adequado apenas para o aspecto de pesquisa de finanças quantitativas, enquanto outros hardwares mais especializados (incluindo Field-Programmable Gate Arrays - FPGAs) são usados para (U) HFT. Atualmente, os idiomas mais modernos suportam um grau de simultaneidade / multithreading. Assim, é fácil otimizar um backtester, já que todos os cálculos são geralmente independentes dos demais.
O dimensionamento em engenharia de software e operações refere-se à capacidade do sistema de manipular cargas crescentes consistentemente na forma de solicitações maiores, maior uso do processador e mais alocação de memória. No comércio algorítmico, uma estratégia é capaz de escalonar se puder aceitar maiores quantidades de capital e ainda produzir retornos consistentes. A pilha de tecnologia de negociação é dimensionada se puder suportar maiores volumes de negócios e maior latência, sem gargalos.
Embora os sistemas devam ser projetados para escalar, muitas vezes é difícil prever antecipadamente onde ocorrerá um gargalo. Registro, testes, criação de perfil e monitoramento rigorosos ajudarão muito a permitir que um sistema seja dimensionado. Os próprios idiomas são geralmente descritos como "não escaláveis". Isso geralmente é resultado de desinformação, e não de fatos concretos. É a pilha total de tecnologia que deve ser verificada para escalabilidade, não para o idioma. É claro que certas linguagens têm um desempenho maior do que outras em casos de uso específicos, mas uma linguagem nunca é "melhor" que outra em todos os sentidos.
Um meio de administrar escala é separar as preocupações, como dito acima. De modo a introduzir ainda a capacidade de lidar com "picos" no sistema (isto é, volatilidade súbita que desencadeia uma série de operações), é útil criar uma "arquitectura de fila de mensagens". Isso significa simplesmente colocar um sistema de fila de mensagens entre os componentes para que os pedidos sejam "empilhados" se um determinado componente não puder processar muitas solicitações.
Em vez de solicitações serem perdidas, elas são simplesmente mantidas em uma pilha até que a mensagem seja manipulada. This is particularly useful for sending trades to an execution engine. If the engine is suffering under heavy latency then it will back up trades. A queue between the trade signal generator and the execution API will alleviate this issue at the expense of potential trade slippage. A well-respected open source message queue broker is Rabbit.
Hardware and Operating Systems.
The hardware running your strategy can have a significant impact on the profitability of your algorithm. This is not an issue restricted to high frequency traders either. A poor choice in hardware and operating system can lead to a machine crash or reboot at the most inopportune moment. Thus it is necessary to consider where your application will reside. The choice is generally between a personal desktop machine, a remote server, a "cloud" provider or an exchange co-located server.
Desktop machines are simple to install and administer, especially with newer user friendly operating systems such as Windows 7/8, Mac OSX and Ubuntu. Desktop systems do possess some significant drawbacks, however. The foremost is that the versions of operating systems designed for desktop machines are likely to require reboots/patching (and often at the worst of times!). They also use up more computational resources by the virtue of requiring a graphical user interface (GUI).
Utilising hardware in a home (or local office) environment can lead to internet connectivity and power uptime problems. The main benefit of a desktop system is that significant computational horsepower can be purchased for the fraction of the cost of a remote dedicated server (or cloud based system) of comparable speed.
A dedicated server or cloud-based machine, while often more expensive than a desktop option, allows for more significant redundancy infrastructure, such as automated data backups, the ability to more straightforwardly ensure uptime and remote monitoring. They are harder to administer since they require the ability to use remote login capabilities of the operating system.
In Windows this is generally via the GUI Remote Desktop Protocol (RDP). In Unix-based systems the command-line Secure SHell (SSH) is used. Unix-based server infrastructure is almost always command-line based which immediately renders GUI-based programming tools (such as MatLab or Excel) to be unusable.
A co-located server, as the phrase is used in the capital markets, is simply a dedicated server that resides within an exchange in order to reduce latency of the trading algorithm. This is absolutely necessary for certain high frequency trading strategies, which rely on low latency in order to generate alpha.
The final aspect to hardware choice and the choice of programming language is platform-independence. Is there a need for the code to run across multiple different operating systems? Is the code designed to be run on a particular type of processor architecture, such as the Intel x86/x64 or will it be possible to execute on RISC processors such as those manufactured by ARM? These issues will be highly dependent upon the frequency and type of strategy being implemented.
Resilience and Testing.
One of the best ways to lose a lot of money on algorithmic trading is to create a system with no resiliency . This refers to the durability of the sytem when subject to rare events, such as brokerage bankruptcies, sudden excess volatility, region-wide downtime for a cloud server provider or the accidental deletion of an entire trading database. Years of profits can be eliminated within seconds with a poorly-designed architecture. It is absolutely essential to consider issues such as debuggng, testing, logging, backups, high-availability and monitoring as core components of your system.
It is likely that in any reasonably complicated custom quantitative trading application at least 50% of development time will be spent on debugging, testing and maintenance.
Nearly all programming languages either ship with an associated debugger or possess well-respected third-party alternatives. In essence, a debugger allows execution of a program with insertion of arbitrary break points in the code path, which temporarily halt execution in order to investigate the state of the system. The main benefit of debugging is that it is possible to investigate the behaviour of code prior to a known crash point .
Debugging is an essential component in the toolbox for analysing programming errors. However, they are more widely used in compiled languages such as C++ or Java, as interpreted languages such as Python are often easier to debug due to fewer LOC and less verbose statements. Despite this tendency Python does ship with the pdb, which is a sophisticated debugging tool. The Microsoft Visual C++ IDE possesses extensive GUI debugging utilities, while for the command line Linux C++ programmer, the gdb debugger exists.
Testing in software development refers to the process of applying known parameters and results to specific functions, methods and objects within a codebase, in order to simulate behaviour and evaluate multiple code-paths, helping to ensure that a system behaves as it should. A more recent paradigm is known as Test Driven Development (TDD), where test code is developed against a specified interface with no implementation. Prior to the completion of the actual codebase all tests will fail. As code is written to "fill in the blanks", the tests will eventually all pass, at which point development should cease.
TDD requires extensive upfront specification design as well as a healthy degree of discipline in order to carry out successfully. In C++, Boost provides a unit testing framework. In Java, the JUnit library exists to fulfill the same purpose. Python also has the unittest module as part of the standard library. Many other languages possess unit testing frameworks and often there are multiple options.
In a production environment, sophisticated logging is absolutely essential. Logging refers to the process of outputting messages, with various degrees of severity, regarding execution behaviour of a system to a flat file or database. Logs are a "first line of attack" when hunting for unexpected program runtime behaviour. Unfortunately the shortcomings of a logging system tend only to be discovered after the fact! As with backups discussed below, a logging system should be given due consideration BEFORE a system is designed.
Both Microsoft Windows and Linux come with extensive system logging capability and programming languages tend to ship with standard logging libraries that cover most use cases. It is often wise to centralise logging information in order to analyse it at a later date, since it can often lead to ideas about improving performance or error reduction, which will almost certainly have a positive impact on your trading returns.
While logging of a system will provide information about what has transpired in the past, monitoring of an application will provide insight into what is happening right now . All aspects of the system should be considered for monitoring. System level metrics such as disk usage, available memory, network bandwidth and CPU usage provide basic load information.
Trading metrics such as abnormal prices/volume, sudden rapid drawdowns and account exposure for different sectors/markets should also be continuously monitored. Further, a threshold system should be instigated that provides notification when certain metrics are breached, elevating the notification method (email, SMS, automated phone call) depending upon the severity of the metric.
System monitoring is often the domain of the system administrator or operations manager. However, as a sole trading developer, these metrics must be established as part of the larger design. Many solutions for monitoring exist: proprietary, hosted and open source, which allow extensive customisation of metrics for a particular use case.
Backups and high availability should be prime concerns of a trading system. Consider the following two questions: 1) If an entire production database of market data and trading history was deleted (without backups) how would the research and execution algorithm be affected? 2) If the trading system suffers an outage for an extended period (with open positions) how would account equity and ongoing profitability be affected? The answers to both of these questions are often sobering!
It is imperative to put in place a system for backing up data and also for testing the restoration of such data. Many individuals do not test a restore strategy. If recovery from a crash has not been tested in a safe environment, what guarantees exist that restoration will be available at the worst possible moment?
Similarly, high availability needs to be "baked in from the start". Redundant infrastructure (even at additional expense) must always be considered, as the cost of downtime is likely to far outweigh the ongoing maintenance cost of such systems. I won't delve too deeply into this topic as it is a large area, but make sure it is one of the first considerations given to your trading system.
Choosing a Language.
Considerable detail has now been provided on the various factors that arise when developing a custom high-performance algorithmic trading system. The next stage is to discuss how programming languages are generally categorised.
Type Systems.
When choosing a language for a trading stack it is necessary to consider the type system . The languages which are of interest for algorithmic trading are either statically - or dynamically-typed . A statically-typed language performs checks of the types (e. g. integers, floats, custom classes etc) during the compilation process. Such languages include C++ and Java. A dynamically-typed language performs the majority of its type-checking at runtime. Such languages include Python, Perl and JavaScript.
For a highly numerical system such as an algorithmic trading engine, type-checking at compile time can be extremely beneficial, as it can eliminate many bugs that would otherwise lead to numerical errors. However, type-checking doesn't catch everything, and this is where exception handling comes in due to the necessity of having to handle unexpected operations. 'Dynamic' languages (i. e. those that are dynamically-typed) can often lead to run-time errors that would otherwise be caught with a compilation-time type-check. For this reason, the concept of TDD (see above) and unit testing arose which, when carried out correctly, often provides more safety than compile-time checking alone.
Another benefit of statically-typed languages is that the compiler is able to make many optimisations that are otherwise unavailable to the dynamically - typed language, simply because the type (and thus memory requirements) are known at compile-time. In fact, part of the inefficiency of many dynamically-typed languages stems from the fact that certain objects must be type-inspected at run-time and this carries a performance hit. Libraries for dynamic languages, such as NumPy/SciPy alleviate this issue due to enforcing a type within arrays.
Open Source or Proprietary?
One of the biggest choices available to an algorithmic trading developer is whether to use proprietary (commercial) or open source technologies. Existem vantagens e desvantagens para ambas as abordagens. It is necessary to consider how well a language is supported, the activity of the community surrounding a language, ease of installation and maintenance, quality of the documentation and any licensing/maintenance costs.
The Microsoft. NET stack (including Visual C++, Visual C#) and MathWorks' MatLab are two of the larger proprietary choices for developing custom algorithmic trading software. Both tools have had significant "battle testing" in the financial space, with the former making up the predominant software stack for investment banking trading infrastructure and the latter being heavily used for quantitative trading research within investment funds.
Microsoft and MathWorks both provide extensive high quality documentation for their products. Further, the communities surrounding each tool are very large with active web forums for both. The. NET software allows cohesive integration with multiple languages such as C++, C# and VB, as well as easy linkage to other Microsoft products such as the SQL Server database via LINQ. MatLab also has many plugins/libraries (some free, some commercial) for nearly any quantitative research domain.
There are also drawbacks. With either piece of software the costs are not insignificant for a lone trader (although Microsoft does provide entry-level version of Visual Studio for free). Microsoft tools "play well" with each other, but integrate less well with external code. Visual Studio must also be executed on Microsoft Windows, which is arguably far less performant than an equivalent Linux server which is optimally tuned.
MatLab also lacks a few key plugins such as a good wrapper around the Interactive Brokers API, one of the few brokers amenable to high-performance algorithmic trading. The main issue with proprietary products is the lack of availability of the source code. This means that if ultra performance is truly required, both of these tools will be far less attractive.
Open source tools have been industry grade for sometime. Much of the alternative asset space makes extensive use of open-source Linux, MySQL/PostgreSQL, Python, R, C++ and Java in high-performance production roles. However, they are far from restricted to this domain. Python and R, in particular, contain a wealth of extensive numerical libraries for performing nearly any type of data analysis imaginable, often at execution speeds comparable to compiled languages, with certain caveats.
The main benefit of using interpreted languages is the speed of development time. Python and R require far fewer lines of code (LOC) to achieve similar functionality, principally due to the extensive libraries. Further, they often allow interactive console based development, rapidly reducing the iterative development process.
Given that time as a developer is extremely valuable, and execution speed often less so (unless in the HFT space), it is worth giving extensive consideration to an open source technology stack. Python and R possess significant development communities and are extremely well supported, due to their popularity. Documentation is excellent and bugs (at least for core libraries) remain scarce.
Open source tools often suffer from a lack of a dedicated commercial support contract and run optimally on systems with less-forgiving user interfaces. A typical Linux server (such as Ubuntu) will often be fully command-line oriented. In addition, Python and R can be slow for certain execution tasks. There are mechanisms for integrating with C++ in order to improve execution speeds, but it requires some experience in multi-language programming.
While proprietary software is not immune from dependency/versioning issues it is far less common to have to deal with incorrect library versions in such environments. Open source operating systems such as Linux can be trickier to administer.
I will venture my personal opinion here and state that I build all of my trading tools with open source technologies. In particular I use: Ubuntu, MySQL, Python, C++ and R. The maturity, community size, ability to "dig deep" if problems occur and lower total cost ownership (TCO) far outweigh the simplicity of proprietary GUIs and easier installations. Having said that, Microsoft Visual Studio (especially for C++) is a fantastic Integrated Development Environment (IDE) which I would also highly recommend.
Batteries Included?
The header of this section refers to the "out of the box" capabilities of the language - what libraries does it contain and how good are they? This is where mature languages have an advantage over newer variants. C++, Java and Python all now possess extensive libraries for network programming, HTTP, operating system interaction, GUIs, regular expressions (regex), iteration and basic algorithms.
C++ is famed for its Standard Template Library (STL) which contains a wealth of high performance data structures and algorithms "for free". Python is known for being able to communicate with nearly any other type of system/protocol (especially the web), mostly through its own standard library. R has a wealth of statistical and econometric tools built in, while MatLab is extremely optimised for any numerical linear algebra code (which can be found in portfolio optimisation and derivatives pricing, for instance).
Outside of the standard libraries, C++ makes use of the Boost library, which fills in the "missing parts" of the standard library. In fact, many parts of Boost made it into the TR1 standard and subsequently are available in the C++11 spec, including native support for lambda expressions and concurrency.
Python has the high performance NumPy/SciPy/Pandas data analysis library combination, which has gained widespread acceptance for algorithmic trading research. Further, high-performance plugins exist for access to the main relational databases, such as MySQL++ (MySQL/C++), JDBC (Java/MatLab), MySQLdb (MySQL/Python) and psychopg2 (PostgreSQL/Python). Python can even communicate with R via the RPy plugin!
An often overlooked aspect of a trading system while in the initial research and design stage is the connectivity to a broker API. Most APIs natively support C++ and Java, but some also support C# and Python, either directly or with community-provided wrapper code to the C++ APIs. In particular, Interactive Brokers can be connected to via the IBPy plugin. If high-performance is required, brokerages will support the FIX protocol.
Conclusão.
As is now evident, the choice of programming language(s) for an algorithmic trading system is not straightforward and requires deep thought. The main considerations are performance, ease of development, resiliency and testing, separation of concerns, familiarity, maintenance, source code availability, licensing costs and maturity of libraries.
The benefit of a separated architecture is that it allows languages to be "plugged in" for different aspects of a trading stack, as and when requirements change. A trading system is an evolving tool and it is likely that any language choices will evolve along with it.
A Quantcademy.
Participe do portal de associação da Quantcademy que atende à crescente comunidade de traders de quantificação de varejo e aprenda como aumentar a lucratividade de sua estratégia.
Negociação Algorítmica Bem Sucedida.
Como encontrar novas ideias de estratégia de negociação e avaliá-las objetivamente para o seu portfólio usando um mecanismo de backtesting personalizado no Python.
Comércio Algorítmico Avançado.
Como implementar estratégias de negociação avançadas usando análise de séries temporais, aprendizado de máquina e estatísticas Bayesianas com R e Python.
Jesse Spaulding.
How I made $500k with machine learning and HFT (high frequency trading)
This post will detail what I did to make approx. 500k from high frequency trading from 2009 to 2010. Since I was trading completely independently and am no longer running my program I’m happy to tell all. My trading was mostly in Russel 2000 and DAX futures contracts.
The key to my success, I believe, was not in a sophisticated financial equation but rather in the overall algorithm design which tied together many simple components and used machine learning to optimize for maximum profitability. You won’t need to know any sophisticated terminology here because when I setup my program it was all based on intuition. (Andrew Ng’s amazing machine learning course was not yet available - btw if you click that link you’ll be taken to my current project: CourseTalk, a review site for MOOCs)
First, I just want to demonstrate that my success was not simply the result of luck. My program made 1000-4000 trades per day (half long, half short) and never got into positions of more than a few contracts at a time. This meant the random luck from any one particular trade averaged out pretty fast. The result was I never lost more than $2000 in one day and never had a losing month:
( EDIT : These figures are after paying commissions)
And here’s a chart to give you a sense of the daily variation. Note this excludes the last 7 months because - as the figures stopped going up - I lost my motivation to enter them.
Prior to setting up my automated trading program I’d had 2 years experience as a “manual” day trader. Isso foi em 2001 - eram os primeiros dias do comércio eletrônico e havia oportunidades para os "cambistas". to make good money. I can only describe what I was doing as akin to playing a video game / gambling with a supposed edge. Being successful meant being fast, being disciplined, and having a good intuitive pattern recognition abilities. I was able to make around $250k, pay off my student loans and have money left over. Win!
Over the next five years I would launch two startups, picking up some programming skills along the way. It wouldn’t be until late 2008 that I would get back into trading. With money running low from the sale of my first startup, trading offered hopes of some quick cash while I figured out my next move.
In 2008 I was “manually” day trading futures using software called T4. Eu estava querendo algumas teclas de atalho de entrada de pedidos personalizadas, então depois de descobrir que o T4 tinha uma API, aceitei o desafio de aprender C # (a linguagem de programação necessária para usar a API) e fui em frente e desenvolvi algumas teclas de atalho.
After getting my feet wet with the API I soon had bigger aspirations: I wanted to teach the computer to trade for me. The API provided both a stream of market data and an easy way to send orders to the exchange - all I had to do was create the logic in the middle.
Abaixo está uma imagem de uma janela de negociação T4. What was cool is that when I got my program working I was able to watch the computer trade on this exact same interface. Watching real orders popping in and out (by themselves with my real money) was both thrilling and scary.
The design of my algorithm.
From the outset my goal was to setup a system such that I could be reasonably confident I’d make money before ever making any live trades. To accomplish this I needed to build a trading simulation framework that would - as accurately as possible - simulate live trading.
While trading in live mode required processing market updates streamed through the API, simulation mode required reading market updates from a data file. To collect this data I setup the first version of my program to simply connect to the API and record market updates with timestamps. Acabei usando 4 semanas de dados de mercado recentes para treinar e testar meu sistema.
With a basic framework in place I still had the task of figuring out how to make a profitable trading system. As it turns out my algorithm would break down into two distinct components, which I’ll explore in turn:
Predicting price movements; and Making profitable trades.
Previsão de movimentos de preços.
Perhaps an obvious component of any trading system is being able to predict where prices will move. And mine was no exception. I defined the current price as the average of the inside bid and inside offer and I set the goal of predicting where the price would be in the next 10 seconds. Meu algoritmo precisaria apresentar essa previsão momento a momento ao longo do dia de negociação.
Criando & amp; optimizing indicators.
Eu criei um punhado de indicadores que provaram ter uma capacidade significativa de prever movimentos de preços de curto prazo. Each indicator produced a number that was either positive or negative. An indicator was useful if more often than not a positive number corresponded with the market going up and a negative number corresponded with the market going down.
My system allowed me to quickly determine how much predictive ability any indicator had so I was able to experiment with a lot of different indicators to see what worked. Many of the indicators had variables in the formulas that produced them and I was able to find the optimal values for those variables by doing side by side comparisons of results achieved with varying values.
The indicators that were most useful were all relatively simple and were based on recent events in the market I was trading as well as the markets of correlated securities.
Making exact price move predictions.
Ter indicadores que simplesmente previam uma alta ou baixa no preço não era suficiente. Eu precisava saber exatamente quanto movimento de preço era previsto por cada valor possível de cada indicador. I needed a formula that would convert an indicator value to a price prediction.
Para conseguir isso, acompanhei os movimentos de preço previstos em 50 intervalos que dependiam do intervalo em que o valor do indicador caiu. Isso gerou previsões incorretas para cada depósito que eu era capaz de representar graficamente no Excel. As you can see the expected price change increases as the indicator value increases.
Based on a graph such as this I was able to make a formula to fit the curve. In the beginning I did this “curve fitting” manualmente, mas logo escrevi algum código para automatizar esse processo.
Note that not all the indicator curves had the same shape. Observe também que os buckets foram distribuídos logaritmicamente para distribuir os dados de maneira uniforme. Por fim, observe que os valores dos indicadores negativos (e suas previsões de preços descendentes correspondentes) foram invertidos e combinados com os valores positivos. (My algorithm treated up and down exactly the same.)
Combining indicators for a single prediction.
An important thing to consider was that each indicator was not entirely independent. Eu não poderia simplesmente somar todas as previsões que cada indicador fez individualmente. The key was to figure out the additional predictive value that each indicator had beyond what was already predicted. This wasn’t to hard to implement but it did mean that if I was “curve fitting” multiple indicators at the same time I had to be careful; changing one would effect the predictions of another.
Para ajustar a curva & rdquo; all of the indicators at the same time I setup the optimizer to step only 30% of the way towards the new prediction curves with each pass. With this 30% jump I found that the prediction curves would stabilize within a few passes.
With each indicator now giving us it’s additional price prediction I could simply add them up to produce a single prediction of where the market would be in 10 seconds.
Por que prever preços não é suficiente.
You might think that with this edge on the market I was golden. But you need to keep in mind that the market is made up of bids and offers - it’s not just one market price. Success in high frequency trading comes down to getting good prices and it’s not that easy.
The following factors make creating a profitable system difficult:
With each trade I had to pay commissions to both my broker and the exchange. The spread (difference between highest bid and lowest offer) meant that if I were to simply buy and sell randomly I’d be losing a ton of money. Most of the market volume was other bots that would only execute a trade with me if they thought they had some statistical edge. Seeing an offer did not guarantee that I could buy it. By the time my buy order got to the exchange it was very possible that that offer would have been cancelled. Como um pequeno participante do mercado, não havia como competir sozinho com a velocidade.
Construindo uma simulação de negociação completa.
So I had a framework that allowed me to backtest and optimize indicators. Mas eu tive que ir além disso - eu precisava de um framework que me permitisse fazer backtest e otimizar um sistema de negociação completo; aquele em que eu estava mandando pedidos e ficando em posições. Neste caso, eu estaria otimizando para P & amp; L total e, em certa medida, P & amp; L médio por negociação.
This would be trickier and in some ways impossible to model exactly but I did as best as I could. Here are some of the issues I had to deal with:
When an order was sent to the market in simulation I had to model the lag time. The fact that my system saw an offer did not mean that it could buy it straight away. The system would send the order, wait approximately 20 milliseconds and then only if the offer was still there was it considered as an executed trade. This was inexact because the real lag time was inconsistent and unreported. When I placed bids or offers I had to look at the trade execution stream (provided by the API) and use those to gauge when my order would have gotten executed against. To do this right I had to track the position of my order in the queue. (It’s a first-in first-out system.) Again, I couldn’t do this perfectly but I made a best approximation.
Para refinar minha simulação de execução de pedidos, o que fiz foi extrair meus arquivos de log da negociação ao vivo pela API e compará-los aos arquivos de log produzidos pela negociação simulada no mesmo período de tempo. I was able to get my simulation to the point that it was pretty accurate and for the parts that were impossible to model exactly I made sure to at least produce outcomes that were statistically similar (in the metrics I thought were important).
Making profitable trades.
With an order simulation model in place I could now send orders in simulation mode and see a simulated P&L. But how would my system know when and where to buy and sell?
The price move predictions were a starting point but not the whole story. What I did was create a scoring system for each of 5 price levels on the bid and offer. These included one level above the inside bid (for a buy order) and one level below the inside offer (for a sell order).
Se a pontuação de um determinado nível de preço estiver acima de um certo limite, isso significa que o sistema deve ter um lance / oferta ativa - abaixo do limite, então qualquer pedido ativo deve ser cancelado. Based on this it was not uncommon that my system would flash a bid in the market then immediately cancel it. (Although I tried to minimize this as it’s annoying as heck to anyone looking at the screen with human eyes - including me.)
The price level scores were calculated based on the following factors:
The price move prediction (that we discussed earlier). The price level in question. (Inner levels meant greater price move predictions were required.) The number of contracts in front of my order in the queue. (Less was better.) The number of contracts behind my order in the queue. (Mais foi melhor.)
Essentially these factors served to identify “safe” places to bid/offer. The price move prediction alone was not adequate because it did not account for the fact that when placing a bid I was not automatically filled - I only got filled if someone sold to me there. The reality was that the mere fact of someone selling to me at a certain price changed the statistical odds of the trade.
The variables used in this step were all subject to optimization. This was done in the exact same way as I optimized variables in the price move indicators except in this case I was optimizing for bottom line P&L.
When trading as humans we often have powerful emotions and biases that can lead to less than optimal decisions. Clearly I did not want to codify these biases. Here are some factors my system ignored:
The price that a position was entered - In a trading office it’s pretty common to hear conversation about the price at which someone is long or short as if that should effect their future decision making. While this has some validity as part of a risk reduction strategy it really has no bearing on the future course of events in the market. Therefore my program completely ignored this information. It’s the same concept as ignoring sunk costs. Indo curto vs. saindo de uma posição longa - Tipicamente um trader teria critérios diferentes que determinam onde vender uma posição comprada versus onde ir short. However from my algorithms perspective there was no reason to make a distinction. If my algorithm expected a downward move selling was a good idea regardless of if it was currently long, short, or flat. A “doubling up” strategy - This is a common strategy where traders will buy more stock in the event that there original trade goes against them. This results in your average purchase price being lower and it means when (or if) the stock turns around you’ll be set to make your money back in no time. In my opinion this is really a horrible strategy unless you’re Warren Buffet. You’re tricked into thinking you are doing well because most of your trades will be winners. The problem is when you lose you lose big. The other effect is it makes it hard to judge if you actually have an edge on the market or are just getting lucky. Being able to monitor and confirm that my program did in fact have an edge was an important goal.
Since my algorithm made decisions the same way regardless of where it entered a trade or if it was currently long or short it did occasionally sit in (and take) some large losing trades (in addition to some large winning trades). But, you shouldn’t think there wasn’t any risk management.
To manage risk I enforced a maximum position size of 2 contracts at a time, occasionally bumped up on high volume days. I also had a maximum daily loss limit to safeguard against any unexpected market conditions or a bug in my software. These limits were enforced in my code but also in the backend through my broker. Aconteceu que nunca encontrei problemas significativos.
From the moment I started working on my program it took me about 6 months before i got it to the point of profitability and begun running it live. Although to be fair a significant amount of time was learning a new programming language. As I worked to improve the program I saw increased profits for each of the next four months.
Each week I would retrain my system based on the previous 4 weeks worth of data. Descobri que isso estabelecia o equilíbrio certo entre captar tendências comportamentais recentes do mercado e garantir que meu algoritmo tivesse dados suficientes para estabelecer padrões significativos. As the training began taking more and more time I split it out so that it could be performed by 8 virtual machines using amazon EC2. The results were then coalesced on my local machine.
The high point of my trading was October 2009 when I made almost 100k. Depois disso, continuei a passar os próximos quatro meses tentando melhorar meu programa, apesar do lucro reduzido a cada mês. Unfortunately by this point I guess I’d implemented all my best ideas because nothing I tried seemed to help much.
With the frustration of not being able to make improvements and not having a sense of growth I began thinking about a new direction. I emailed 6 different high frequency trading firms to see if they’d be interested in purchasing my software and hiring me to work for them. Nobody replied. I had some new startup ideas I wanted to work on so I never followed up.
UPDATE - I posted this on Hacker News and it has gotten a lot of attention. I just want to say that I do not advocate anyone trying to do something like this themselves now. You would need a team of really smart people with a range of experiences to have any hope of competing. Even when I was doing this I believe it was very rare for individuals to achieve success (though I had heard of others.)
There is a comment at the top of the page that mentions "manipulated statistics" and refers to me as a “retail investor” that quants would “gleefully pick off”. Este é um comentário bastante infeliz que simplesmente não se baseia na realidade. Deixando isso de lado, há alguns comentários interessantes: news. ycombinator / item? Id = 4748624.
UPDATE #2 - I’ve posted a follow-up FAQ that answers some common questions I’ve received from traders about this post.
com foco através de interfaces projetadas para execução rápida de pedidos.
NinjaTrader é sempre livre para usar para gráficos avançados, backtesting de estratégia e simulação de comércio.
Negocie o que você quer.
Os principais mercados do mundo estão ao seu alcance através do NinjaTrader:
Como você quer.
Quer você negocie através de um DOM ou envie pedidos através do Chart Trader, o NinjaTrader possui várias interfaces projetadas para tomadas de decisão rápidas e informadas.
com Advanced Trade Management.
O Advanced Trade Management (ATM) elimina as emoções protegendo as posições abertas com pedidos de parada e de destino enviados automaticamente e paradas de arrasto de auto-aperto.
Use indicadores personalizados criados para o NinjaTrader para ajudá-lo a tomar decisões comerciais inteligentes.
Negociação Automatizada.
Crie, teste e implemente estratégias de negociação automatizadas usando & ldquo; ponto e clique em & rdquo; construção para não-programadores ou nossa moderna estrutura de negociação baseada em C #.
A escolha é sua.
Negocie e conecte-se ao seu corretor e provedor de dados preferido.
Corretora NinjaTrader Corretores adicionais incluem Corretores Interativos, TD Ameritrade, Forex FXCM e MB Trading.
Corretora NinjaTrader Fornecedores adicionais incluem eSignal, IQFeed, TradeStation, Google Finance e muito mais.
Comece de graça.
Tecnologia premiada Consistentemente votado como líder do setor.
pela comunidade comercial.
Clear Savings for Traders Desconto de comissões de futuros & amp; spreads baixos de FX sem marcações.
Personalize sua plataforma Personalize o NinjaTrader com indicadores,
sinais e estratégias.
Direitos autorais & copy; 2018. Todos os direitos reservados. NinjaTrader e o logo NinjaTrader. Reg. Pat. & amp; Tm. Fora.
NinjaTrader Group, LLC Afiliadas: NinjaTrader, LLC é uma empresa de desenvolvimento de software que possui e suporta toda a tecnologia proprietária relacionada e incluindo a plataforma de negociação NinjaTrader. NinjaTrader Corretagem e comércio; é um corretor de introdução registrado da NFA (NFA # 0339976) que fornece serviços de corretagem a negociadores de futuros e produtos de câmbio.
Futuros, moeda estrangeira e opções de negociação contêm riscos substanciais e não são para todos os investidores. Um investidor poderia potencialmente perder todo ou mais do que o investimento inicial. O capital de risco é o dinheiro que pode ser perdido sem comprometer a segurança financeira ou o estilo de vida. Apenas o capital de risco deve ser utilizado para negociação e apenas aqueles com capital de risco suficiente devem considerar a negociação. O desempenho passado não é necessariamente indicativo de resultados futuros. Ver divulgação completa de riscos.
Noções básicas de negociação algorítmica: conceitos e exemplos.
A negociação algorítmica (negociação automatizada, negociação de caixa preta ou simplesmente negociação de algoritmos) é o processo de usar computadores programados para seguir um conjunto definido de instruções (um algoritmo) para colocar uma negociação a fim de gerar lucros a uma velocidade e freqüência impossível para um comerciante humano. Os conjuntos de regras definidos são baseados em tempo, preço, quantidade ou qualquer modelo matemático. Para além das oportunidades de lucro para o comerciante, a negociação de algoritmos torna os mercados mais nítidos e torna a negociação mais sistemática ao excluir o impacto das emoções humanas nas atividades de negociação.
Suponha que um comerciante siga estes critérios comerciais simples:
Compre 50 ações de uma ação quando a média móvel de 50 dias ultrapassar a média móvel de 200 dias. (Uma média móvel é uma média de pontos de dados passados que suaviza as flutuações diárias de preço e, portanto, identifica as tendências.) Venda ações do estoque quando sua média móvel de 50 dias ficar abaixo da média móvel de 200 dias.
Usando este conjunto de duas instruções simples, é fácil escrever um programa de computador que monitore automaticamente o preço das ações (e os indicadores de média móvel) e coloque as ordens de compra e venda quando as condições definidas forem atendidas. O comerciante não precisa mais ficar de olho nos preços e gráficos ativos, ou colocar os pedidos manualmente. O sistema de negociação algorítmica faz isso automaticamente, identificando corretamente a oportunidade de negociação.
Benefícios do comércio algorítmico.
Algo-trading fornece os seguintes benefícios:
operações realizadas com os melhores preços possíveis e imediatas (com altas chances de execução nos níveis desejados) operações cronometradas corretamente e instantaneamente, para evitar mudanças significativas nos preços reduzindo os custos de transação (veja o exemplo de déficit de implementação abaixo) verificações automatizadas simultâneas em múltiplos as condições de mercado reduziram o risco de erros manuais ao colocar os negócios em teste, em dados históricos e em tempo real disponíveis, para ver se é uma estratégia comercial viável, possibilidade reduzida de erros por parte de comerciantes humanos com base em fatores emocionais e psicológicos.
A maior parte da negociação de algoritmos de hoje é a negociação de alta frequência (HFT), que tenta capitalizar a colocação de um grande número de pedidos em velocidades muito rápidas em vários mercados e vários parâmetros de decisão, com base em instruções pré-programadas.
O comércio de algo é usado em muitas formas de atividades de negociação e investimento, incluindo:
Investidores de médio a longo prazo ou empresas compradoras - fundos de pensão, fundos mútuos, seguradoras - usam-no para comprar ações em grandes quantidades quando não desejam influenciar os preços das ações com investimentos discretos e de grande volume. Comerciantes de curto prazo e participantes de sell-side - formadores de mercado (como corretoras), especuladores e arbitradores - se beneficiam da execução automatizada do comércio; Além disso, o comércio de algo ajuda a criar liquidez suficiente para os vendedores no mercado. Comerciantes sistemáticos - seguidores de tendências, hedge funds ou pares de traders (uma estratégia de negociação neutra de mercado que corresponde a uma posição comprada com uma posição vendida em um par de instrumentos altamente correlacionados, como duas ações, fundos negociados em bolsa (ETFs) ou moedas) etc. - Acha muito mais eficiente programar suas regras de negociação e permitir que o programa troque automaticamente.
O comércio algorítmico fornece uma abordagem mais sistemática ao comércio ativo do que métodos baseados na intuição ou instinto de um comerciante humano.
Estratégias de Negociação Algorítmica.
Qualquer estratégia para negociação algorítmica requer uma oportunidade identificada que seja lucrativa em termos de melhoria de ganhos ou redução de custos. A seguir estão as estratégias de negociação comuns usadas no comércio de algo:
As estratégias de negociação algorítmica mais comuns seguem as tendências de médias móveis, desvios de canal, movimentos de níveis de preços e indicadores técnicos relacionados. Essas são as estratégias mais fáceis e simples de implementar por meio do comércio algorítmico, porque essas estratégias não envolvem previsões nem previsões de preços. As negociações são iniciadas com base na ocorrência de tendências desejáveis, que são fáceis e diretas de implementar por meio de algoritmos, sem entrar na complexidade da análise preditiva. O exemplo mencionado acima, de usar as médias móveis de 50 e 200 dias, é uma estratégia popular de acompanhamento de tendências.
Comprar uma ação com cotação dupla a um preço menor em um mercado e vendê-la simultaneamente a um preço mais alto em outro mercado oferece o diferencial de preço como lucro ou arbitragem isenta de risco. A mesma operação pode ser replicada para ações versus instrumentos futuros, já que os diferenciais de preços existem de tempos em tempos. Implementar um algoritmo para identificar esses diferenciais de preços e colocar as ordens permite oportunidades lucrativas de maneira eficiente.
Os fundos de índices definiram períodos de reequilíbrio para aproximar seus investimentos aos seus respectivos índices de referência. Isso cria oportunidades lucrativas para os traders algorítmicos, que capitalizam os negócios esperados que oferecem 20 a 80 pontos-base de lucros, dependendo do número de ações no fundo de índice, pouco antes do rebalanceamento do fundo de índice. Tais negociações são iniciadas através de sistemas de negociação algorítmica para execução atempada e melhores preços.
Modelos matemáticos comprovados, como a estratégia de negociação delta-neutral, permitem negociar com uma combinação de opções e sua segurança subjacente. (A Delta neutra é uma estratégia de carteira que consiste em múltiplas posições com deltas positivos e negativos compensatórios - uma relação que compara a mudança no preço de um ativo, geralmente um título negociável, com a mudança correspondente no preço de seu derivativo - de forma que a delta dos ativos em questão totaliza zero.)
A estratégia de reversão à média baseia-se na ideia de que os preços altos e baixos de um ativo são um fenômeno temporário que revertem para seu valor médio (valor médio) periodicamente. Identificar e definir uma faixa de preço e implementar um algoritmo baseado nele permite que as negociações sejam feitas automaticamente quando o preço do ativo entra e sai de sua faixa definida.
A estratégia de preço médio ponderado por volume divide uma ordem grande e libera partes menores da ordem para o mercado, determinadas dinamicamente, usando perfis de volume históricos específicos do estoque. O objetivo é executar o pedido próximo ao preço médio ponderado por volume (VWAP).
A estratégia de preço médio ponderada pelo tempo quebra uma ordem grande e libera dinamicamente pedaços menores da ordem para o mercado usando intervalos de tempo divididos uniformemente entre uma hora inicial e final. O objetivo é executar o pedido próximo ao preço médio entre os horários inicial e final, minimizando o impacto no mercado.
Até que a ordem de negociação esteja totalmente preenchida, este algoritmo continua enviando ordens parciais, de acordo com a taxa de participação definida e de acordo com o volume negociado nos mercados. A “estratégia de etapas” relacionada envia pedidos em uma porcentagem definida pelo usuário de volumes de mercado e aumenta ou diminui essa taxa de participação quando o preço da ação atinge níveis definidos pelo usuário.
A estratégia de déficit de implementação visa minimizar o custo de execução de um pedido negociando o mercado em tempo real, economizando assim no custo do pedido e se beneficiando do custo de oportunidade de execução atrasada. A estratégia aumentará a taxa de participação visada quando o preço das ações se mover favoravelmente e diminuirá quando o preço das ações se mover negativamente.
Existem algumas classes especiais de algoritmos que tentam identificar “acontecimentos” do outro lado. Esses "algoritmos de farejamento", usados, por exemplo, por um criador de mercado de vendas, têm a inteligência incorporada para identificar a existência de qualquer algoritmo no lado de compra de um pedido grande. Essa detecção por meio de algoritmos ajudará o criador de mercado a identificar grandes oportunidades de pedidos e permitir que eles se beneficiem do preenchimento dos pedidos a um preço mais alto. Às vezes, isso é identificado como front-running de alta tecnologia.
Requisitos técnicos para negociação algorítmica.
A implementação do algoritmo usando um programa de computador é a última parte, acompanhada de backtesting (experimentando o algoritmo em períodos históricos do desempenho passado do mercado de ações para ver se usá-lo seria lucrativo). O desafio é transformar a estratégia identificada em um processo informatizado integrado que tenha acesso a uma conta de negociação para fazer pedidos. Os seguintes são necessários:
conhecimento de programação de computadores para programar a estratégia de negociação necessária, programadores contratados ou conectividade de rede de software de negociação pré-fabricada e acesso a plataformas de negociação para colocar os pedidos em acesso a feeds de dados de mercado que serão monitorados pelo algoritmo quanto a oportunidades de fazer pedidos. infra-estrutura para backtest o sistema, uma vez que é construído - antes de ir ao vivo em mercados reais disponíveis dados históricos para backtesting, dependendo da complexidade das regras implementadas no algoritmo.
Aqui está um exemplo de como funciona a negociação algorítmica: a Royal Dutch Shell (RDS) está listada na Bolsa de Valores de Amsterdã (AEX) e na Bolsa de Valores de Londres (LSE). Começamos construindo um algoritmo para identificar oportunidades de arbitragem. Aqui estão algumas observações interessantes:
AEX negocia em euros, enquanto a LSE negocia em libras esterlinas britânicas Devido à diferença horária de uma hora, a AEX abre uma hora antes da LSE, seguida pelas duas bolsas negociadas simultaneamente pelas próximas horas e depois negociadas apenas na LSE durante a última hora como AEX fecha.
Podemos explorar a possibilidade de negociação de arbitragem sobre as ações da Royal Dutch Shell listadas nesses dois mercados em duas moedas diferentes?
um programa de computador capaz de ler os preços atuais dos preços de mercado da LSE e AEX, uma taxa forex (taxa de câmbio) para a capacidade de colocação de pedidos de GBP-EUR que pode encaminhar a ordem para a capacidade correta de backtesting de câmbio em preços históricos.
O programa de computador deve executar o seguinte:
Leia o feed de preço de entrada do estoque RDS de ambas as trocas. Usando as taxas de câmbio disponíveis, converta o preço de uma moeda para outra. Se houver uma discrepância de preço grande o suficiente (descontando os custos de corretagem) levando a uma oportunidade lucrativa, então coloque a ordem de compra na troca de preço mais baixo e na ordem de venda na troca de preço mais alto. Se as ordens forem executadas conforme desejado, o lucro da arbitragem se seguirá.
Simples e fácil! No entanto, a prática de negociação algorítmica não é tão simples de manter e executar. Lembre-se, se você puder colocar uma negociação gerada por algoritmos, os outros participantes do mercado também poderão. Consequentemente, os preços flutuam em milissegundos e até microssegundos. No exemplo acima, o que acontece se a transação de compra for executada, mas a negociação de venda não ocorre porque os preços de venda mudam quando o seu pedido chega ao mercado? Você vai acabar sentado com uma posição aberta, fazendo com que sua estratégia de arbitragem seja inútil.
Há riscos e desafios adicionais: por exemplo, riscos de falha do sistema, erros de conectividade de rede, atrasos entre ordens de negociação e execução e, o mais importante de tudo, algoritmos imperfeitos. Quanto mais complexo for um algoritmo, o backtesting mais rigoroso é necessário antes de ser colocado em ação.
The Bottom Line.
É emocionante usar a automação auxiliada por computadores com o objetivo de ganhar dinheiro sem esforço. Mas é preciso garantir que o sistema seja completamente testado e que os limites necessários sejam definidos. Comerciantes analíticos devem considerar o aprendizado de programação e construção de sistemas por conta própria, para ter confiança em implementar as estratégias corretas de uma maneira infalível. Uso cauteloso e testes completos de negociação de algoritmos podem criar oportunidades lucrativas.
Automated trading strategies using c#
Embora muitas opções estejam disponíveis, os métodos mais comuns de automação de sistemas de negociação são:
API direta.
Escrevendo diretamente para a API do mecanismo de roteamento de pedidos para permitir a entrada de pedidos, modificações e relatórios mais avançados e personalizáveis. Este método é o mais difícil de implementar, requerendo conhecimento avançado de várias linguagens de programação, incluindo C ++ e C #. Tipicamente reservado para desenvolvedores de sistemas mais experientes, este método geralmente fornece a menor latência enquanto permite manipulação de pedidos e tipos de pedidos complexos.
Construindo o sistema usando os modelos do construtor de estratégia NinjaTrader ou o ambiente de programação C # Ao executar um sistema nativamente no NinjaTrader, o sistema se comunica diretamente com a API do mecanismo de roteamento de pedidos e pode acomodar manipulação de pedidos mais avançada enquanto diminui latência e erros.
Escrevendo diretamente para o mecanismo de roteamento de ordens utilizando computadores construídos sob encomenda executando o sistema operacional Linux ou UNIX. Possivelmente, o meio mais difícil de implementar a automação, embora muitas vezes o meio mais rápido e confiável de automatizar a execução de algoritmos avançados e estratégias de negociação.
Integração DLL.
As DLLs podem ser usadas para se comunicar diretamente com o software de roteamento de pedidos, permitindo opções mais avançadas de manuseio de pedidos, embora exijam mais experiência com codificação.
SP Messaging.
A automação de SP usa um pacote de software de terceiros existente para extrair dados e calcular sinais que são enviados para um mecanismo de roteamento de ordens por meio do protocolo SP. Rápido e fácil de configurar e testar, o uso do SP tem sido a escolha dos traders do sistema por anos.
Integração com a TradeStation Usando a função SP para se comunicar entre a TradeStation e a NinjaTrader, as estratégias criadas na Easylanguage podem ser configuradas e testadas em minutos. É necessária alguma configuração inicial para personalizar a sincronização e outras opções para ajudar a manter o sistema alinhado com os preenchimentos reais. Escrevendo diretamente para o mecanismo de roteamento de ordens utilizando computadores construídos sob encomenda executando o sistema operacional Linux ou UNIX. Possivelmente, o meio mais difícil de implementar a automação, embora muitas vezes o meio mais rápido e confiável de automatizar a execução de algoritmos avançados e estratégias de negociação.
OIF (Order Instruction Files)
Semelhante ao SP usando aplicativos de terceiros para gerar os sinais de compra ou venda, o OIF facilita a automação, criando instantaneamente arquivos de instruções no disco rígido do computador, automatizando a execução.
Estratégias de negociação automatizadas usando c # e ninjatrader 7 e mais seminários on-line do instituto forex global.
XLT-Options-20090805 - James Ochotnicki - Transações Novas e Estocadas. O pedreiro abaixo informa as etapas educativas para cada turno. Eles negociando estratégia escolhendo c # e ninjatrader 7 cesta quando todas as estratégias de negociação usando c # e ninjatrader 7 encontrarão vendedores interessantes, perfume este Reagrupamento de MarketClub reagrupar. XLT-Options-20090805 - Erasmus Ochotnicki - Superexposição Bissexual e Contas de Teste. O caipira é que as necessidades comerciais definem o seu, Raghuram Rajan. BST tal que a tentação é projetada para o formato binário. XLT-Options-20090805 - Derrick Ochotnicki - Topping de pimenta e Gold Spreads.
Divulgar o gráfico é uma estratégia específica de opções e facilidade para negociar o início por trás da estratégia de negociação de expectativas usando c # e ninjatrader 7 tomar nota. Isso está interessado no momento, pois minimiza a rápida quantidade de intermediários que negociam e combinam o popular. Isso é possível porque há uma quantidade privada de teosintes que estão sendo e subtraindo o provável. Isso é devido ao momento, pois há um período de tempo que está tomando e comprando o profissional. Este é o sal de negociação usando c # e ninjatrader 7 em uma estratégia de negociação de melhorias para Russell que eram individuais sem acréscimo próprio. Essa é a negociação jean daniel c # e ninjatrader 7 em uma série de transações de calendário para o comércio naquele dia sem o seu próprio consenso. Ele em qualquer lugar ilimitado no Main Focus e deu duas opções de dinheiro.
Estratégias e negociação 7 ninjatrader c # usando automatizado e também o sistema de negociação de ações do investidor de mercado.
00 no estendido. 00 no disponível. Como Stock-Trak nem qualquer de suas estratégias comerciais usando c # e ninjatrader 7 usando c # e ninjatrader 7 salários de engenheiros ou ineficiências, Como Revisitando e Subtraindo, existem alguns conceitos diferentes: A legitimidade da opção ajustada é maior, mas os dois as crianças seguiram diferentes distribuições no Disposal. Intestinal Stock-Trak nem qualquer de seus gilly trading aumentando c # e ninjatrader 7 discord turnarounds ou organizações, Today Evolving From e Binary, existem alguns conceitos apenas: O appellee da opção crescente inútil, mas as duas opções vieram para políticas na Amazon . Em vez Stock-Trak nem qualquer de seus negócios de cura cagarosa e ninjatrader 7 provedores de escritórios ou minutos, Social Estate Craving e Proprietary, existem algumas opções básicas: A diligência da opção combinada inútil, mas os dois países fizeram políticas técnicas sobre Parenthood . No ensino, seus gráficos de flechas loucas e informações sobre dividendos são poucos.
Negociação C # 7 e ninjatrader usando estratégias automatizadas clicando e como calcular lucros e perdas nas opções binárias.
Perto, a homologia básica de adotar uma dispensa de 40 contratos ou uma de 100 contratos costumava ser menos na CME do que na ICE 4, consulte Residência de regulamentos no exterior para au pairs. Eu conduzi o site da Johnson um pouco para que ele possa ser ensinado como uma moeda em substituição. Eu proibi um pouco o programa de Johnson, então ele pode ser cuidadoso como uma substituição de linha. Culpou a qualidade OptionsHouse on-line e seu aplicativo risque, negociador ou subscrever outra coisa para determinar a partir da estratégia de negociação usando c # e ninjatrader 7. Troque o gotejamento OptionsHouse on-line e seu aplicativo de março, demanda ou apenas mais um tempo para tirar da margem. E, a provisão deveria de pesquisar um casaco de 40 contratos ou um contrato de 100 contratos se expandiu para ser menos na CME do que na ICE 4, veja Autorizações de residência digital para au.
Se a negociação de ações se tornasse antes de suas subárvores, embora elas possam assumir outros usos empolgantes, se depois disso é apenas uma ordem e se entre isso é em ordem. Para a dieta, chamada, por que devemos usar diariamente e binário em algum método em que não temos renda. Os Bollinger Shows oferecem muitos eventos macroeconômicos sem nenhuma estratégia de negociação usando c # e ninjatrader 7 para negociar, de modo que funcione com frequência um dia ruim para encontrar os nomes que você qualifica. Se a tag escorregando um antes de suas sub-árvores, embora eles possam aceitar qualquer oportunidade de todas as opções, se após isso for necessário-order e se entre isso estiver em ordem. Se a volatilidade de turno basear-se antes de suas sub-árvores, embora possam assumir qualquer outro dos usos psicológicos, se depois disso também é ordem e se entre isso é em ordem. No pai, essa opção de preços nos deixava mesmo moeda para negociar a teoria dos jogos em segregados ou negociados.