Friday 28 July 2017

Wavelet Trading Strategy


Alguém usou modelos ARMA GARCH na negociação forex Eu estou atualmente explorando usando ARMA GARCH para prever posição dias seguintes. Agora eu estou executando alguns modelos nas últimas duas semanas. Vai levar algum tempo para concluir, então eu pensei que eu iria perguntar a comunidade de fábrica forex se alguém já explorou estes ainda parece ter fornecido alguns bons resultados sobre o SPY em um post que eu li sobre quintuitive / 2012/08/2. S-for-trading / e queria saber se alguém foi capaz de obter o mesmo resultado com pares de moedas Eu vou tentar e postar os meus resultados quando eles são feitos de computação. Cadastrado em Oct 2008 Status: PIP Slayer. Desejo que eu poderia manter em 266 Posts Para o teste de duas semanas parece ótimo O teste tentou prever os próximos dias retornar e retornou quer um 1, 0 ou -1, em seguida, com base nesse valor seria abrir um comércio longo curto ou nenhum comércio. O modelo arma garch leva olhares para as últimas 40 barras e escolhe o modelo arma que tem o menor AIC. Em seguida, aplique um garch 1,1 para considerar a volatilidade. A linha azul representa os retornos do preço de fechamento do gráfico EURUSD de 4 horas como se você estivesse comprando e mantivesse um comércio longo. A linha verde representa o modelo ARMA GARCH, no qual foi comprado um comércio longo ou curto. Isso é apenas cerca de duas semanas 72 bar de dados de ser analisado parece promissor. Imagem anexa (clique para ampliar) Associado Out 2008 Status: PIP Slayer. Desejo que eu poderia manter em 266 Posts O modelo ARMA sozinho em um pouco de dados doesn t olhar tão bom. Agora, executando os mesmos dados aqui através do modelo GARCH para a volatilidade. Poderia ter 24 horas para terminar, então será um pouco antes do próximo post e eu posso ver os resultados A arma garch modelo leva olha para o passado 40 bares e escolhe o modelo arma que Tem o AIC mais baixo. Essa é uma janela muito pequena para o GARCH. Ele precisa de algo como 2000 barras para convergir. Nenhuma ganância. Sem medo. Apenas matemática. Cadastrado em Oct 2008 Status: PIP Slayer. Gostaria de poder manter em 266 Posts Essa é uma janela muito pequena para GARCH. Ele precisa de algo como 2000 barras para convergir. Sim eu estava apenas lendo que na maioria das vezes nada com menos de 500 pontos vai dar lixo. Já lancei o edifício dos modelos de previsão. Apenas algumas horas dentro. Maravilha se eu deveria parar e rerun com uma janela maior ou esperar até que ele termina e ver o que a saída parece lol. Provavelmente você deve, porque eu tenho uma outra má notícia para você Por causa da natureza fractal da série de tempo financeiro, muitas vezes você tem uma ordem de integração fracionária (google para ele). Esse é o d em ARIMA (p, d, q) não é um inteiro. Claro que um modelo I (d) não pode lidar com isso. A boa notícia é que a parte AR (p) age como um diferenciador ea parte MA (q) age como um integrador. O modelo irá compensar a diferenciação over / under com mais p ou mais q. Claro que você vai precisar de muito mais amostras para caber o modelo. Eu nunca fui capaz de descobrir uma maneira de usar ARIMA com FX. Mesmo prevendo o próximo bar com muito alto acuracy doesn t fazer o trabalho feito. Eu li um papel onde seu poderia prever a barra seguinte com 80 acuracy (rede neural, não arima) contudo seu poderia nunca construir um sistema rentável fora dele. Nenhuma ganância. Sem medo. Apenas matemática. Cadastrado em Oct 2008 Status: PIP Slayer. Gostaria de poder manter em 266 Posts Eu reiniciá-lo. Estou usando o histórico de um ponto 1000 agora. No entanto, Hasn t concluído ainda lol os resultados da previsão ao longo de um período de tempo. Will post-los Se eu não perder o poder tem que começar de novo lol. Esperemos que dará alguns melhores resultados com mais pontos de dados. Estranho sobre a precisão de 80 eu acho que você seria capaz de criar um sistema rentável sobre isso. Se alguém não pudesse construir um sistema rentável sabendo de que maneira o mercado iria com certeza que não deixaria muita esperança para o resto de nós. Acontecer de ter um link para o papel Seria interessante ler se você pudesse encontrá-lo. Para ver o bloco de estrada eles correram em. Eu não manter o papel porque era sobre Redes Neurais que eu considero apenas como overfitters curva. Eles didn t explicar como eles tentaram usar seu forecaster. Acho que a falha vem do fato de que mesmo que você saiba com certeza que a próxima barra será verde, isso não impede que as duas barras subseqüentes fiquem vermelhas. A barra seguinte pode estar acima em um sell-off forte. Mas você não pode mudar sua mente cada barra que você precisa para deixar o comércio crescer. O método era local e um método local sempre falharia porque a entrada sempre será a mesma uma vez definida: uma estratégia de fuga ou uma estratégia de fading. Com ou contra o movimento. Existem apenas duas opções. O primeiro falha em intervalos o outro falha em mercados de tendência. Mercado alterna os dois. Ambos falham. A aproximação global (imagem grande) é exigida IMO. Em um período de 1000 bar o mercado certamente já mudou. A série de tempo financeiro não está parada, mesmo depois de desvirtuar / diferir devido à heterocedasticidade. É por isso que eu tenho medo ARIMA isn t muito útil. Por que o seu encaixe é tão lento Você tentou a estimativa on-line com filtros kalman (veja o papel anexo) Nenhuma ganância. Sem medo. Apenas matemática. Cadastrado em Oct 2008 Status: PIP Slayer. Desejo que eu poderia manter em 266 Posts Não sei por que demorar tanto tempo este ir ao redor talvez desde que eu aumentei a história tanto. É previsão de cada bar e, em seguida, reponha s cada bar. Funciona através de uma série de modelos arima (0,0) - (5,5) para que cada barra gerar algo como 35 modelos e escolhe o melhor ajuste daqueles baseados no AIC. Em seguida, cabe um garch (0,0) apenas para certificar-se de volatilidade estava lá e para manter de ter que fazer computação adicional eu don t ciclo através de encomendas para garch. Bastante pesado computacional sábio gerando o backtest. Mesmo correndo no Linux para utilizar o processamento paralelo. Estar funcionando por alguns dias agora assim que espera que terminará logo e eu posso afixar os resultados que fazem exame de um tempo longg embora. Cadastrado em Ago 2011 Status: Membro 1,105 Posts Eu acho que GARCH (0,0) doesn t existe. GARCH (1,1) é bom o suficiente para séries financeiras. Você pode apenas postular isso. Por que você não usa ACF e PACF para adivinhar o p, q people. duke. edu / rnau / 411arim3.htm Eu não tenho certeza, mas p e q aren t suposto para mudar muitas vezes, eles se Você realmente deseja estimar os coeficientes Online (bar-por-bar), você deve realmente considerar um filtro de Kalman. Nenhuma ganância. Sem medo. Apenas matemática. Registrado em Ago 2009 Status: Membro 2 Posts Sim, GARCH (1,1) é promissor em Finanças e Econometria. Você não precisa perder tempo com o ACF e PACF, Eviews calcula que com precisão, ao meu melhor conhecimento Eu acho que os problemas com a negociação pode ser muito reduzida se podemos diferenciar claramente TRENDING e RANGING períodos. Comecei a usar o GARCH (1,1) para estimar a volatilidade. Então eu planejo usando Neural Networks (Pattern Recognition) para prever. Mas eu acho que será benéfico ter algo como um Oscilador GARCH. É o seu qualquer GARCH oscilador / indicador ou codificador na casa que pode fazer isso? O que é o seu GARCH Oscilador deve exibir Os dois coeficientes ou alguma previsão E o que o NN vai tentar encontrar Não sei por que tomar Tão longo este ir ao redor talvez desde que eu aumentei tanto a história. É previsão de cada bar e, em seguida, reponha s cada bar. Funciona através de uma série de modelos arima (0,0) - (5,5) para que cada barra gerar algo como 35 modelos e escolhe o melhor ajuste daqueles baseados no AIC. Em seguida, cabe um garch (0,0) apenas para certificar-se de volatilidade estava lá e para manter de ter que fazer computação adicional eu don t ciclo através de encomendas para garch. Bastante pesado computacional sábio gerando o backtest. Mesmo correndo no Linux para utilizar. Olá Depois de alguns meses de trabalho você veio com algo interresting Eu gostaria de dar outra tentativa para o AR (F) (I) MA - () modelos GARCH, mas eu sempre estou bloqueado no grande número de amostras necessárias (como 10000 para ARFIMA). Estou interessado em mesuring não previsão. Minha decomposição wavelet me dá resultados ruins quando a volatilidade repentinamente varia, então leva algum tempo (sempre muito longo) para convergir novamente. Eu gostaria de ver se eu posso combinar os dois métodos (não sei como ainda). Nenhuma ganância. Sem medo. Apenas matemática. Registrado May 2015 Status: Member 3 Posts Eu gostaria de compartilhar com vocês o que estou fazendo usando o modelo ARMA ea análise de resíduos do modelo. Eu estou trabalhando em EURUSD, e eu estou tentando encontrar uma maneira de colocar ordem com base na modelagem ARMA. Coleta de dados, transformação de dados e montagem do modelo: Eu estou coletando cada EOD Close do instrumento EURUSD, e eu calculo a diferença de log para transformar esta série de tempo em um processo estacionário. Então, usando Box Jenkins, eu ajustei os parâmetros do Modelo ARMA. Imagem anexa (clique para ampliar) Imagem anexa (clique para ampliar) Após o modelo instalado, analiso os resíduos do modelo. O processo dos resíduos do modelo é um processo estacionário e segue uma distribuição normal. Imagem anexa (clique para ampliar) Código fonte avançado. Com 31.10.2015 Matlab código fonte para reconhecimento biométrico foi atualizado. Custos reduzidos. Todo o software é fornecido com grandes descontos, muitos códigos são oferecidos gratuitamente. Melhores performances. Alguns pequenos bugs foram corrigidos. Recursos aprimorados de software. Muitos códigos foram melhorados em termos de velocidade e gerenciamento de memória. Siga-nos no Twitter Siga-nos no FaceBook Siga-nos no YouTube Siga-nos no LinkedIn Ajuda em tempo real. Conecte-nos agora com o WhatsApp 393207214179 Vídeo tutorial. Software é intuitivo, fácil de entender e bem documentado. Para a maioria dos códigos, muitos tutoriais em vídeo foram publicados em nosso canal do YouTube. Também desenvolvemos software sob demanda. Para qualquer pergunta por favor envie um e-mail. Junte-se a nós 21.06.2005 Um sistema biométrico pode ser visto como um sistema de reconhecimento de padrões constituído por três módulos principais: o módulo sensor, o módulo de extracção de características e o módulo de correspondência de características. O desenho desse sistema é estudado no contexto de muitas modalidades biométricas comumente usadas - impressão digital, face, fala, mão, íris. Vários algoritmos que foram desenvolvidos para cada uma dessas modalidades serão apresentados. 16.05.2006 Uma rede neural é um grupo interconectado de neurônios biológicos. No uso moderno, o termo pode também referir-se a redes neurais artificiais, que são constituídas por neurónios artificiais. Assim, o termo Rede Neural especifica dois conceitos distintos: - Uma rede neural biológica é um plexo de neurônios conectados ou funcionalmente relacionados no sistema nervoso periférico ou no sistema nervoso central. - No campo da neurociência, refere-se mais frequentemente a um grupo de neurônios de um sistema nervoso que são adequados para análise laboratorial. Redes neurais artificiais foram projetadas para modelar algumas propriedades das redes neurais biológicas, embora a maioria das aplicações sejam de natureza técnica em oposição aos modelos cognitivos. As redes neurais são feitas de unidades que são freqüentemente assumidas como simples no sentido de que seu estado pode ser descrito por números únicos, seus valores de ativação. Cada unidade gera um sinal de saída com base na sua ativação. As unidades são ligadas umas às outras muito especificamente, cada ligação tendo um peso individual (novamente descrito por um único número). Cada unidade envia seu valor de saída para todas as outras unidades às quais eles têm uma conexão de saída. Através dessas conexões, a saída de uma unidade pode influenciar as ativações de outras unidades. A unidade que recebe as ligações calcula a sua activação tomando uma soma ponderada dos sinais de entrada (isto é, multiplica cada sinal de entrada com o peso que corresponde a essa ligação e adiciona estes produtos). A saída é determinada pela função de activação baseada nesta activação (por exemplo, a unidade gera saída ou dispara se a activação está acima de um valor de limiar). As redes aprendem mudando o peso das conexões. Em geral, uma rede neural é composta por um grupo ou grupos de neurônios fisicamente conectados ou associados funcionalmente. Um único neurônio pode ser conectado a muitos outros neurônios eo número total de neurônios e conexões em uma rede pode ser extremamente grande. As conexões, chamadas sinapses são formadas geralmente dos axônios aos dendrites, embora os microcircuitos dendrodentritic e outras conexões sejam possíveis. Além da sinalização elétrica, existem outras formas de sinalização que surgem da difusão do neurotransmissor, que têm um efeito sobre a sinalização elétrica. Assim, como outras redes biológicas, as redes neurais são extremamente complexas. Embora uma descrição detalhada dos sistemas neurais pareça inatingível atualmente, os progressos são feitos para uma melhor compreensão dos mecanismos básicos. Inteligência artificial e modelagem cognitiva tentam simular algumas propriedades das redes neurais. Embora semelhante em suas técnicas, o primeiro tem o objetivo de resolver tarefas específicas, enquanto o segundo pretende construir modelos matemáticos de sistemas neurais biológicos. No campo da inteligência artificial, as redes neurais artificiais têm sido aplicadas com sucesso ao reconhecimento de fala, análise de imagem e controle adaptativo, para construir agentes de software (em computadores e videogames) ou robôs autônomos. A maioria das redes neurais artificiais atualmente empregadas para inteligência artificial baseiam-se em estimativas estatísticas, otimização e teoria de controle. O campo de modelagem cognitiva é a modelagem física ou matemática do comportamento de sistemas neurais que variam do nível neural individual (por exemplo, modelando as curvas de resposta de pico de neurônios a um estímulo), através do nível de cluster neural (por exemplo, modelagem da liberação e efeitos da dopamina No gânglio basal) até o organismo completo (por exemplo, modelagem comportamental da resposta do organismo aos estímulos). 11.06.2007 Os algoritmos genéticos constituem uma classe de técnicas de busca, adaptação e otimização baseadas nos princípios da evolução natural. Algoritmos genéticos foram desenvolvidos pela Holanda. Outros algoritmos evolutivos incluem estratégias de evolução, programação evolutiva, sistemas classificadores e programação genética. Um algoritmo evolutivo mantém uma população de candidatos à solução e avalia a qualidade de cada candidato à solução de acordo com uma função de aptidão específica do problema, que define o ambiente para a evolução. Os novos candidatos à solução são criados através da selecção de membros relativamente aptos da população e da sua recombinação através de vários operadores. Algoritmos evolutivos específicos diferem na representação de soluções, no mecanismo de seleção e nos detalhes dos operadores de recombinação. Em um algoritmo genético, os candidatos à solução são representados como seqüências de caracteres de um determinado alfabeto (geralmente binário). Em um problema particular, um mapeamento entre essas estruturas genéticas e o espaço original da solução tem que ser desenvolvido, e uma função de aptidão precisa ser definida. A função fitness mede a qualidade da solução correspondente a uma estrutura genética. Em um problema de otimização, a função de aptidão simplesmente calcula o valor da função objetivo. Em outros problemas, a aptidão pode ser determinada por um ambiente coevolutivo que consiste em outras estruturas genéticas. Poder-se-ia estudar, por exemplo, as propriedades de equilíbrio dos problemas teóricos de jogo, em que uma população de estratégias evolui com a aptidão de cada estratégia definida como a recompensa média contra os outros membros da população. Um algoritmo genético começa com uma população de candidatos à solução gerados aleatoriamente. A próxima geração é criada pela recombinação de candidatos promissores. A recombinação envolve dois pais escolhidos aleatoriamente da população, com as probabilidades de seleção tendenciosas em favor dos candidatos relativamente aptos. Os pais são recombinados através de um operador crossover, que divide as duas estruturas genéticas separadamente em locais escolhidos aleatoriamente, e junta uma peça de cada pai para criar uma prole (como uma salvaguarda contra a perda da diversidade genética, as mutações aleatórias são ocasionalmente introduzidas no descendência). O algoritmo avalia a aptidão da prole e substitui um dos membros relativamente impróprios da população. Novas estruturas genéticas são produzidas até a geração ser completada. As gerações sucessivas são criadas da mesma maneira até que um critério de terminação bem definido seja satisfeito. A população final fornece uma coleção de candidatos à solução, uma ou mais das quais podem ser aplicadas ao problema original. Mesmo que algoritmos evolucionários não são garantidos para encontrar o ideal global, eles podem encontrar uma solução aceitável relativamente rápido em uma ampla gama de problemas. Algoritmos evolutivos têm sido aplicados a um grande número de problemas em engenharia, ciência da computação, ciência cognitiva, economia, ciência de gestão e outros campos. O número de aplicações práticas tem vindo a aumentar de forma constante, especialmente desde o final dos anos 80. Aplicações de negócios típicas envolvem planejamento de produção, agendamento de job-shop e outros problemas combinatórios difíceis. Algoritmos genéticos também foram aplicados a questões teóricas nos mercados econômicos, à previsão de séries temporais e à estimação econométrica. Algoritmos genéticos baseados em cordas foram aplicados para encontrar estratégias de market timing baseadas em dados fundamentais para mercados de ações e títulos. 23.04.2006 Uma lista de linguagens de programação baseadas em matrizes: Scilab - Scilab é um pacote de software científico para computações numéricas que fornece um poderoso ambiente de computação aberta para engenharia e aplicações científicas. Desenvolvido desde 1990 por pesquisadores do INRIA e ENPC, é mantido e desenvolvido pelo Scilab Consortium desde sua criação em maio de 2003. O Projeto R para Computação Estatística - R é um ambiente de software livre para computação estatística e gráficos. Ele compila e executa em uma ampla variedade de plataformas UNIX, Windows e MacOS. Octave - Octave é uma linguagem de alto nível, destinada principalmente a cálculos numéricos. Ele fornece uma interface de linha de comando conveniente para resolver problemas lineares e não-lineares numericamente e para realizar outras experiências numéricas usando uma linguagem compatível com Matlab. Ele também pode ser usado como uma linguagem batch-oriented. Python - Python é uma linguagem de programação orientada a objetos dinâmica que pode ser usada para muitos tipos de desenvolvimento de software. Ele oferece um forte apoio para a integração com outros idiomas e ferramentas, vem com extensas bibliotecas padrão, e pode ser aprendido em poucos dias. Muitos programadores Python relatam ganhos substanciais de produtividade e sentem que a linguagem incentiva o desenvolvimento de código de qualidade superior, mais manutável. Aplicação da computação evolutiva para a descoberta de regras em negociação algorítmica de ações: Uma revisão da literatura A primeira revisão sistemática da literatura sobre a descoberta de regras evolutivas em negociação algorítmica de ações. Uma demonstração clara dos estudos neste campo baseados em uma estrutura de classificação. Uma análise precisa das lacunas e limitações dos estudos existentes com base nos detalhes do esquema de avaliação. Os fatores mais importantes que influenciam a rentabilidade dos modelos são apresentados em detalhes. Sugestões específicas para futuras melhorias baseadas na revisão são propostas. Resumo Apesar da ampla aplicação das técnicas de computação evolutiva (EC) para governar a descoberta em negociação algorítmica de ações (AT), uma ampla revisão da literatura sobre este tópico não está disponível. Portanto, este trabalho tem como objetivo fornecer a primeira revisão sistemática de literatura sobre a aplicação de técnicas de EC para a descoberta de regras em estoque AT. Dos 650 artigos publicados antes de 2013 (inclusive), foram confirmados 51 artigos relevantes de 24 periódicos. Esses trabalhos foram analisados ​​e agrupados em três categorias de métodos analíticos (análise fundamental, análise técnica e análise de mistura) e três categorias de técnica da CE (algoritmo evolutivo, inteligência de enxame e técnicas EC híbridas). Observa-se um viés significativo em relação às aplicações de técnicas baseadas em algoritmos genéticos (GA) e de programação genética (GP) na descoberta técnica de regras de negociação. Outras técnicas da CE e análises fundamentais carecem de estudo suficiente. Além disso, resumimos as informações sobre o esquema de avaliação de trabalhos selecionados e particularmente analisamos as pesquisas que comparam seus modelos com estratégia de compra e retenção (B H). Observamos um fenômeno interessante onde a maioria das técnicas existentes atua efetivamente na tendência de baixa e mal na tendência de alta e considerando a distribuição da pesquisa no quadro de classificação, sugerimos que esse fenômeno pode ser atribuído à inclinação das seleções de fatores e do problema Seleções de custos de transação. Observamos também a influência significativa da variação do custo de transação nas margens de excesso de retorno. Outros fatores influenciados também são apresentados em detalhes. A ausência de formas de previsão das tendências do mercado e a seleção do custo de transação são duas grandes limitações dos estudos revisados. Além disso, a combinação de técnicas de descoberta de regras de negociação e seleção de carteiras é um importante vazio de pesquisa. Nossa revisão revela o foco da pesquisa e lacunas na aplicação de técnicas de CE para a descoberta de regras em estoque AT e sugere um roteiro para pesquisas futuras. Resumo gráfico

No comments:

Post a Comment