Discussão do artigo "Sequência DeMarker (TD SEQUENTIAL) com uso de inteligência artificial (IA)" - página 3
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Leia.
Parabéns por ter decidido publicar seu TS e explicar aproximadamente como ele funciona, além de explicar um pouco de teoria em termos de suas ideias sobre o trabalho das redes neurais diretamente no mercado Forex.
Entretanto, o artigo é muito do tipo "o trader pode adivinhar", "o trader deve tomar uma decisão com base em sua própria experiência" etc. Tudo muito vago para um artigo tão extenso. Tudo muito vago para um título de artigo tão extenso.
Pelo que entendi, você não é um programador, caso contrário, o artigo seria mais informativo, sistemático e você refinaria seu TS para não inverter posições.
Então, você teria publicado os resultados da negociação no testador por um ano ou dois, pré-treinando a rede a cada quinze dias.
A reversão é sempre por sua própria conta e risco, não há um algoritmo claro - essa é uma grande desvantagem.
Não é nem mesmo um artigo sobre redes neurais, é apenas uma descrição de seu TC.
Eu esperava mais detalhes, mais palavras sobre o trabalho detalhado da rede neural proposta, exemplos de amostras de teste, exemplos de treinamento, exemplos de trabalho após o treinamento.
Artigos metadológicos não são necessários aqui, pois os iniciantes nunca conseguirão fazer isso direito e as pessoas com conhecimento não estão interessadas nisso. As pessoas que estão no mercado forex há muito tempo, que conhecem programação, geralmente procuram uma ideia interessante com uma explicação detalhada de por que é uma boa ideia, como funciona e como usá-la. Em seguida, eles a adaptam às suas necessidades e a incorporam em seus Expert Advisors, indicadores etc.
Por exemplo, tenho um agrupador de dados baseado na Rede Neural Kohonen em C++:
Nele, a imagem à esquerda são os dados originais, a imagem à direita é após o agrupamento, com cada classe assinada com um nome de classe de dois dígitos e a distância mínima na classe. A rede consiste em 7 neurônios. Há 49 classes no total.
Você não tem um único exemplo, o que exatamente você fornece de dados de entrada e em que formato, o que você obtém como saída etc., descrição do algoritmo de aprendizado etc.
Obrigado por seu interesse. Publiquei uma descrição do otimizador na página anterior. Há um link para a organização do otimizador escrita pelo próprio autor.
Estou programando em MQL4. Todas as grades estão nos arquivos anexados ao artigo. A questão é que a tarefa é construir esse polinômio, que tem o efeito de generalização da variável de saída. O polinômio em si pode não ser grande, mas o principal é que ele compreende a essência do mercado. Eu caminhei em sintonia com ele.
Como o classificador divide a amostra em duas áreas. Portanto, comparamos apenas os dois últimos sinais, sabendo o resultado do anterior e vendo em que grupo o sinal atual se enquadra, podemos tirar certas conclusões.
Sim, de fato o artigo foi um pouco seco, mas sua essência era familiarizar os leitores com o MÉTODO de criação de sistemas de negociação. Tente aplicar o "contexto do dia" em seu TS e é provável que o treinamento inclua os sinais que aparecem durante o dia.
Com relação às reversões, expliquei no artigo como isso é feito.
Observando as entradas, não é difícil adivinhar quais dados são usados para entrar. A saída é organizada pelo lucro.
Vou lhe contar um segredo, só você para ninguém.... bem????
A questão é que é possível passar sem o NS e isso é feito de forma muito simples.
Existe um conceito chamado perfil delta. Quando recebemos um sinal e conhecemos sua janela. Precisamos criar um perfil delta para essa janela. Se o "Contexto do dia" coincidir com o volume e o OI, ou seja, se ambos subirem ou descerem ao mesmo tempo, então nos moveremos de acordo com o perfil delta; se o perfil delta para o volume máximo na janela de compra for positivo, então compraremos; se for negativo, consideraremos esse sinal de compra "Falso". Mas se o "Contexto do dia" for diferente. Ou seja, o volume caiu, mas o OI cresceu. Então, precisamos trabalhar na direção oposta. Normalmente, nesses dias, o preço cresce a partir do perfil delta negativo e cai a partir do positivo. É um desastre. Você não precisa de nenhum Ns aqui, tudo funciona muito bem como está. Porque o próprio Sequenta é adaptável, assim como o perfil delta, que é o motivo da mudança de preço. Infelizmente, não há um indicador de perfil delta para uma determinada janela, portanto, o trabalho do TS é bom, mas não muito bom. Mas se fosse possível fornecer esses dados para a entrada do EA, o problema seria resolvido de forma coordenada.
Se quisermos escrever um Expert Advisor de acordo com as condições, podemos tentar, mas a questão do perfil delta na janela deve ser resolvida de alguma forma.....
Nem toda amostra é um segundo, apenas aquelas em que há um alvo, mas o que posso lhe explicar... meu "Sharp-ratio" não cai abaixo de 3 há 3 anos, e isso levando em conta que muitas vezes refaço tudo, reorganizo e, a partir disso, muitas transições de sistema, e no modelo atual, no real, tenho 8 "Sharp-ratio". Portanto, conte a outra pessoa sobre suas 30 linhas no "contexto do dia".
Você pode divulgar seu conjunto de dados, é claro, ele é sempre interessante, mas eu lhe direi imediatamente que, na quantificação de mais de um minuto, já não há peixes no mercado há muito tempo (exceto para o insider clássico), e também tenho técnicas bastante eficazes de detecção de treinamento excessivo, meu sistema de "30 amostras" não levará a sério, ele dirá "dados insuficientes".
Você tem algum conhecimento de estatística? Já ouviu falar do teorema do limite central? Sobre o tamanho mínimo da amostra, 30 amostras é o valor limite mínimo de representatividade potencial da amostra, para UMA FIGURA, no caso de distribuição quase normal, e é melhor a partir de 200 -t . Em um multímetro, o limite mínimo do tamanho da amostra aumenta para 30^(D\2), em que D é o número de fichas.
Parece-me que você está fazendo um simples ajuste, senhor, abandone essa atividade pouco promissora, há cada vez menos carne, em breve será como nos "países desenvolvidos", investidores qualificados e tudo mais, os otários não terão permissão para entrar no mercado e você terá que lutar diretamente com fundos de hedge e institucionais, e esses não têm 30 linhas para aprender seus modelos, você será roubado com essa abordagem)))).
Vejo que você e eu temos abordagens diferentes para trabalhar no mercado. Não vou mudar a opinião de ninguém nem provar nada. Expus a essência da abordagem e as possibilidades de aprimoramento da estratégia, e espero que seja útil para alguém (não para você, é claro, o que posso dizer). No entanto, o significado da construção polinomial é a capacidade de dividir um espaço multidimensional por uma linha universal, que manterá sua eficiência por um determinado período de tempo.
Você sabe que tenho cerca de 100 colunas ou entradas em meu arquivo de treinamento? Vou publicá-lo e quero ver como sua IA criará um modelo com base nele. Por gentileza, !!!!!
E sobre o ajuste, direi que considero os dados e analiso o trabalho do modelo exclusivamente na parte fora da amostra, o que é ajuste, eu não entendo.....Saudações a todos, a neuronka interessou muito há muito tempo e entendeu e agora também acho que por trás dela o futuro e o presente já, é claro, com suas próprias peculiaridades, tenho uma pergunta sobre a essência da neuronka, se entendi corretamente que, ao ensinar certos algoritmos, ela procura semelhante no futuro e negocia com eles, é claro que no movimento digital e estrutural do mercado nunca é idêntico, e sempre há mudanças, ou seja.Por exemplo, um sinal é dado e, no histórico, ele é repetido 100 vezes, mas de 100 vezes, naturalmente, apenas uma pequena quantidade traz lucro, o restante é negativo. O que é um sinal claro, ou seja, em determinadas configurações de qualquer indicador, a neuronka deve encontrar no histórico uma repetição que dará uma eficiência positiva, como resultado, aqui está o número de sinais separados que devem dar o resultado com boa lucratividade. Ou seja, se qualquer indicador for lucrativo e não lucrativo em mãos habilidosas, por que não cruzar um ou mais indicadores em uma única estratégia e, além disso, selecionar os melhores resultados de ajuste por meio da neuronka para não deduzir os melhores resultados e negociar com base neles? Se houver alguém que possa fazer isso ou que possa fazê-lo, eu participaria.
Você tem toda a razão, há uma variante da rede quando ela procura padrões no futuro, estuda-os e, em seguida, faz o mesmo movimento no futuro. Entretanto, é muito difícil encontrar um padrão no passado que possa ser interpretado sem ambiguidade. Ou seja, de 100 padrões no passado (um mesmo padrão), 50 darão um sinal de mais e 50 darão um sinal de menos. E então? O que o NS deve fazer? Ao preparar os dados, é importante que não haja contradição quando o mesmo padrão produzir resultados diferentes. Portanto, o processo de generalização é a solução, quando, ao surgir um padrão, com base nas informações das entradas, é feita uma conclusão sobre a veracidade ou falsidade do sinal.
Vejo que você e eu temos abordagens muito diferentes para trabalhar no mercado. Não vou mudar a opinião de ninguém nem provar nada. Expus a essência da abordagem e as possibilidades de aprimoramento da estratégia e espero que isso seja útil para alguém (não para você, é claro, o que posso dizer). No entanto, o objetivo de construir um polinômio é a capacidade de dividir um espaço multidimensional por uma linha universal, que permanecerá funcional por um determinado período de tempo.
Você sabe que tenho cerca de 100 colunas ou entradas em meu arquivo de treinamento? Vou publicá-lo e quero ver como sua IA criará um modelo com base nele. Por gentileza, !!!!!
E sobre o ajuste, vou lhe dizer que considero os dados e analiso o trabalho do modelo exclusivamente em participantes fora da amostra, o que é ajuste, eu não entendo.....Perdoe-me por uma leve agressão. Raramente me comunico em fóruns e redes sociais, portanto, às vezes, posso ter um comportamento não politicamente correto. As reações e citações às minhas postagens duras podem ser removidas ou editadas, se você quiser.
Por compartilhar sua abordagem, obrigado, em nosso negócio isso é raro, mesmo que a abordagem seja original, na verdade, DEVE ser original, de que outra forma, se roubamos uns aos outros e à boneca. Aqui você precisa ser original e inventivo))))))
Sobre o segundo conjunto de dados que você postou para não dizer nada, não posso dizer nada, infelizmente, pois para 100 chips são necessárias pelo menos 10 mil amostras para treinamento e pelo menos mil para o teste, o que diria algo definitivo. Mas meu modelo pode lidar tanto com um chip quanto com 10 mil.
À noite, verificarei o modelo linear acima, treinado em 50 amostras, apenas para fins de experimento, embora, na minha opinião, a probabilidade de que ele forneça pelo menos 51% em 14 mil amostras de teste seja próxima de zero.
Se quiser, publicarei o resultado.
Perdoe a leve agressividade, eu raramente interajo em fóruns e mídias sociais, portanto, às vezes, posso não me comportar de forma politicamente correta.
Por compartilhar sua abordagem, obrigado, em nosso negócio isso é raro, mesmo que a abordagem seja peculiar, na verdade, DEVE ser peculiar, de que outra forma, se roubamos uns aos outros e à boneca. Aqui você tem que ser original e inventivo))))))
Não posso dizer nada sobre o segundo conjunto de dados que você postou. Infelizmente, para 100 chips, você precisa de pelo menos 10 mil amostras para treinamento e pelo menos mil para o teste, o que diria algo definitivo.
Vou produzir o modelo linear acima, treinado em 50 amostras, e à noite vou verificar, apenas para fins de experimentação, embora, na minha opinião, a probabilidade de que ele dê pelo menos 51% em 14 mil amostras de teste seja próxima de zero.
Se quiser, publicarei o resultado.
Sem dúvida, publique-o. Ficarei muito feliz!!! Resultados interessantes.....
Perdoe a leve agressividade, eu raramente interajo em fóruns e mídias sociais, portanto, às vezes, posso não me comportar de forma politicamente correta.
Por compartilhar sua abordagem, obrigado, em nosso negócio isso é raro, mesmo que a abordagem seja peculiar, na verdade, DEVE ser peculiar, de que outra forma, se roubamos uns aos outros e à boneca. Aqui você tem que ser original e inventivo))))))
Sobre o segundo conjunto de dados que você postou para não dizer nada, não posso dizer nada, infelizmente, pois para 100 chips são necessárias pelo menos 10 mil amostras para treinamento e pelo menos mil para o teste, o que diria algo definitivo. Mas meu modelo pode lidar tanto com um recurso quanto com 10 mil.
Vou produzir o modelo linear acima, treinado em 50 amostras, e à noite vou verificar, apenas para fins de experimento, embora, na minha opinião, a probabilidade de que ele forneça pelo menos 51% em 14 mil amostras de teste seja próxima de zero.
Se quiser, publicarei o resultado.
As definições são um pouco confusas, mas percebi que, com uma matriz de 100 por 100, quando temos 100 colunas (entradas) e 100 registros (sinais), o modelo obtém um aumento na generalização. Ou seja, uma matriz 100 X 100 treinará melhor do que uma matriz 10X100 e pior do que uma matriz 100X10, em que o primeiro dígito é o número de entradas e o segundo dígito é o número de sinais. Ou seja, quando o número de entradas excede significativamente o número de sinais, o NS, como se diz, tem muito o que escolher e, portanto, o modelo obtém um nível mais alto de generalização. Quando o número de entradas é muito menor do que o número de sinais, o modelo não é muito bom, porque se torna difícil escolher devido ao surgimento de dados contraditórios. Além disso, posso lhe contar um truque, mas ele já está em segredo. O truque não é muito importante, mas o efeito que ele traz é muito interessante.
Então... por favor, explique algumas coisas, por exemplo, eu pego um arquivo toad, ele é um modelo treinado? Há quatro métodos, não há referências a referências e, nos próprios métodos, os coeficientes são shardcoded, mas eles usam 5 chips, e havia 15. Quais chips você usou ou como reduziu a dimensionalidade de 15->5?
E eu preciso do binário *.vrm para alguma coisa, se eu só precisar executar um teste?