O que alimentar a entrada da rede neural? Suas ideias... - página 80

 
Aleksey Vyazmikin #:

Qual foi o período de estudo? Os preços de fechamento foram fornecidos? De qual TF? Teste de demonstração do MQ? Qual é a expectativa mat. para 1 lote?

Mudei para 21 anos: 2000 a 2021.

Os dois gráficos são muito irreconciliáveis: 2000 a 2012 e 2012 a 2021.
Se os dois subirem: ou é retreinamento ou algo está funcionando.

Teste na icMarkets, conta real. Não sei os detalhes, não estou em meu computador no momento.

Quanto à seleção de preços de entrada: ainda não divulguei aqui, estou garimpando há dois anos, guardo os melhores. Posso postar algo curioso.
 
Forester #:
Se não fossem os saques de seis meses, seria ótimo. Eu os tive por até 2 anos. Ao testar com o 2015 valkingforward.

PS. Como vocês conseguem trabalhar à noite? O dia é o horário mais eficiente.
Sim, os resultados de frente são nulos.

Mas gostei do fato de que o "relé" funciona: se você girá-lo para um lado, há muito ruído (lixo) no forward, se você girá-lo para o outro lado, há menos ruído, mas os bons negócios não são cortados.
 
Ivan Butko #:


O que é esse programa?

 
Andrey Dik #:

O que é esse programa?

Eu estava tentando fazer com que o chat executasse um NS python no meu RTX 3080. Ele me ofereceu um ambiente de desenvolvimento: Jupiter, GoogleCollab, Idle ou Spider.

Gosto da aparência do Spider e executo os scripts de modelo nele
 
Minha previsão é que o único modelo que conseguirá negociar com lucro estável por um longo tempo é a colaboração CNN + BiLSTM + MLP

Asredes convolucionais serão mais bem deduzidas
 
Minha previsão é que o único modelo que conseguirá operar com lucro estável por um longo tempo é a colaboração CNN + BiLSTM + MLP

1) As redes convergentes serão melhores na extração e generalização de padrões. Ou seja, elas farão o pré-processamento dos dados de entrada.

2) As redes recorrentes trabalharão com dados já limpos de lixo, e seu módulo de estado anterior se adaptará às mudanças do mercado.

3) O perceptron de múltiplas camadas simplesmente aprenderá as regras de negociação com os dados processados adequadamente. Afinal de contas, ele é o mais meticuloso de todos os três.


No caso de fortes mudanças no comportamento de um par de moedas, as redes de recorrência não permitirão que você saia rapidamente do mercado, mas gradualmente levarão a negociação a um nível estável, o que dará o sinal para um novo treinamento de todo o sistema.


Essa é minha opinião subjetiva com base em minha compreensão desses métodos.

Ainda não girei adequadamente esse pacote em minhas mãos

Novamente, considerando que todos esses métodos foram discutidos centenas de vezes por profissionais aqui, posso estar errado. Por outro lado, nos afastamos da previsão padrão do próximo candle, que geralmente é feita em artigos, em favor do polimento do TS. E talvez isso dê uma guinada.
[Excluído]  
Ivan Butko As redes convergentes serão melhores na extração e generalização de padrões. Ou seja, elas farão o pré-processamento dos dados de entrada.

2) As redes recorrentes trabalharão com dados já limpos de lixo, e seu módulo de estado anterior se adaptará às mudanças do mercado.

3) O perceptron de múltiplas camadas simplesmente aprenderá as regras de negociação com os dados processados adequadamente. Afinal de contas, ele é o mais meticuloso de todos os três.


No caso de fortes mudanças no comportamento de um par de moedas, as redes de recorrência não permitirão que você saia rapidamente do mercado, mas gradualmente levarão a negociação a um nível estável, o que dará o sinal para um novo treinamento de todo o sistema.


Essa é minha opinião subjetiva com base em minha compreensão desses métodos.

Ainda não girei adequadamente esse pacote em minhas mãos

Novamente, considerando que todos esses métodos foram discutidos centenas de vezes por profissionais aqui, posso estar errado. Por outro lado, nos afastamos da previsão padrão do próximo candle, que geralmente é feita em artigos, em favor do polimento do TS. E talvez isso dê uma guinada.
Tudo isso é um absurdo, mas a pergunta é diferente
O doador de TS também é positivo no forward?)
 
Ivan Butko #:

O problema dos números.

... Mas acontece que os dados de entrada já carregam de fato um fator de força em face de seu valor quantitativo. ...


Amostras, cada um dos n números, alimentados nas entradas X[0 ... n-1] no processo de treinamento, deve ser pré-treinado (normalizado) de forma que sejam IGUAIS entre si, mantendo-se as outras coisas iguais.


No contexto em que o valor Y na saída de um neurônio correspondente é a soma de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], essa equivalência pode ser obtida de apenas uma maneira:

As somas dos valores |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| em todas as amostras de treinamento devem ser iguais.

Onde W[n] é considerado como "outra condição igual" igual a X[n].

Ou seja, já levando em conta a "outra condição igual", duas amostras são numericamente equivalentes se suas somas X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 forem iguais.


Por exemplo, :

Se algumas seções de preço por seus incrementos X[n][k]=fechar[n][k]-abrir[n][k], em que n é o número do valor de X e k é o número da amostra, forem usadas como um saco de amostras de treinamento,

então a soma dos valores |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| denota o comprimento do caminho da curva percorrida pelo preço em uma determinada amostra k.

Ou seja, as amostras de treinamento k devem ser pré-normalizadas entre si, no sentido físico deste exemplo, literalmente pelo comprimento do caminho da curva de preço.

E agora é possível (e necessário) realizar outra normalização para elas, no intervalo não inferior / não superior a -+1, dividindo todos os X[n][k] por max, em que max é o máximo |X[n][k]| encontrado em todos os X[n][k].

E então, no processo de aprendizado, essas amostras normalizadas X[0 ... n-1][k] são alimentadas como amostras de treinamento, cada uma com sua própria pontuação d[k], que determina a contribuição dessa amostra para o resultado agregado do aprendizado.


Novamente:

Suponho que o treinamento não deva ser feito com todas as amostras k disponíveis, mas somente com aquelas que tenham uma pontuação "decente" (uso essa palavra) d[k].

Entretanto, para criar uma amostra "digna", ainda precisamos ter todas as amostras k com suas pontuações d[k].

No entanto, esse é outro tópico...

 
Maxim Dmitrievsky #:
O doador do TC também é positivo na frente)?



Absolutamente descrevi a teoria: o objetivo do NS é filtrar as TSs aproximadas que mostram algo.







E eu descrevi a abordagem: procurar manualmente qualquer TS que mostre pelo menos alguns resultados e filtrá-lo com NS. Aqui está o TS original.

Inadequado para negociação, mas mostrando sinais de vida .


E aqui está o mesmo, mas filtrado pelo Python NS: LSTM-key.

 
Evgeny Shevtsov #:


As amostras, cada uma com n números, alimentadas nas entradas X[0 ... n-1] durante o treinamento, devem ser pré-treinadas (normalizadas) de modo que sejam IGUAIS entre si, mantendo-se os demais fatores iguais.


No contexto em que o valor Y na saída de um neurônio correspondente é a soma de X[0]*W[0] + X[1]*W[1] + X[2]*W[2] + ... + X[n-1]*W[n-1], essa equivalência pode ser obtida de apenas uma maneira:

As somas dos valores |X[0]| + |X[1]| + |X[2]| + ... + |X[n-1]| devem ser as mesmas para todas as amostras de treinamento.

Onde W[n] é considerado como "outra condição igual" igual a X[n].

Ou seja, já levando em conta a "outra condição igual", duas amostras são numericamente equivalentes se suas somas X[0]^2 + X[1]^2 + X[2]^2 + ... + X[n-1]^2 forem iguais.


Por exemplo, :

Se algumas seções de preço por seus incrementos X[n][k]=fechar[n][k]-abrir[n][k], em que n é o número do valor de X e k é o número da amostra, forem usadas como um pacote de amostra de treinamento,

então a soma dos valores |X[0][k]| + |X[1][k]| + |X[2][k]| + ... + |X[n-1][k]| significa o comprimento do caminho da curva percorrido pelo preço em uma determinada amostra k.

Ou seja, as amostras de treinamento k devem ser pré-normalizadas entre si, no sentido físico deste exemplo, literalmente pelo comprimento do caminho da curva de preço.

E agora é possível (e necessário) realizar outra normalização para elas, no intervalo não inferior / não superior a -+1, dividindo todos os X[n][k] por max, em que max é o máximo |X[n][k]| encontrado em todos os X[n][k].

E então, no processo de aprendizado, essas amostras normalizadas X[0 ... n-1][k] são alimentadas como amostras de treinamento, cada uma com sua própria pontuação d[k], que determina a contribuição dessa amostra para o resultado agregado do aprendizado.


Novamente :

Acredito que o treinamento não deva ser realizado com todas as amostras k disponíveis, mas somente com aquelas que tenham uma pontuação "decente" (uso essa palavra) d[k].

Entretanto, para criar uma amostra de amostras "dignas", ainda precisamos ter todas as amostras k com suas pontuações d[k].

No entanto, esse é outro tópico...



Você escreveu de forma interessante É aí que entra a dissonância com a teoria dos números problemáticos:

E agora é possível (e necessário) realizar outra normalização para eles, sob o intervalo de no mínimo / no máximo -+1, dividindo todos os X[n][k] por max, onde max é o máximo de |X[n][k]| encontrado em todos os X[n][k].
Após qualquer normalização, qualquer rabisco é descrito por um número quantitativo, que afeta o resultado final do NS quanto maior for seu valor. E, de fato, essa trajetória "atípica" pode não ser um padrão, mas terá o número mais "pesado".

Irracional e injustificado . Afinal, prescrever "força" a um padrão é equivalente a encontrar um graal, grosso modo. Não há necessidade de NS, basta pegar os padrões com o índice de potência (numérico) mais alto, combiná-los com outro padrão semelhante e abrir uma posição, porque, de acordo com essa lógica, a probabilidade de ganhar é supostamente maior.



É por isso que eu queria me afastar dos números ou encontrar um método que, de alguma forma objetiva (o mais objetivamente possível), atribuísse um determinado poder a um padrão que, em algum contexto (mistura com outros padrões), apresentasse uma alta probabilidade de dar certo. Então, há uma sensação de pré-processamento.