Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 417

 
Mihail Marchukajtes:

essa é na verdade a resposta...blá, blá, blá.... e nenhum resultado.....

poste o seu relatório de negociação, haverá um resultado e será positivo, por isso, conversa séria...

 
Ivan Negreshniy:

poste seu relatório de negociação, haverá um resultado e se for positivo, então talvez uma conversa séria


que tipo de conversa????? eu não entendo..... eu me ofereci para construir um modelo para uma tarefa diferente de forex mas não menos rentável, e você me fala sobre trading..... strange!!!!

 
Mihail Marchukajtes:

que conversa????? Eu não entendo..... Eu me ofereci para construir um modelo para uma tarefa diferente de forex, mas não menos rentável, e você me fala sobre negociação..... strange!!!!

se você me ofereceu uma tarefa não menos lucrativa que o forex, então eu tenho o direito de saber o quão lucrativo é o seu forex, o que há de estranho nisso?

 
Ivan Negreshniy:

Se você me oferecer uma tarefa não menos rentável que o forex, eu tenho o direito de saber o quão rentável é o forex, o que é tão estranho?


o que é que o forex tem a ver com qualquer coisa???? sobre forex lê os meus posts anteriores ou o artigo..... eu não estou a falar de forex....

 
Mihail Marchukajtes:

O que é que o forex tem a ver com isto???? lê os meus posts anteriores ou o artigo..... Eu não estou a falar de forex....

foi ler...
 
elibrarius:
selecciona apenas inicialmente o tipo de rede por tipo de saída, sem necessidade de reescrever nada (e todas as camadas internas estão ligadas por cabo como não lineares)
Você já experimentou re-treinar a mesma rede criada em alglib? Por exemplo, eu treinei o MLP e depois o re-treino... é re-treinado, sem erros, mas talvez isso não esteja correto e um novo objeto de rede deva ser criado? Ou é de alguma forma re-treinado lá e não treinado novamente... novamente, não há nada sobre isso em ajuda, e eu sou meio preguiçoso para escavar no código e olhar lá)
 
Maxim Dmitrievsky:
Você já experimentou re-treinar a mesma rede criada em algibeira? Digamos que eu treinei o MLP e depois o re-treino... re-treina, sem erros, mas talvez isto esteja errado e um novo objeto de rede deva ser criado? Ou é de alguma forma re-treinado lá e não treinado novamente... novamente, não há nada sobre isso em ajuda, mas é meio preguiçoso escavar o código e olhar lá)
Se você se reciclar novamente, não haverá erro (não é reciclar, porque os coeficientes serão zerados) e basta encontrar uma nova combinação deles.
 
Maxim Dmitrievsky:
Eu ainda não experimentei re-treinar a mesma rede criada em alglib? Digamos que eu treinei um MLP e depois o re-treinei... ele re-treina, sem erros, mas pode não estar certo e precisar criar um novo objeto de rede? Ou é de alguma forma re-treinado lá e não treinado novamente... Mais uma vez, não há nada sobre isso em ajuda, mas é meio preguiçoso cavar ao redor e procurar código lá)

Uma abordagem muito interessante e tão antiga como o mundo. Faça algum treinamento, obtenha os resultados e depois treine a rede novamente em dados de várias outras redes. Um tipo de aprendizagem profunda de um formato diferente.... A propósito, esta abordagem é boa...

 
Mihail Marchukajtes:

Uma abordagem muito interessante e tão antiga como o mundo. Faça algum treinamento, obtenha os resultados e depois treine a rede novamente em dados de várias outras redes. Um tipo de aprendizagem profunda de um formato diferente.... A propósito, esta é uma boa abordagem...

Não, é apenas treino a certos intervalos no testador, por exemplo, num determinado sorteio e assim por diante. Se você usar várias redes, há ns ensembles em alglieb, eu brinco com eles depois, é verão, preguiçoso... mojito de praia, só brincando com o que... o mar na Sibéria, só há um rio e um pântano

e depois há todo o tipo de impulsos, shmustings e outras coisas, e LSTM como um ideal rebuscado das minhas aspirações que eu ainda não tenho

 
Vladimir Perervenko:
Mihail Marchukajtes:

Muito bem, agora que estás no ponto, vou dizer-te uma ideia sobre a recolha de dados para processamento. É realmente difícil treinar um modelo com um alto nível de generalização numa área suficientemente grande, porque o mercado é um organismo vivo e blá, blá, blá, blá. Quanto mais longo o período de treino, pior é o desempenho do modelo, mas mais longo. Objetivo: Fazer um modelo de longo prazo. Divisão ou método dois, porém para aqueles que utilizam um comitê de duas redes.

Temos três estados: "Sim", "Não" e "Não sei", quando as grelhas aparecem em direcções diferentes.

Nós treinamos a rede em toda a secção, no nosso caso 452 entradas. A rede aprendeu este conjunto em 55-60%, assumindo que as respostas "Não Sabe" na amostra de treinamento foram de 50%, portanto, 226 sinais que a rede não pôde aprender. Ok, agora nós construímos um novo modelo SOMENTE sobre os estados "Não sei", ou seja, tentamos construir o modelo sobre estados tão quase-estatais que enganaram o primeiro modelo. O resultado é aproximadamente o mesmo de 226, apenas metade será reconhecida, o resto terá o estado "Não sei", depois construirá o modelo novamente. o resultado é 113, depois 56, depois 28, depois 14. Em 14 entradas não conhecidas por nenhum dos modelos anteriores, o Jprediction Optimizer calcula normalmente até 100% de generalizabilidade.

Como resultado, temos um "Sistema Padrão" que reconhece todo o mercado em um período de três meses.

Aqui está outra maneira além do "Contexto do Dia" Como você pode dividir o mercado em subespaços e produzir treinamento obtendo exatamente um "Sistema de Padrões" Aqui está um exemplo....

------------------------------------------------------------

Este método é chamado "boosting" -Boosting é um procedimento de composição sequencial de algoritmos de aprendizagem de máquina onde cada algoritmo sucessivo tenta compensar as desvantagens da composição de todos os algoritmos anteriores.Boosting é um algoritmo ganancioso para a construção de uma composição de algoritmos.

A mais famosa aplicação recente é a XGBoost.

Boa sorte.

O que tem a XGBoost a ver com uma biblioteca otimizada de aumento de gradiente distribuído e construção de algoritmos de aprendizagem de máquinas?
Razão: