Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3019

Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Foi assim que escrevi qual é a diferença entre ganância e genética para madeira - talvez eu não tenha entendido a pergunta.
Nunca ouvi falar em extrair regras da rede neural. Você pode me fornecer um link? Até agora, algo complicado está se desenhando em minha imaginação.
Mas acho que as redes neurais aqui serão obviamente mais lentas do que as árvores em termos de velocidade de emissão de novas regras.
Toda a sua ideia de separar "regras boas" das ruins é completamente sem saída, metodologicamente sem saída.
Você, por algum motivo, acha que as regras "boas" (árvores) são realmente "boas".
E não se trata apenas da imprecisão do futuro delas, mas do fato de que não há regras que possam ser consideradas de acordo com algum critério. Há regras que produzem uma VARIABILIDADE de "bondade" que muda conforme a janela se move, e é bem possível que essa regra passe de "boa" para "ruim" conforme a janela se move. Essa variabilidade é definida por um valor que divide a probabilidade de previsão em classes.
Normalmente, nos algoritmos de MO, a divisão em classes é feita dividindo-se a probabilidade de previsão da classe pela metade, mas isso é totalmente incorreto. Eu considero o valor da divisão em classes - nunca é 0,5: esse valor varia e depende do preditor específico.
Agora, voltemos às suas árvores "boas".
Se você selecionou árvores cuja "bondade" está próxima do limite, isso muda. É por isso que argumentei acima que as árvores "boas" que você selecionou poderiam facilmente se tornar árvores ruins.
É um beco sem saída.
A Yandex escreveu algo semelhante https://academy.yandex.ru/handbook/ml/article/optimizaciya-v-ml
Belo tutorial da Yandex, não está mal escrito. Outra seção tem mais a ver com o que eu penso. Ela descreve o tipo geral de função de perda usada na construção de árvores. A ideia é que otimizar o preço médio do erro e maximizar o lucro é equivalente a otimizar a soma dos preços dos erros.
Se traduzido em termos de lucro, é a diferença entre o lucro total e o lucro médio em uma negociação. Como estou resolvendo o problema da classificação binária (entrar/não entrar), a maximização do lucro médio em uma negociação levará estupidamente a entrar em uma ou duas negociações e descartar o restante.
Estou tentando entender se esse é um limite intransponível entre otimização e MO ou não.
Belo tutorial da Yandex, não está mal escrito. O que eu penso tem mais a ver com outra seção do tutorial. Ela descreve o tipo geral de função de perda usada na construção de árvores. A questão é que, nesse caso, otimizar o preço médio do erro e maximizar o lucro é equivalente a otimizar a soma dos preços dos erros.
Se traduzido em termos de lucro, é a diferença entre o lucro total e o lucro médio em uma negociação. Como estou resolvendo o problema da classificação binária (entrar/não entrar), a maximização do lucro médio em uma negociação levará estupidamente a entrar em uma ou duas negociações e descartar o restante.
Estou tentando entender se esse é um limite intransponível entre otimização e MO ou não.
O que o impede de escrever sua própria função de perda?
Esse é o meu resumo sobre a árvore ) O Google funciona, eu mesmo o utilizo. Os especialistas em mergulho geralmente se aproximam muito de como eu percebo a realidade.
Obrigado pelo conselho!
Obrigado pela orientação!
Você é quem deve lidar com seus tópicos, não outra pessoa.....
Eu resolvo problemas em MQL5, e estávamos falando sobre R.
Um fato é um fato - você diz algo sem pensar e depois vai para os arbustos.
O que o está impedindo de escrever sua DIVERSAÇÃO?
Bem, ainda não consegui descobrir como implementar a maximização de lucros no mesmo busting, por exemplo.
Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.
Bem, ainda não consegui descobrir como implementar a maximização do lucro no mesmo busting, por exemplo.
Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.
Toda a sua ideia de separar as "regras boas" das regras ruins" é completamente sem saída, metodologicamente sem saída.
De alguma forma, você acha que as regras "boas" (árvores) são realmente "boas".
E não se trata apenas da imprecisão do futuro delas, mas do fato de que não há regras que possam ser consideradas de acordo com algum critério. Há regras que produzem uma VARIABILIDADE de "bondade" que muda conforme a janela se move, e é bem possível que essa regra passe de "boa" para "ruim" conforme a janela se move. Essa variabilidade é determinada por um valor que divide a probabilidade de previsão em classes.
Normalmente, nos algoritmos de MO, a divisão em classes é feita dividindo-se a probabilidade de previsão da classe pela metade, mas isso é totalmente incorreto. Considero o valor da divisão em classes - nunca é 0,5: esse valor varia e depende do preditor específico.
Agora, de volta às suas árvores "boas".
Se você selecionou árvores cuja "bondade" está próxima do limite, isso muda. É por isso que argumentei acima que suas árvores "boas" selecionadas podem facilmente se tornar árvores ruins.
É um beco sem saída.
Você mesmo faz hipóteses sobre o que eu acho que penso e as contradiz. Tente fazer perguntas no início.
Sem saída ou não, eu mostrei resultados reais. Mostre o mesmo com uma floresta em que 50% das folhas classificam 3 classes de forma lucrativa, dois anos após o treinamento. Pelo que me lembro, você tem um conceito de retreinamento regular de modelos, quase uma vez por semana.
Não preciso explicar sobre o desvio - criei um tópico separado no fórum, onde estão ocorrendo tentativas de resolver o problema - se quiser compartilhar ideias, participe.
Portanto, o método é promissor, mas há algo a ser aprimorado e desenvolvido.
Bem, ainda não consegui descobrir como implementar a maximização do lucro no mesmo busting, por exemplo.
Estou fazendo algo, é claro, mas gostaria de ouvir outras opiniões informativas sobre o assunto.
Bem, mostrei a você como treinar o forrest na maximização de lucros.
Trata-se de um simples aprendizado sem gradiente por meio de uma função de adequação, essencialmente RL.
Coloquei o código aqui, mas esse método não é muito eficaz para tarefas grandes.
Para tarefas grandes, precisamos converter o aprendizado sem gradiente em aprendizado com gradiente, ou seja, em um mergulho típico regular de RL.
Veja a primeira metade deste vídeo , que explica como treiná-lo.
Há um exemplo com neurônicos, mas não é importante se é um impulso ou outra coisa.