Discussão do artigo "Redes Neurais Profundas (Parte VI). Ensemble de classificadores de redes neurais: bagging" - página 3

 

Assisti a vários vídeos do elmNN, e a ideia é que o modelo adicione gradualmente novos neurônios ocultos, um a um, calculando seus pesos com fórmulas especiais. Um neurônio com uma camada oculta pode descrever uma função de qualquer complexidade, o que permite que o algoritmo use muitos neurônios na camada oculta - ele pode adicioná-los até atingir erro = 0.

E para combater o ajuste excessivo, o número máximo de neurônios deve ser reduzido.

 

Aqui está outra ideia sobre a criação de um conjunto.

Observei que os modelos com os melhores resultados combinados em um conjunto não fornecem os melhores resultados.
Em um experimento, gerei centenas de modelos e tentei encontrar o melhor conjunto pesquisando suas combinações. Como resultado, esses "melhores" conjuntos muitas vezes continham modelos bastante fracos, e as tentativas de remover esses modelos fracos ou substituí-los só pioravam o resultado.
Agora eu, por exemplo, primeiro encontro o melhor modelo que dá o melhor resultado. Em seguida, procuro o segundo modelo, que, em conjunto com o primeiro, dará um resultado ainda melhor, e o resultado desse segundo modelo (um sem conjunto) não é interessante para mim. Em seguida, adiciono um terceiro modelo, que, em conjunto com os dois primeiros, dará um resultado ainda melhor. etc. Ou seja, eu não me importo com o resultado de um modelo quando ele está sozinho, eu me importo com o quanto ele melhorará o conjunto. É como se fosse um "bousting".

 
Dr. Trader:

Aqui está outra ideia de conjunto para você.

Observei que os modelos com os melhores resultados combinados em um conjunto não fornecem os melhores resultados.
Em um experimento, gerei centenas de modelos e tentei encontrar o melhor conjunto pesquisando suas combinações. Como resultado, esses "melhores" conjuntos muitas vezes continham modelos bastante fracos, e as tentativas de remover esses modelos fracos ou substituí-los só pioravam o resultado.
Agora eu, por exemplo, primeiro encontro o melhor modelo que dá o melhor resultado. Em seguida, procuro o segundo modelo, que, em conjunto com o primeiro, dará um resultado ainda melhor, e o resultado desse segundo modelo (um sem conjunto) não é interessante para mim. Em seguida, adiciono um terceiro modelo, que, em conjunto com os dois primeiros, dará um resultado ainda melhor. etc. Ou seja, eu não me importo com o resultado de um modelo quando ele está sozinho, eu me importo com o quanto ele melhorará o conjunto. É como o bousting.

É uma opção interessante. O que você acha que o resultado em tal conjunto é como uma média?
Pensei que você tivesse escrito que estava fazendo regressão - apenas uma média serve, a votação está fora.
 

Estou calculando a média, sim.

 
Gostaria de saber qual é a pontuação prevista para o atacante?
 
Виктор:
Gostaria de saber qual é o resultado da previsão no forward?

Qual é o problema?

Há cotações e scripts. Repita os cálculos deslocando o início do conjunto em 500-1000 barras e obtenha o resultado de seu interesse.

De acordo com meus cálculos, depois de treinar o conjunto com os parâmetros ideais, pelo menos as próximas 750 barras oferecem boa qualidade de classificação. Para referência, 500 barras de M15 é uma semana. O retreinamento/reotimização leva cerca de 20 a 30 minutos (depende do hardware e da versão do R).

Um exemplo desse teste é apresentado no artigo anterior .

Boa sorte

 
Vladimir Perervenko:

Qual é o problema?

Há cotações, scripts. Repita os cálculos deslocando o início do conjunto em 500-1000 barras e obtenha o resultado de seu interesse.

De acordo com meus cálculos, depois de treinar o conjunto com os parâmetros ideais, pelo menos as próximas 750 barras oferecem boa qualidade de classificação. Para referência, 500 barras de M15 é uma semana. O retreinamento/reotimização leva cerca de 20 a 30 minutos (depende do hardware e da versão do R).

Um exemplo desse teste é apresentado no artigo anterior .

Boa sorte

Você tem como professor os incrementos de ZigZag. Uma função com muitas áreas monotônicas. Esses não são incrementos de lucros. É por isso que 70% das direções adivinhadas corretamente não dão uma compreensão da lucratividade e você precisa testar as cotações.
 
Виктор:
Você tem os incrementos ZigZag como seu professor. Uma função com muitas áreas monotônicas. Esses não são incrementos de lucro. É por isso que 70% das direções adivinhadas corretamente não dão uma compreensão da lucratividade e você precisa testar as cotações.

É isso mesmo. И ?

 
Considerando as realidades do mercado (spreads, comissões, recotações...), a precisão de uma classificação com o ZigZag como alvo deve ser, em geral, bem superior a 80%.
 
Belford:
Levando em conta as realidades do mercado (spreads, comissões, recotações...), a precisão da classificação com o ZigZag como alvo deve ser, em geral, muito superior a 80%.

Como você determinou/calculou esse número? Se não for segredo, é claro.