Discussão do artigo "Redes Neurais Profundas (Parte VI). Ensemble de classificadores de redes neurais: bagging" - página 3
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Assisti a vários vídeos do elmNN, e a ideia é que o modelo adicione gradualmente novos neurônios ocultos, um a um, calculando seus pesos com fórmulas especiais. Um neurônio com uma camada oculta pode descrever uma função de qualquer complexidade, o que permite que o algoritmo use muitos neurônios na camada oculta - ele pode adicioná-los até atingir erro = 0.
E para combater o ajuste excessivo, o número máximo de neurônios deve ser reduzido.
Aqui está outra ideia sobre a criação de um conjunto.
Observei que os modelos com os melhores resultados combinados em um conjunto não fornecem os melhores resultados.
Em um experimento, gerei centenas de modelos e tentei encontrar o melhor conjunto pesquisando suas combinações. Como resultado, esses "melhores" conjuntos muitas vezes continham modelos bastante fracos, e as tentativas de remover esses modelos fracos ou substituí-los só pioravam o resultado.
Agora eu, por exemplo, primeiro encontro o melhor modelo que dá o melhor resultado. Em seguida, procuro o segundo modelo, que, em conjunto com o primeiro, dará um resultado ainda melhor, e o resultado desse segundo modelo (um sem conjunto) não é interessante para mim. Em seguida, adiciono um terceiro modelo, que, em conjunto com os dois primeiros, dará um resultado ainda melhor. etc. Ou seja, eu não me importo com o resultado de um modelo quando ele está sozinho, eu me importo com o quanto ele melhorará o conjunto. É como se fosse um "bousting".
Aqui está outra ideia de conjunto para você.
Observei que os modelos com os melhores resultados combinados em um conjunto não fornecem os melhores resultados.
Em um experimento, gerei centenas de modelos e tentei encontrar o melhor conjunto pesquisando suas combinações. Como resultado, esses "melhores" conjuntos muitas vezes continham modelos bastante fracos, e as tentativas de remover esses modelos fracos ou substituí-los só pioravam o resultado.
Agora eu, por exemplo, primeiro encontro o melhor modelo que dá o melhor resultado. Em seguida, procuro o segundo modelo, que, em conjunto com o primeiro, dará um resultado ainda melhor, e o resultado desse segundo modelo (um sem conjunto) não é interessante para mim. Em seguida, adiciono um terceiro modelo, que, em conjunto com os dois primeiros, dará um resultado ainda melhor. etc. Ou seja, eu não me importo com o resultado de um modelo quando ele está sozinho, eu me importo com o quanto ele melhorará o conjunto. É como o bousting.
Pensei que você tivesse escrito que estava fazendo regressão - apenas uma média serve, a votação está fora.
Estou calculando a média, sim.
Gostaria de saber qual é o resultado da previsão no forward?
Qual é o problema?
Há cotações e scripts. Repita os cálculos deslocando o início do conjunto em 500-1000 barras e obtenha o resultado de seu interesse.
De acordo com meus cálculos, depois de treinar o conjunto com os parâmetros ideais, pelo menos as próximas 750 barras oferecem boa qualidade de classificação. Para referência, 500 barras de M15 é uma semana. O retreinamento/reotimização leva cerca de 20 a 30 minutos (depende do hardware e da versão do R).
Um exemplo desse teste é apresentado no artigo anterior .
Boa sorte
Qual é o problema?
Há cotações, scripts. Repita os cálculos deslocando o início do conjunto em 500-1000 barras e obtenha o resultado de seu interesse.
De acordo com meus cálculos, depois de treinar o conjunto com os parâmetros ideais, pelo menos as próximas 750 barras oferecem boa qualidade de classificação. Para referência, 500 barras de M15 é uma semana. O retreinamento/reotimização leva cerca de 20 a 30 minutos (depende do hardware e da versão do R).
Um exemplo desse teste é apresentado no artigo anterior .
Boa sorte
Você tem os incrementos ZigZag como seu professor. Uma função com muitas áreas monotônicas. Esses não são incrementos de lucro. É por isso que 70% das direções adivinhadas corretamente não dão uma compreensão da lucratividade e você precisa testar as cotações.
É isso mesmo. И ?
Levando em conta as realidades do mercado (spreads, comissões, recotações...), a precisão da classificação com o ZigZag como alvo deve ser, em geral, muito superior a 80%.
Como você determinou/calculou esse número? Se não for segredo, é claro.