Discussão do artigo "Redes Neurais Profundas (Parte VI). Ensemble de classificadores de redes neurais: bagging" - página 4

 
Vladimir Perervenko:

E como você determinou/calculou esse número? Se não for segredo, é claro.

Maneira experimental. Muito depende de uma série temporal específica, do período de tempo e dos parâmetros do ZigZag. Por exemplo, para EURUSD15, a precisão de 0,84 não foi suficiente.

 

Tentei um conjunto de 10 peças DNN Darch, calculando a média das previsões das 10 melhores. Em dados semelhantes aos seus, mas do meu DC.

Não houve melhora, a previsão média (osh=33%) está logo abaixo da melhor (osh=31%). A pior foi com erro = 34%.

Os DNNs são bem treinados - para 100 épocas.

Aparentemente, os conjuntos funcionam bem em um grande número de redes fracas ou mal treinadas, como a Elm.

 
elibrarius:

Tentei um conjunto de 10 peças DNN Darch, calculando a média das previsões das 10 melhores. Em dados semelhantes aos seus, mas do meu DC.

Não houve melhora, a previsão média (osh=33%) está logo abaixo da melhor (osh=31%). A pior foi com erro = 34%.

Os DNNs são bem treinados - para 100 épocas.

Aparentemente, os conjuntos funcionam bem em um grande número de redes fracas ou mal treinadas, como a Elm.

É claro que é melhor usar modelos fracos e instáveis em conjuntos. Mas você também pode criar conjuntos com modelos rígidos, mas a técnica é um pouco diferente. Se o tamanho permitir, mostrarei no próximo artigo como criar um conjunto usando o TensorFlow. Em geral, o tópico de conjuntos é muito amplo e interessante. Por exemplo, você pode criar um RandomForest com redes neurais ELM ou quaisquer outros modelos fracos como nós (consulte o pacote gensemble).

Sucesso

 
É um hábito verificar seu novo tópico sobre NN profundo. Parabéns!
 

Обсуждение и вопросы по коду можно сделать в ветке

Удачи

 

Discussões e perguntas sobre o código podem ser feitas na seção

Boa sorte

 
Artigo interessante, obrigado.