Discussão do artigo "Redes Neurais Simples e Econômica - Conecte o NeuroPro com o MetaTrader 5" - página 3
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Quanto ao artigo em si, não ao NS em geral. Qual é o problema? O número de coeficientes a serem ajustados é comparável à quantidade de histórico.
Vamos considerar o número de coeficientes igual à quantidade de histórico. Acho que, então, o ajuste será perfeito. Ele não terá uma única negociação perdida e extrairá o máximo possível do histórico.
Se abordarmos a construção NS como uma seleção de um grande número de coeficientes, não precisaremos de algo tão bom.
Há outra utilidade aqui: a compressão de informações com perda. Havia muito histórico, há menos coeficientes que descrevem aproximadamente o histórico. Por outro lado, há muitos algoritmos de compactação, mesmo sem perda, com desempenho muito melhor.
Quanto ao artigo em si, não ao NS em geral. Qual é o problema? O número de coeficientes a serem ajustados é comparável à quantidade de histórico.
Vamos considerar o número de coeficientes igual à quantidade de histórico. Acho que, então, o ajuste será perfeito. Ele não terá uma única negociação perdida e extrairá o máximo possível do histórico.
Se você abordar a construção do NS como uma seleção de um grande número de coeficientes, qual é a necessidade de algo tão bom?
É provável que você não tenha lido (com atenção) o artigo. O número de entradas é 24 (período de uma hora), o número de neurônios em uma camada é 20 e há 3 camadas.
E o exemplo de histórico é de 5 mil barras. Com 10 mil barras, o número de coeficientes permanecerá o mesmo.
Se você não entende do que estamos falando, então realmente não precisa disso.
É provável que você não tenha lido (com atenção) o artigo. O número de entradas é 24 (período de hora em hora), neurônios em uma camada - 20, camadas - 3.
E o exemplo de histórico é de 5 mil barras. Se você definir 10 mil barras, o número de coeficientes permanecerá o mesmo.
Se você não entende do que estamos falando, realmente não precisa disso.
Você pode se enganar o quanto quiser!
Dê uma olhada no código-fonte e conte o número de coeficientes ajustados. Blá, blá, blá na descrição do NS, mas a essência é o código-fonte.
Dobre a quantidade de histórico e observe o colapso das proporções. E assim acontece com cada aumento.
A simulação de orgasmo do artigo é o resultado mostrado. E o fato de que ele é obtido de uma maneira horrível não é o que ninguém está dizendo.
Vamos simplificar as coisas. Eu lhe darei o código-fonte de um consultor com mil coeficientes. E eu lhe darei um pedaço de história comparável. Não direi que é NS ou qualquer outra coisa. Apenas a fonte e um pedaço da história.
Você também mudará de ideia sobre esse cal quando eu lhe disser que é NS ou método científico avançado? Veja o resultado final.
Vamos considerar o unicum dimeon. Seu Expert Advisor contém não mais do que uma dúzia de coeficientes ajustáveis. A quantidade de histórico é milhares de vezes maior do que a que usamos para ajustar esses coeficientes. Portanto, o NS incorporado na cabeça de Dimeon pode, às vezes, produzir ótimos resultados. É por isso que eles não se opõem a todos os NS. Mas o artigo está induzindo o leitor ao erro.
Por outro lado, nosso pipsariano descolado não usa o princípio neural para criar um algoritmo de negociação. Ele não usa o princípio mais estúpido da adição e da multiplicação, como na NS. Talvez essa seja a razão da diferença marcante entre seus resultados e os clássicos na forma de NS.
Nome engraçado: ENCOG - aprendizado de máquina... Bem, é quente.
As ferramentas listadas aqui são apenas uma parte do aprendizado de máquina.
Rir sem motivo é um sinal de estupidez © Ditado popular
Para aqueles que são particularmente talentosos em aprendizado de máquina:
O riso sem motivo é um sinal de estupidez © Folk saying
Para especialistas em aprendizado de máquina especialmente talentosos:
1. Não há nenhum problema com o CRAN, bem, nenhum mesmo. Mais de dois anos em codobase.
2. A quantidade fala a favor da diversidade de abordagens e do rápido desenvolvimento. A qualidade dos pacotes no CRAN é excelente.
3. WEKA é um dos.... Se estivermos falando sobre a escolha de pacotes de aprendizado de máquina que podem ser usados em negociações, então cuidado. E, para começar, usamos o Rattle. Se você começar do zero, poderá colocá-lo em funcionamento em cerca de 15 minutos. Publiquei os resultados da comparação entre NS e florestas aleatórias acima. O NS apresenta resultados mais do que modestos. Eu até escrevi um artigo. Experimente o Rattle. Escolha de 2 a 3 pacotes no máximo e você ficará satisfeito. E abandone seu NS para sempre. Para começar, posso recomendar outro anexo.
2. A quantidade mostra a diversidade de abordagens e o rápido desenvolvimento. A qualidade dos pacotes no CRAN é excelente.
Na verdade, é o oposto, pois alguns pacotes simplesmente duplicam métodos de outros pacotes. Por exemplo, todos os SVMs são apenas portes da mesma biblioteca taiwanesa libsvm. Portanto, não faz absolutamente nenhuma diferença se o SVM estiver incorporado ao Cran, ao Weka, ao Encog ou a qualquer outro pacote. Os resultados serão idênticos com as mesmas configurações.
Se estivermos falando sobre a escolha de pacotes de aprendizado de máquina que podem ser usados em negociações, então cuidado.
Mais uma vez, você deve escolher ferramentas específicas para tarefas específicas. Negociação é apenas um nome generalizado para muitas estratégias e táticas do mercado de ações. É por isso que é impossível colocar tudo em um único conceito.
Publiquei os resultados da comparação entre NS e florestas aleatórias acima.
Esses não são resultados, mas algumas besteiras, como a temperatura média do hospital ajustada à amostra de treinamento.
Os resultados são quando, no mínimo, a amostra é dividida em amostras de treinamento e teste e, no máximo, a validação cruzada é aplicada.
Acho que vou defender o NS. O fato de madeiras aleatórias terem se tornado moda de repente não significa que o NS seja pior. São os mesmos ovos, apenas no perfil. Para fazer uma comparação mais ou menos adequada, pegue um comitê de malhas, ative o bousting e você obterá a mesma floresta aleatória. Os NSs são conhecidos por permitir que você implemente praticamente qualquer outro algoritmo.
Em todo caso, 99% do sucesso não está na ferramenta, mas na escolha e na preparação dos dados.
Acho que vou defender o NS. O fato de as florestas aleatórias terem se tornado moda de repente não significa que o NS seja pior.
O Random Forest não é um fenômeno da moda, mas uma ferramenta que pode fornecer resultados aceitáveis na primeira tentativa. Esse classificador é usado tanto por iniciantes quanto por usuários experientes. Os iniciantes o utilizam como uma ferramenta básica porque o método é muito simples. E os usuários mais experientes começam a resolver problemas com o RF para entender em que direção avançar.
De qualquer forma, 99% do sucesso não está na ferramenta, mas na escolha e na preparação dos dados.
Não se pode fazer um grande negócio de um grande negócio © People's saying
Seria interessante ver como você resolverá o problema de regressão múltipla usando algum classificador binário?
Não se trata de resultados, mas de alguma besteira, como a temperatura média do hospital ajustada à amostra de treinamento.
Resultados são quando, no mínimo, a amostra é dividida em amostras de treinamento e de teste e, no máximo, a validação cruzada é aplicada.
Eu não faço besteira.
Prova.
Os resultados publicados sempre se referem a dados de "treinamento fora da amostra". Isso é feito da seguinte forma no Rattle:
1. o conjunto original é dividido em três partes: 70-15-15%
2. o treinamento é realizado na parte de 70%, que é chamada de treinamento. Há uma nuance muito significativa aqui. Desses 70%, cerca de 2/3 dos dados de treinamento são selecionados aleatoriamente, ou seja, = 70% * 2/3. O treinamento é realizado com esses dados. As informações de desempenho do modelo são obtidas nos 70% * 1/3 restantes dos dados da amostra de treinamento, que, obviamente, também é um conjunto aleatório de linhas. Essa parte é chamada de OOB - out of bag. Ou seja, embora formalmente o mesmo conjunto de dados tenha sido usado para treinamento e avaliação, linhas diferentes foram retiradas dele para treinamento e avaliação.
Depois disso, você pode ir para a guia Avaliar, onde pode usar o modelo treinado nas duas vezes restantes de 15% e compará-lo com o OOB. Se os resultados forem os mesmos, há esperança. Conclui-se que, embora o Rattle seja uma ferramenta para testar ideias, a qualidade desse teste é muito maior do que a do artigo em discussão (que o autor se desculpe).
E, pessoalmente, para sua gentileza: o resultado obtido em meu artigo e neste artigo não é confiável, porque não há prova de supertreinamento (overfitting) do modelo, e os três conjuntos de testes fora da amostra de treinamento listados por mim não são essa prova. Ou seja, precisamos de critérios que sejam satisfeitos pelo conjunto de variáveis iniciais, no sentido de que o modelo que usa esse conjunto de variáveis possa ser testado de acordo com o esquema acima e os resultados desse teste sejam confiáveis.