Discussão do artigo "Redes Neurais Simples e Econômica - Conecte o NeuroPro com o MetaTrader 5" - página 3

[Excluído]  

Quanto ao artigo em si, não ao NS em geral. Qual é o problema? O número de coeficientes a serem ajustados é comparável à quantidade de histórico.

Vamos considerar o número de coeficientes igual à quantidade de histórico. Acho que, então, o ajuste será perfeito. Ele não terá uma única negociação perdida e extrairá o máximo possível do histórico.

Se abordarmos a construção NS como uma seleção de um grande número de coeficientes, não precisaremos de algo tão bom.

Há outra utilidade aqui: a compressão de informações com perda. Havia muito histórico, há menos coeficientes que descrevem aproximadamente o histórico. Por outro lado, há muitos algoritmos de compactação, mesmo sem perda, com desempenho muito melhor.

 
zaskok:

Quanto ao artigo em si, não ao NS em geral. Qual é o problema? O número de coeficientes a serem ajustados é comparável à quantidade de histórico.

Vamos considerar o número de coeficientes igual à quantidade de histórico. Acho que, então, o ajuste será perfeito. Ele não terá uma única negociação perdida e extrairá o máximo possível do histórico.

Se você abordar a construção do NS como uma seleção de um grande número de coeficientes, qual é a necessidade de algo tão bom?

É provável que você não tenha lido (com atenção) o artigo. O número de entradas é 24 (período de uma hora), o número de neurônios em uma camada é 20 e há 3 camadas.

E o exemplo de histórico é de 5 mil barras. Com 10 mil barras, o número de coeficientes permanecerá o mesmo.

Se você não entende do que estamos falando, então realmente não precisa disso.

[Excluído]  
elugovoy:

É provável que você não tenha lido (com atenção) o artigo. O número de entradas é 24 (período de hora em hora), neurônios em uma camada - 20, camadas - 3.

E o exemplo de histórico é de 5 mil barras. Se você definir 10 mil barras, o número de coeficientes permanecerá o mesmo.

Se você não entende do que estamos falando, realmente não precisa disso.

Você pode se enganar o quanto quiser!

Dê uma olhada no código-fonte e conte o número de coeficientes ajustados. Blá, blá, blá na descrição do NS, mas a essência é o código-fonte.

Dobre a quantidade de histórico e observe o colapso das proporções. E assim acontece com cada aumento.

A simulação de orgasmo do artigo é o resultado mostrado. E o fato de que ele é obtido de uma maneira horrível não é o que ninguém está dizendo.

Vamos simplificar as coisas. Eu lhe darei o código-fonte de um consultor com mil coeficientes. E eu lhe darei um pedaço de história comparável. Não direi que é NS ou qualquer outra coisa. Apenas a fonte e um pedaço da história.

Você também mudará de ideia sobre esse cal quando eu lhe disser que é NS ou método científico avançado? Veja o resultado final.

[Excluído]  

Vamos considerar o unicum dimeon. Seu Expert Advisor contém não mais do que uma dúzia de coeficientes ajustáveis. A quantidade de histórico é milhares de vezes maior do que a que usamos para ajustar esses coeficientes. Portanto, o NS incorporado na cabeça de Dimeon pode, às vezes, produzir ótimos resultados. É por isso que eles não se opõem a todos os NS. Mas o artigo está induzindo o leitor ao erro.

Por outro lado, nosso pipsariano descolado não usa o princípio neural para criar um algoritmo de negociação. Ele não usa o princípio mais estúpido da adição e da multiplicação, como na NS. Talvez essa seja a razão da diferença marcante entre seus resultados e os clássicos na forma de NS.

 
faa1947:

Nome engraçado: ENCOG - aprendizado de máquina... Bem, é quente.

As ferramentas listadas aqui são apenas uma parte do aprendizado de máquina.

Rir sem motivo é um sinal de estupidez © Ditado popular

Para aqueles que são particularmente talentosos em aprendizado de máquina:

  1. Minha postagem foi em resposta à pergunta: Como conectar um ANN via dll. Se você tiver uma resposta sobre como integrar pacotes do Cran via dll, sua réplica será apropriada.
  2. É improvável que uma parte significativa das ferramentas de aprendizado de máquina seja usada em qualquer lugar. Ou seja, o fato de o Cran ter muitos pacotes não acrescenta nenhuma dignidade a ele, pois a qualidade deve prevalecer sobre a quantidade. Você vai usar todos esses pacotes ou o quê?
  3. Para cada tarefa específica, é melhor escolher a ferramenta mais adequada. Para isso, você pode instalar o Weka em seu computador (a propósito, ele é compatível com a linguagem R na linha de comando) e usar o "Experimenter" incorporado à interface para executar uma amostra com validação cruzada habilitada em diferentes métodos de aprendizado de máquina. Aquele que apresentar o melhor resultado será o mais adequado para a tarefa em questão. Pelo menos, é isso que os usuários regulares do kaggle.com fazem. Afinal de contas, é melhor confiar o trabalho mais demorado e menos inteligente a um computador do que tentar adivinhar o que funcionará neste ou naquele caso.
 
Reshetov:

O riso sem motivo é um sinal de estupidez © Folk saying

Para especialistas em aprendizado de máquina especialmente talentosos:

  1. Minha postagem foi uma resposta à pergunta: Como integrar um ANN via dll. Se você tiver uma resposta sobre como integrar pacotes da Cran via dll, sua réplica será apropriada.
  2. É improvável que uma parte significativa das ferramentas de aprendizado de máquina seja usada em qualquer lugar. Ou seja, o fato de o Cran ter muitos pacotes não acrescenta nenhuma dignidade a ele, porque a qualidade deve prevalecer sobre a quantidade. Você vai usar todos esses pacotes ou o quê?
  3. Para cada tarefa específica, é melhor escolher a ferramenta mais adequada. Para isso, você pode instalar o Weka em seu computador (a propósito, ele é compatível com a linguagem R na linha de comando) e usar o "Experimenter" incorporado à interface para executar uma amostra com validação cruzada habilitada em diferentes métodos de aprendizado de máquina. Aquele que apresentar o melhor resultado será o mais adequado para a tarefa em questão. Pelo menos, é isso que os usuários regulares do kaggle.com fazem. Afinal de contas, é melhor confiar o trabalho mais demorado e menos inteligente a um computador do que tentar adivinhar o que funcionará neste ou naquele caso.

1. Não há nenhum problema com o CRAN, bem, nenhum mesmo. Mais de dois anos em codobase.

2. A quantidade fala a favor da diversidade de abordagens e do rápido desenvolvimento. A qualidade dos pacotes no CRAN é excelente.

3. WEKA é um dos.... Se estivermos falando sobre a escolha de pacotes de aprendizado de máquina que podem ser usados em negociações, então cuidado. E, para começar, usamos o Rattle. Se você começar do zero, poderá colocá-lo em funcionamento em cerca de 15 minutos. Publiquei os resultados da comparação entre NS e florestas aleatórias acima. O NS apresenta resultados mais do que modestos. Eu até escrevi um artigo. Experimente o Rattle. Escolha de 2 a 3 pacotes no máximo e você ficará satisfeito. E abandone seu NS para sempre. Para começar, posso recomendar outro anexo.

Arquivos anexados:
PredictTrend.zip  858 kb
 
faa1947:


2. A quantidade mostra a diversidade de abordagens e o rápido desenvolvimento. A qualidade dos pacotes no CRAN é excelente.


Na verdade, é o oposto, pois alguns pacotes simplesmente duplicam métodos de outros pacotes. Por exemplo, todos os SVMs são apenas portes da mesma biblioteca taiwanesa libsvm. Portanto, não faz absolutamente nenhuma diferença se o SVM estiver incorporado ao Cran, ao Weka, ao Encog ou a qualquer outro pacote. Os resultados serão idênticos com as mesmas configurações.

faa1947:


Se estivermos falando sobre a escolha de pacotes de aprendizado de máquina que podem ser usados em negociações, então cuidado.


Mais uma vez, você deve escolher ferramentas específicas para tarefas específicas. Negociação é apenas um nome generalizado para muitas estratégias e táticas do mercado de ações. É por isso que é impossível colocar tudo em um único conceito.

faa1947:


Publiquei os resultados da comparação entre NS e florestas aleatórias acima.


Esses não são resultados, mas algumas besteiras, como a temperatura média do hospital ajustada à amostra de treinamento.


Os resultados são quando, no mínimo, a amostra é dividida em amostras de treinamento e teste e, no máximo, a validação cruzada é aplicada.

 

Acho que vou defender o NS. O fato de madeiras aleatórias terem se tornado moda de repente não significa que o NS seja pior. São os mesmos ovos, apenas no perfil. Para fazer uma comparação mais ou menos adequada, pegue um comitê de malhas, ative o bousting e você obterá a mesma floresta aleatória. Os NSs são conhecidos por permitir que você implemente praticamente qualquer outro algoritmo.

Em todo caso, 99% do sucesso não está na ferramenta, mas na escolha e na preparação dos dados.

 
marketeer:

Acho que vou defender o NS. O fato de as florestas aleatórias terem se tornado moda de repente não significa que o NS seja pior.

O Random Forest não é um fenômeno da moda, mas uma ferramenta que pode fornecer resultados aceitáveis na primeira tentativa. Esse classificador é usado tanto por iniciantes quanto por usuários experientes. Os iniciantes o utilizam como uma ferramenta básica porque o método é muito simples. E os usuários mais experientes começam a resolver problemas com o RF para entender em que direção avançar.

marqueteiro:

De qualquer forma, 99% do sucesso não está na ferramenta, mas na escolha e na preparação dos dados.

Não se pode fazer um grande negócio de um grande negócio © People's saying

Seria interessante ver como você resolverá o problema de regressão múltipla usando algum classificador binário?

 
Reshetov:


Não se trata de resultados, mas de alguma besteira, como a temperatura média do hospital ajustada à amostra de treinamento.


Resultados são quando, no mínimo, a amostra é dividida em amostras de treinamento e de teste e, no máximo, a validação cruzada é aplicada.

Eu não faço besteira.

Prova.

Os resultados publicados sempre se referem a dados de "treinamento fora da amostra". Isso é feito da seguinte forma no Rattle:

1. o conjunto original é dividido em três partes: 70-15-15%

2. o treinamento é realizado na parte de 70%, que é chamada de treinamento. Há uma nuance muito significativa aqui. Desses 70%, cerca de 2/3 dos dados de treinamento são selecionados aleatoriamente, ou seja, = 70% * 2/3. O treinamento é realizado com esses dados. As informações de desempenho do modelo são obtidas nos 70% * 1/3 restantes dos dados da amostra de treinamento, que, obviamente, também é um conjunto aleatório de linhas. Essa parte é chamada de OOB - out of bag. Ou seja, embora formalmente o mesmo conjunto de dados tenha sido usado para treinamento e avaliação, linhas diferentes foram retiradas dele para treinamento e avaliação.

Depois disso, você pode ir para a guia Avaliar, onde pode usar o modelo treinado nas duas vezes restantes de 15% e compará-lo com o OOB. Se os resultados forem os mesmos, há esperança. Conclui-se que, embora o Rattle seja uma ferramenta para testar ideias, a qualidade desse teste é muito maior do que a do artigo em discussão (que o autor se desculpe).

E, pessoalmente, para sua gentileza: o resultado obtido em meu artigo e neste artigo não é confiável, porque não há prova de supertreinamento (overfitting) do modelo, e os três conjuntos de testes fora da amostra de treinamento listados por mim não são essa prova. Ou seja, precisamos de critérios que sejam satisfeitos pelo conjunto de variáveis iniciais, no sentido de que o modelo que usa esse conjunto de variáveis possa ser testado de acordo com o esquema acima e os resultados desse teste sejam confiáveis.