Discussão do artigo "Aplicando o método de Monte Carlo no aprendizado por reforço" - página 3

 
elibrarius:

Dê uma olhada nos artigos anteriores de Vladimir (2º ou 3º) em que, em um dos pacotes R, isso foi determinado com a ajuda de andaimes. Levou muito tempo para calcular (muitas vezes mais do que o treinamento do NS principal), seja por excesso de ajuste ou por algum tipo de genética - você deve consultar a documentação do pacote.
O mais provável é que tenha sido otimizado de alguma forma.

Obrigado pelas informações. No entanto, neste artigo, estamos falando de avaliação independente de preditores, e é o método de grupo que interessa.

 
Aleksey Vyazmikin:

Obrigado pela informação. No entanto, este artigo trata da estimativa independente de preditores, e é o método de grupo que interessa.

Aqui sobre a interação das variáveis de entrada https://www.mql5.com/pt/articles/2029
Оценка и выбор переменных для моделей машинного обучения
Оценка и выбор переменных для моделей машинного обучения
  • www.mql5.com
В статье будут рассмотрены особенности выбора, предподготовки и оценки входных переменных для использования в моделях машинного обучения. Будут рассмотрены множественные методы нормализации и их особенности. Будут указаны важные моменты этого процесса, сильно влияющие на конечный результат обучения моделей. Рассмотрим и оценим новые и...
 
elibrarius:
Aqui está sobre a interação das variáveis de entrada https://www.mql5.com/pt/articles/2029

Sim, obrigado, mas ele diz isso sobre a interação do grupo:

  • Wrapper. Os métodos de wrapper estimam vários modelos usando procedimentos que adicionam e/ou removem preditores para encontrar a melhor combinação que otimiza o desempenho do modelo. Em essência, os métodos de wrapper são algoritmos de pesquisa que tratam os preditores como entradas e usam a eficiência do modelo como saídas a serem otimizadas. Há muitas maneiras de enumerar os preditores (exclusão/adição recursiva, algoritmos genéticos, recozimento simulado e muitos outros).

Ambas as abordagens têm suas vantagens e desvantagens. Os métodos de filtro tendem a ser computacionalmente mais eficientes do que os métodos de invólucro, mas os critérios de seleção não estão diretamente relacionados ao desempenho do modelo. Uma desvantagem do método wrapper é que a estimativa de vários modelos (que pode exigir o ajuste de hiperparâmetros) leva a um aumento drástico no tempo de computação e geralmente resulta em um ajuste excessivo do modelo.

No presente artigo, não consideraremos os métodoswrapper, mas consideraremos novos métodos e abordagens de métodos de filtragem que, em minha opinião, eliminam as desvantagens mencionadas acima.


[Excluído]  
Aleksey Vyazmikin:

Neste artigo, não consideraremos os métodos de wrapper, mas consideraremos novos métodos e abordagens de métodos de filtragem que, em minha opinião, eliminam as desvantagens mencionadas acima.


Se você considerar esses artigos como apenas um livro didático sobre redes neurais e sobre R, não há um único sistema robusto neles. Muitas abordagens também podem ser mal interpretadas ou distorcidas; é melhor ler fontes primárias. Já desconsiderei o material de um professor universitário sobre não confiar na importância das florestas: https: //explained.ai/rf-importance/index.html.

Ao mesmo tempo, a descorrelação e a permutação são confiáveis e suficientes para a grande maioria dos casos

Talvez a pergunta não seja minha, mas não aguento mais vê-lo sofrer :)

Beware Default Random Forest Importances
Beware Default Random Forest Importances
  • explained.ai
0.995 worst radius 0.995 mean perimeter 0.994 mean area 0.984 worst perimeter 0.983 worst area 0.978 radius error 0.953 mean concave points 0.944 mean concavity 0.936 worst concave points 0.927 mean compactness 0.916 worst concavity 0.901 perimeter error 0.898 worst compactness 0.894 worst texture 0.889 compactness...
 
Maxim Dmitrievsky:

Considere esses artigos como apenas um livro didático sobre redes neurais e sobre o R. Não há um único sistema robusto neles. Muitas abordagens também podem ser mal interpretadas ou distorcidas; é melhor ler fontes primárias. Eu já mencionei o material sobre a importância de não confiar na impureza do scaffolding: https: //explained.ai/rf-importance/index.html.

Talvez a pergunta não seja minha, mas não posso suportar vê-lo sofrer :)

Esse é o problema, ninguém sabe como está certo - alguém tem uma coisa trabalhando no modelo, e outro tem outra, ou talvez seja tudo aleatório, sob o qual todos estão tentando trazer uma base científica de evidências e justificativas.

Eu mesmo estou lidando com isso e, até agora, não me vem à mente nada como uma enumeração completa de grupos de preditores e avaliação de seus modelos para acelerar o processo. Para mim, a dificuldade talvez esteja em preservar os vínculos de grandes grupos para sua posterior divisão em grupos menores, a fim de acelerar a enumeração - esse problema não é automatizado adequadamente.

[Excluído]  
Aleksey Vyazmikin:

1 tempo para se aprofundar e internalizar, porque a permutação é universal para qualquer método MO, não apenas RF, e computacionalmente muito barata

 
Maxim Dmitrievsky:

1 vez para entrar e aprender, porque a permutação é universal para qualquer método MO, não apenas para RF, e computacionalmente muito barata

A permutação usual é, obviamente, diferente: dividimos os preditores em 9 grupos, identificamos por algum método os grupos em que o resultado dos modelos médios é pior ou, ao contrário, melhor e, em seguida, criamos novos grupos com uma divisão diferente, por exemplo, dividimos os grupos ruins em subgrupos para encontrar a escória a ser descartada ou para entender por que ela afeta tanto o quadro geral e assim por diante. Dessa forma, podemos identificar os melhores/maus grupos de preditores em termos de interação entre eles. A tarefa é fazer automaticamente uma nova divisão em grupos depois que o modelo tiver sido classificado, levando em conta a experiência adquirida, e treinar novamente. A questão é que a categorização não é aleatória.

[Excluído]  
Aleksey Vyazmikin:

É claro que há uma permutação comum, mas aqui é diferente - dividimos os preditores em 9 grupos, identificamos por algum método os grupos em que o resultado dos modelos médios é pior ou, ao contrário, melhor, e depois criamos novos grupos com uma divisão diferente, por exemplo, dividimos os grupos ruins em subgrupos para encontrar a escória a ser descartada ou para entender por que ela afeta tanto o quadro geral, e assim por diante. Dessa forma, podemos identificar os melhores/maus grupos de preditores em termos de interação entre eles. A tarefa é fazer automaticamente uma nova divisão em grupos depois que o modelo tiver sido classificado, levando em conta a experiência adquirida, e treinar novamente. A questão é que a categorização não é aleatória.

Não há interação entre si, como já escrevi acima. O rearranjo de lugares e a alteração do número de importações não mudam. Você pode verificar. Além disso, menos peso significa simplesmente menos contribuição para o modelo, de modo que não é necessário remover os pontos ruins ao usar o modelo, mas é desejável se livrar do ruído desnecessário

 
Maxim Dmitrievsky:

não há interação entre si, como já escrevi acima. A reorganização e a alteração do número de importações não mudam. Você pode verificar isso. Além disso, menos peso significa simplesmente menos contribuição para o modelo, de modo que as ruins nem precisam ser removidas ao usar o modelo, mas é desejável se livrar do ruído desnecessário

Tenho uma conclusão diferente.

[Excluído]  
Aleksey Vyazmikin:

Eu tenho uma conclusão diferente.

Como você quiser :)

Mas isso é uma coisa trivial. A importância depende da variação da ficha (quase sempre, exceto para modelos muito simples). O Forest não faz nenhuma transformação nas fichas, não as multiplica e divide umas pelas outras etc., mas apenas espalha seus valores pelos nós, de modo que não há interações, apenas separação