Discussão do artigo "Aplicando o método de Monte Carlo no aprendizado por reforço" - página 3
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Dê uma olhada nos artigos anteriores de Vladimir (2º ou 3º) em que, em um dos pacotes R, isso foi determinado com a ajuda de andaimes. Levou muito tempo para calcular (muitas vezes mais do que o treinamento do NS principal), seja por excesso de ajuste ou por algum tipo de genética - você deve consultar a documentação do pacote.
O mais provável é que tenha sido otimizado de alguma forma.
Obrigado pelas informações. No entanto, neste artigo, estamos falando de avaliação independente de preditores, e é o método de grupo que interessa.
Obrigado pela informação. No entanto, este artigo trata da estimativa independente de preditores, e é o método de grupo que interessa.
Aqui está sobre a interação das variáveis de entrada https://www.mql5.com/pt/articles/2029
Sim, obrigado, mas ele diz isso sobre a interação do grupo:
Wrapper. Os métodos de wrapper estimam vários modelos usando procedimentos que adicionam e/ou removem preditores para encontrar a melhor combinação que otimiza o desempenho do modelo. Em essência, os métodos de wrapper são algoritmos de pesquisa que tratam os preditores como entradas e usam a eficiência do modelo como saídas a serem otimizadas. Há muitas maneiras de enumerar os preditores (exclusão/adição recursiva, algoritmos genéticos, recozimento simulado e muitos outros).
Ambas as abordagens têm suas vantagens e desvantagens. Os métodos de filtro tendem a ser computacionalmente mais eficientes do que os métodos de invólucro, mas os critérios de seleção não estão diretamente relacionados ao desempenho do modelo. Uma desvantagem do método wrapper é que a estimativa de vários modelos (que pode exigir o ajuste de hiperparâmetros) leva a um aumento drástico no tempo de computação e geralmente resulta em um ajuste excessivo do modelo.
No presente artigo, não consideraremos os métodoswrapper, mas consideraremos novos métodos e abordagens de métodos de filtragem que, em minha opinião, eliminam as desvantagens mencionadas acima.
Neste artigo, não consideraremos os métodos de wrapper, mas consideraremos novos métodos e abordagens de métodos de filtragem que, em minha opinião, eliminam as desvantagens mencionadas acima.
Se você considerar esses artigos como apenas um livro didático sobre redes neurais e sobre R, não há um único sistema robusto neles. Muitas abordagens também podem ser mal interpretadas ou distorcidas; é melhor ler fontes primárias. Já desconsiderei o material de um professor universitário sobre não confiar na importância das florestas: https: //explained.ai/rf-importance/index.html.
Ao mesmo tempo, a descorrelação e a permutação são confiáveis e suficientes para a grande maioria dos casos
Talvez a pergunta não seja minha, mas não aguento mais vê-lo sofrer :)
Considere esses artigos como apenas um livro didático sobre redes neurais e sobre o R. Não há um único sistema robusto neles. Muitas abordagens também podem ser mal interpretadas ou distorcidas; é melhor ler fontes primárias. Eu já mencionei o material sobre a importância de não confiar na impureza do scaffolding: https: //explained.ai/rf-importance/index.html.
Talvez a pergunta não seja minha, mas não posso suportar vê-lo sofrer :)
Esse é o problema, ninguém sabe como está certo - alguém tem uma coisa trabalhando no modelo, e outro tem outra, ou talvez seja tudo aleatório, sob o qual todos estão tentando trazer uma base científica de evidências e justificativas.
Eu mesmo estou lidando com isso e, até agora, não me vem à mente nada como uma enumeração completa de grupos de preditores e avaliação de seus modelos para acelerar o processo. Para mim, a dificuldade talvez esteja em preservar os vínculos de grandes grupos para sua posterior divisão em grupos menores, a fim de acelerar a enumeração - esse problema não é automatizado adequadamente.
1 tempo para se aprofundar e internalizar, porque a permutação é universal para qualquer método MO, não apenas RF, e computacionalmente muito barata
1 vez para entrar e aprender, porque a permutação é universal para qualquer método MO, não apenas para RF, e computacionalmente muito barata
A permutação usual é, obviamente, diferente: dividimos os preditores em 9 grupos, identificamos por algum método os grupos em que o resultado dos modelos médios é pior ou, ao contrário, melhor e, em seguida, criamos novos grupos com uma divisão diferente, por exemplo, dividimos os grupos ruins em subgrupos para encontrar a escória a ser descartada ou para entender por que ela afeta tanto o quadro geral e assim por diante. Dessa forma, podemos identificar os melhores/maus grupos de preditores em termos de interação entre eles. A tarefa é fazer automaticamente uma nova divisão em grupos depois que o modelo tiver sido classificado, levando em conta a experiência adquirida, e treinar novamente. A questão é que a categorização não é aleatória.
É claro que há uma permutação comum, mas aqui é diferente - dividimos os preditores em 9 grupos, identificamos por algum método os grupos em que o resultado dos modelos médios é pior ou, ao contrário, melhor, e depois criamos novos grupos com uma divisão diferente, por exemplo, dividimos os grupos ruins em subgrupos para encontrar a escória a ser descartada ou para entender por que ela afeta tanto o quadro geral, e assim por diante. Dessa forma, podemos identificar os melhores/maus grupos de preditores em termos de interação entre eles. A tarefa é fazer automaticamente uma nova divisão em grupos depois que o modelo tiver sido classificado, levando em conta a experiência adquirida, e treinar novamente. A questão é que a categorização não é aleatória.
Não há interação entre si, como já escrevi acima. O rearranjo de lugares e a alteração do número de importações não mudam. Você pode verificar. Além disso, menos peso significa simplesmente menos contribuição para o modelo, de modo que não é necessário remover os pontos ruins ao usar o modelo, mas é desejável se livrar do ruído desnecessário
não há interação entre si, como já escrevi acima. A reorganização e a alteração do número de importações não mudam. Você pode verificar isso. Além disso, menos peso significa simplesmente menos contribuição para o modelo, de modo que as ruins nem precisam ser removidas ao usar o modelo, mas é desejável se livrar do ruído desnecessário
Tenho uma conclusão diferente.
Eu tenho uma conclusão diferente.
Como você quiser :)
Mas isso é uma coisa trivial. A importância depende da variação da ficha (quase sempre, exceto para modelos muito simples). O Forest não faz nenhuma transformação nas fichas, não as multiplica e divide umas pelas outras etc., mas apenas espalha seus valores pelos nós, de modo que não há interações, apenas separação