Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 4

Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
NS fez muito bem.
A Random Forest não poderia lidar com tal tarefa, onde a interação de um conjunto de variáveis. E o significado individual de cada preditor foi intencionalmente zero.
Não vejo nenhuma prova de que a NS tenha lidado com nada.
O excesso de aprendizagem é um mal mundial na ciência e na construção de modelos, em particular.
Portanto, um erro é necessário para três conjuntos:
Os dois últimos conjuntos são desembaciados quando chegam ao terminal, as bases atrás da barra.
Deve haver aproximadamente o mesmo erro em todos os três conjuntos. Ao mesmo tempo, você tem que consertar o conjunto de preditores que você toma ao treinar o modelo.
A Random Forest não poderia lidar com tal problema, onde a interação de um conjunto de variáveis. E o significado individual de cada preditor foi intencionalmente zero.
A sua ideia de contabilizar a interacção entre os preditores é uma revolução nas estatísticas. Até agora, eu pensava que a interacção entre os preditores era má. Não só os próprios preditores geralmente não são estacionários, como também estamos tentando explicar as relações entre esses processos aleatórios não-estacionários.
Na aprendizagem mecânica, é considerado obrigatório livrar-se das variáveis que interagem. Além disso, estão disponíveis algoritmos muito eficazes como, por exemplo, o método dos componentes principais que permite livrar-se da interacção e converter um conjunto de preditores em um conjunto de preditores independentes.
Não vejo nenhuma prova de que a NS tenha lidado com alguma coisa.
O excesso de aprendizagem é um mal mundial na ciência e na construção de modelos, em particular.
Portanto, é necessário um erro para três conjuntos:
Os dois últimos conjuntos são desembaciados quando chegam ao terminal, as bases atrás da barra.
Deve haver aproximadamente o mesmo erro em todos os três conjuntos. Dito isto, você terá que consertar o conjunto de preditores que você toma ao treinar o modelo.
Vamos pôr as coisas assim. Apesar de que isto não faz parte da missão. Vou apresentar uma amostra de validação sobre a qual executar o modelo treinado e medir a precisão da previsão da saída.
Mas mais uma vez, isto não é necessário. Note que escrevi a validação novamente com base no padrão inferido.
Um padrão incorporado nos dados:
Não vejo nenhuma prova de que a NS tenha lidado com algo.
O Neuronka resolveu este problema, registo de ataque com o código do Rattle. Há algumas alterações no código ao chamar o neurônio - Aumentei o número máximo de iterações, e removi as conexões, que vão da saída da entrada diretamente para a saída, contornando a camada intermediária (skip=TRUE). Porque estas duas limitações estragam tudo.
Eu fiz a validação no novo arquivo, os erros em ambos os casos são quase 0% (há apenas um erro ao validar a partir do segundo arquivo).
Mas como a NS é como uma caixa preta, não há como saber a lógica da solução. Você pode olhar para os pesos, determinar o valor médio absoluto para cada entrada, e desenhar um diagrama. E saberemos que 1, 3, 5, 7, 9, 11 são mais importantes do que os outros. No entanto, os restantes inputs também são utilizados por alguma razão; os pesos zero não são encontrados em nenhum lugar. Em outras palavras, acontece que a aprendizagem ocorre no início, e então podemos determinar os inputs importantes.
O Neuronka resolveu este problema, registo de ataque com o código do Rattle. Há algumas alterações no código ao chamar o neurônio - aumentei o número máximo de iterações e removi as conexões que vão direto da entrada para a saída, contornando a camada do meio (skip=TRUE). Porque estas duas limitações estragam tudo.
Eu fiz a validação no novo arquivo, os erros em ambos os casos são quase 0% (há apenas um erro ao validar a partir do segundo arquivo).
Mas como a NS é como uma caixa preta, não há como saber a lógica da solução. Você pode olhar para os pesos, determinar o valor médio absoluto para cada entrada, e desenhar um diagrama. E saberemos que 1, 3, 5, 7, 9, 11 são mais importantes do que os outros. No entanto, os restantes inputs também são utilizados por alguma razão; os pesos zero não são encontrados em nenhum lugar. Em outras palavras, é o contrário - primeiro aprendemos, e depois identificamos os inputs importantes.
Não vejo nenhuma prova de que a NS tenha lidado com alguma coisa.
O excesso de aprendizagem é um mal mundial na ciência e na construção de modelos, em particular.
Portanto, é necessário um erro para três conjuntos:
Os dois últimos conjuntos são desembaciados quando chegam ao terminal, as bases atrás da barra.
Deve haver aproximadamente o mesmo erro em todos os três conjuntos. Ao fazer isso, você terá que consertar o conjunto de preditores que você toma ao treinar o modelo.
O óbvio precisa de ser provado? Durante o treinamento, os pesos das entradas com dados contraditórios diminuíram, ou seja, podemos dizer que a entrada de dados contraditórios está bloqueada.
Não há problema de reciclagem neste caso, pois a rede treinada não é utilizada para qualquer outro fim.
A questão é se tal método vale a pena. Não é uma artilharia um pouco pesada?
Se tal método é apropriado é a questão. A artilharia não é um pouco pesada?
Podes tentar de outra maneira. Mas eu acho que o remédio se encaixa no problema.
Ele faz o trabalho, e fá-lo bem. Mas pergunto-me sempre se haverá algo mais eficaz e mais simples.