Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2493
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Leia a documentação do TensorFlow, tudo está em forma de construtor... praticamente. Realmente são caixas pretas. Se estiver interessado, posso dar-lhe o código do perceptron escrito à mão, e pela forma como é tudo cálculo matricial, é sobre isso que está construído
Acabei de voltar ao post de Evgeny Dyuka e seu ServerNNN (leia o código) no TensorFlow
porque me deparei com uma espécie de crítica às bibliotecas Python sobre o passatempo
Na pilha de sklearn, os pacotes xgboost, lightGBM tinham métodos incorporados para estimar a importância das características para "modelos de madeira":
1.Ganho
Esta medida mostra a contribuição relativa de cada característica para o modelo. Para calcular isto, vamos a cada nó de árvore, vemos qual característica leva a uma divisão do nó, e quanto a incerteza do modelo é reduzida de acordo com a métrica (impureza de Gini, ganho de informação).
Para cada característica, a sua contribuição é somada sobre todas as árvores.
2.Cover
Mostra o número de observações para cada característica. Digamos que você tem 4 características, 3 árvores. Suponha que fich 1 em nós contenha 10, 5, e 2 observações nas árvores 1, 2, e 3 respectivamente. Então a importância da fich seria 17 (10 + 5 + 2).
3.Frequency
Mostra com que frequência uma determinada característica ocorre em nós de árvore, ou seja, conta o número total de divisões de árvore para cada característica em cada árvore.
O principal problema com todas essas abordagens é que não está claro exatamente como uma determinada característica afeta a previsão do modelo. Por exemplo, aprendemos que o nível de renda é importante para avaliar a capacidade de um cliente bancário de pagar por um empréstimo. Mas como exatamente? Quanto é que o modelo de rendimento mais elevado muda as previsões?
Eu gostaria de evitar "modelos de madeira" aqui, porque eles comem muita RAM (e eu sou um fã de velocidade e compacidade)...
- de qualquer forma, a resposta à sua pergunta é CONVENIENTE, INTERESSADO... sim, foi o que pensei, Redes Neurais é tudo cálculo matricial (é por isso que eu estava perguntando sobre isso e bibliotecas para isso)
p.s.
não entendo, se as bibliotecas que estão na citação não conseguem prever coeficientes polinomiais (resposta: por quanto), então como podem descrever um modelo dinâmico? (não linear, não regressão [que é a mesma coisa])... é por isso que até agora eu me perguntei sobre fazer um modelo (tentando lembrar a diferenciação... com dificuldade)
Acabei de voltar a um posto de Evgeny Dyuka.
porque me deparei com algum tipo de crítica às bibliotecas Python sobre o passatempo
Na pilha de sklearn, os pacotes xgboost, lightGBM tinham métodos incorporados para estimar a importância dos recursos para "modelos de madeira":
Esta medida mostra a contribuição relativa de cada característica para o modelo. Para calcular isto, vamos a cada nó de árvore, vemos qual característica leva a uma divisão do nó, e quanto a incerteza do modelo é reduzida de acordo com a métrica (impureza Gini, ganho de informação).
Para cada característica, a sua contribuição é somada sobre todas as árvores.
Mostra o número de observações para cada característica. Por exemplo, você tem 4 características, 3 árvores. Suponha que a ficha 1 em nós contenha 10, 5 e 2 observações nas árvores 1, 2 e 3 respectivamente. Então a importância para esta ficha é de 17 (10 + 5 + 2).
Mostra com que frequência uma determinada característica ocorre nos nós das árvores, ou seja, conta o número total de partições de aceno de árvore para cada característica em cada árvore.
O principal problema com todas essas abordagens é que não está claro exatamente como uma determinada característica afeta a previsão do modelo. Por exemplo, aprendemos que o nível de renda é importante para avaliar a capacidade de um cliente bancário de pagar por um empréstimo. Mas como exatamente? Quanto é que o modelo de rendimento mais elevado muda as previsões?
Para o meu gosto Python é criticado por aqueles que não sabem cozinhá-lo. Todas as outras coisas são mais fáceis de não fazer com soluções prontas e escrevê-las usando bibliotecas, e a propósito, usando, por exemplo, numpy você provavelmente terá mais velocidade do que C++ como é escrito em Fortran. Quanto mais agora o Python é facilmente integrado com o MT5, por assim dizer em linha reta, ele permite usar IA sem nenhum servidor com soquetes.
Acabei de voltar a um posto de Evgeny Dyuka.
porque me deparei com algum tipo de crítica às bibliotecas Python sobre o passatempo
Na pilha de sklearn, os pacotes xgboost, lightGBM tinham métodos incorporados para estimar a importância dos recursos para "modelos de madeira":
Esta medida mostra a contribuição relativa de cada característica para o modelo. Para calcular isto, vamos a cada nó de árvore, vemos qual característica leva a uma divisão do nó, e quanto a incerteza do modelo é reduzida de acordo com a métrica (impureza Gini, ganho de informação).
Para cada característica, a sua contribuição é somada sobre todas as árvores.
Mostra o número de observações para cada característica. Por exemplo, você tem 4 características, 3 árvores. Suponha que a ficha 1 em nós contenha 10, 5 e 2 observações nas árvores 1, 2 e 3 respectivamente. Então a importância para esta ficha é de 17 (10 + 5 + 2).
Mostra com que frequência uma determinada característica ocorre nos nós das árvores, ou seja, conta o número total de partições de aceno de árvore para cada característica em cada árvore.
O principal problema com todas essas abordagens é que não está claro exatamente como uma determinada característica afeta a previsão do modelo. Por exemplo, aprendemos que o nível de renda é importante para avaliar a capacidade de um cliente bancário de pagar por um empréstimo. Mas como exatamente? Quanto é que o modelo de rendimento mais elevado muda as previsões?
Todos estes métodos são inapropriados. Aqui está sua validação
Árvores e florestas são rápidas de contar - você também pode simplesmente adicionar/remover recursos um por um. E encontrar aqueles que melhoram e aqueles que pioram o resultado.
Quanto aos modelos, não se trata deles, mas sim do facto de a IA ser essencialmente uma aproximação e essa é a sua força em todos os outros casos excepto no mercado, pois há demasiados peixes e gozils debaixo do mar liso que provocam ondas de preços. Embora o postulado de que tudo está embutido no preço seja verdade, há muito disso. A rede neural só pode ser uma pequena parte de algum sistema, e quem discorda disso está envolvido em auto-ilusão.
E quem chama os aproximadores da IA o que eles fazem? )
Bem, eu provavelmente estava errado em chamar-lhe IA, pois eu quis dizer apenas uma rede neural, que é um caso especial de IA. Estou empenhado da mesma forma que todos, procurando o Graal, fazendo-o facultativamente, sem fanatismo). Suda veio em busca de idéias sobre modelos (exatamente no sentido de uma rede neural), há algo para compartilhar comigo mesmo. 20 anos de experiência certamente não estão disponíveis, mas para uma centena de variantes do NS que eu já passei. A eficiência máxima a curtas distâncias que alcancei é de cerca de 68%, mas você provavelmente entende que não é estável e situacional.
Sim, claro que entendo...
Eu não me importo com o código, se a pessoa for boa). A propósito, li o artigo de Mihail Marchukajtes. Também uso algumas idéias que foram aplicadas ali, mas as minhas razões foram completamente diferentes das do autor. Seria interessante discutir quais as variantes de modelos com que camadas são mais eficazes. Mikhail, a julgar por evidências indiretas, parece usar camadas de ligação seqüencial().
Ele não usa neurónios de todo, ele usa um programa medíocre de autor pronto (é um híbrido de SVM e MGUA), ele não programa em Python ou código R, então a palavra Sequental() é desconhecida para ele, 20 anos de experiência em redes neurais, ainda é cedo para se envolver...