Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2052
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
É claro que ele não é um idiota. O teste é simples, mas provavelmente está desactualizado.
Se é como na Idiocracia, também vai se tornar complicado))
Se for como na Idiocracia, também será difícil))
Consigo pensar em muitas pessoas que conheço ou concorrentes locais que não vão conseguir
Se der uma previsão de um bar ou mais, isso não é suficiente para tomar uma decisão, não é muito melhor do que um Mestrado. Enquanto que se está interessado em desvios deste mestrado nocional para ganhos.
até onde você vai, até onde vai.
Estava a brincar com a rnn com o testador esta manhã - está a reeducar-se com os incrementos. No comboio é bom, não no testador é mau.
Não sei para que raio precisas disso se os resultados não são melhores do que na floresta. Em geral, é uma coisa fixe, mas mesmo assim não faz bem nenhum.Rede Neural Porn... Em breve estarei carregando a parte 2 com conclusões, sobre o RNNN (GRU)
ч.2. Teste normal no final do vídeo. Antes disso, não queria treinar como deve ser.
E uma pequena recapitulação de como aproximadamente a mesma coisa funciona com o catbust, onde o resultado é melhor:
Rede Neural Porn... Em breve estarei carregando a parte 2 com conclusões, sobre o RNNN (GRU)
ч.2. Teste normal no final do vídeo. Antes disso, não queria treinar como deve ser.
E uma pequena recapitulação de como funciona o mesmo com o catbust, onde o resultado é melhor:
Você não usa Numba para aceleração?
Não usas o Numba para acelerar as coisas?
Os laços em si são rápidos sem ele, até agora não preciso dele.
Se possível, a vetorização está em toda parte, tudo é rápido lá.
Z.I. falha óbvia - não se pode ensinar por logloss ou cross-entropy, é necessário parafusar pelo menos uma métrica. Só agora é que percebi isto. Por causa disso, os resultados não são muito bons, muito provavelmente.
O convite veio dos ods? Talvez haja outras formas, terei de perguntaros laços em si funcionam rapidamente sem ele, até agora, não há necessidade
se possível, vetorização em todos os lugares, tudo é rápido lá.
Z.I. falha óbvia - você não pode ensinar por logloss ou cross-entropy, você tem que parafusar em uma métrica de precisão, pelo menos. Só agora é que percebi isto. Por causa disso, os resultados não são muito bons, muito provavelmente.
Conseguiste o convite dos ods? Talvez haja outras formas, terei de perguntarPor vezes, as matrizes numéricas demoram mais tempo a calcular do que as listas de pitões. Também reparei que embrulhar o código numa função provoca uma aceleração.
Ainda não chegou, não sei quando será a minha próxima visita a NS.
Em eu às vezes acho que as matrizes numéricas demoram mais tempo para serem avaliadas do que as listas de pitões. Também reparei que embrulhar o código numa função dá uma aceleração.
Ainda não cheguei lá, não tenho pressa, não sei quando será a próxima corrida em NS.
Isso é esquisito. Provavelmente contando elemento por elemento em vez de vector por vector.
nampai como nos prós deve voar, com uma pequena sobrecargaIsso é esquisito. Provavelmente contando elemento por elemento em vez de vector por vector.
Nampai como os prós devem voar, com um pouco de exagero.
Sim, se tiveres de o fazer em loop.
Contei algo como 500 vezes para a numba, mas não é exacto. Você tem que colocar este código em uma função e colocar @njit lá. @vectorize funciona à velocidade @njit, por isso não vale a pena mexer nisso, só se você contar com a gpu. Mas o gpu é ainda mais problemático, os arrays não podem ser declarados dentro da função e o código deve estar livre de loop, caso contrário será muito longo.E foi assim que o catbust foi treinado com os mesmos dados (em 5 segundos)
52: aprender: 0,7964708 teste: 0,7848837 melhor: 0,7860866 (27) total: 604ms restante: 5,09s
Conjunto de dados da fonte:
Modelo treinado (a segunda metade do comércio é a amostra de teste):
Nem sempre, é claro, dependendo da amostragem (e é aleatória, ou seja, precisa de sobreamostragem). Às vezes, assim:
34: aprender: 0,5985972 teste: 0,5915832 melhor: 0,5927856 (9) total: 437ms restantes: 5,81s