Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2052

 
Maxim Dmitrievsky:

É claro que ele não é um idiota. O teste é simples, mas provavelmente está desactualizado.

Se é como na Idiocracia, também vai se tornar complicado))

[Excluído]  
Rorschach:

Se for como na Idiocracia, também será difícil))

Consigo pensar em muitas pessoas que conheço ou concorrentes locais que não vão conseguir

[Excluído]  
Aleksey Vyazmikin:

Se der uma previsão de um bar ou mais, isso não é suficiente para tomar uma decisão, não é muito melhor do que um Mestrado. Enquanto que se está interessado em desvios deste mestrado nocional para ganhos.

até onde você vai, até onde vai.

Estava a brincar com a rnn com o testador esta manhã - está a reeducar-se com os incrementos. No comboio é bom, não no testador é mau.

Não sei para que raio precisas disso se os resultados não são melhores do que na floresta. Em geral, é uma coisa fixe, mas mesmo assim não faz bem nenhum.
[Excluído]  

Rede Neural Porn... Em breve estarei carregando a parte 2 com conclusões, sobre o RNNN (GRU)

ч.2. Teste normal no final do vídeo. Antes disso, não queria treinar como deve ser.


E uma pequena recapitulação de como aproximadamente a mesma coisa funciona com o catbust, onde o resultado é melhor:


 
Maxim Dmitrievsky:

Rede Neural Porn... Em breve estarei carregando a parte 2 com conclusões, sobre o RNNN (GRU)

ч.2. Teste normal no final do vídeo. Antes disso, não queria treinar como deve ser.


E uma pequena recapitulação de como funciona o mesmo com o catbust, onde o resultado é melhor:


Você não usa Numba para aceleração?

[Excluído]  
Rorschach:

Não usas o Numba para acelerar as coisas?

Os laços em si são rápidos sem ele, até agora não preciso dele.

Se possível, a vetorização está em toda parte, tudo é rápido lá.

Z.I. falha óbvia - não se pode ensinar por logloss ou cross-entropy, é necessário parafusar pelo menos uma métrica. Só agora é que percebi isto. Por causa disso, os resultados não são muito bons, muito provavelmente.

O convite veio dos ods? Talvez haja outras formas, terei de perguntar
 
Maxim Dmitrievsky:

os laços em si funcionam rapidamente sem ele, até agora, não há necessidade

se possível, vetorização em todos os lugares, tudo é rápido lá.

Z.I. falha óbvia - você não pode ensinar por logloss ou cross-entropy, você tem que parafusar em uma métrica de precisão, pelo menos. Só agora é que percebi isto. Por causa disso, os resultados não são muito bons, muito provavelmente.

Conseguiste o convite dos ods? Talvez haja outras formas, terei de perguntar

Por vezes, as matrizes numéricas demoram mais tempo a calcular do que as listas de pitões. Também reparei que embrulhar o código numa função provoca uma aceleração.

Ainda não chegou, não sei quando será a minha próxima visita a NS.

[Excluído]  
Rorschach:

Em eu às vezes acho que as matrizes numéricas demoram mais tempo para serem avaliadas do que as listas de pitões. Também reparei que embrulhar o código numa função dá uma aceleração.

Ainda não cheguei lá, não tenho pressa, não sei quando será a próxima corrida em NS.

Isso é esquisito. Provavelmente contando elemento por elemento em vez de vector por vector.

nampai como nos prós deve voar, com uma pequena sobrecarga
 
Maxim Dmitrievsky:

Isso é esquisito. Provavelmente contando elemento por elemento em vez de vector por vector.

Nampai como os prós devem voar, com um pouco de exagero.

Sim, se tiveres de o fazer em loop.

Contei algo como 500 vezes para a numba, mas não é exacto. Você tem que colocar este código em uma função e colocar @njit lá. @vectorize funciona à velocidade @njit, por isso não vale a pena mexer nisso, só se você contar com a gpu. Mas o gpu é ainda mais problemático, os arrays não podem ser declarados dentro da função e o código deve estar livre de loop, caso contrário será muito longo.
[Excluído]  

E foi assim que o catbust foi treinado com os mesmos dados (em 5 segundos)

52: aprender: 0,7964708 teste: 0,7848837 melhor: 0,7860866 (27) total: 604ms restante: 5,09s

Conjunto de dados da fonte:

Modelo treinado (a segunda metade do comércio é a amostra de teste):


Nem sempre, é claro, dependendo da amostragem (e é aleatória, ou seja, precisa de sobreamostragem). Às vezes, assim:

34: aprender: 0,5985972 teste: 0,5915832 melhor: 0,5927856 (9) total: 437ms restantes: 5,81s