Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2808
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Seu script está em execução há mais de um dia e ainda não criou um único arquivo com base nos resultados da triagem. Não sei, talvez seja hora de desligá-lo?
Depende do zhekez e do tamanho da amostra. Se o seu processador tiver vários núcleos, paralelize a execução. Abaixo está uma variante da execução paralela
Quatro vezes mais rápida que a serial. Hardware e software
Boa sorte
está tudo lá. A velocidade será afetada de forma catastrófica. Os dataframes são os animais mais lentos com grande sobrecarga.
Não se trata de placas de vídeo, mas de entender que essas coisas não contam com dataframes em um estado sóbrio.
O que se entende por "dataframes" - explique aos ignorantes nessa linguagem.
Dica: é necessário usar vetores de 100.000 observações para ver a correlação entre eles?
Estou procurando vetores altamente correlacionados, ou seja, com correlação maior que 0,9.Não sei se isso é necessário ou não - você deve experimentar. A amostra não é estacionária - em metade da amostra não havia correlação e, em seguida, houve um "bang", e então ela apareceu.
Além disso, experimentei todos os coeficientes em etapas de 0,1.
De nada.
Esse é o grito da alma?
Depende do zhekez e do tamanho da amostra. Se o processador tiver vários núcleos, paralelize a execução. Abaixo está uma variante da execução paralela
Ela é 4 vezes mais rápida do que a execução em série. Hardware e software
Boa sorte
Então o paralelismo não aumentará o consumo de RAM?
Embora o código mytarmailS consuma mais RAM, ele é 50 vezes mais rápido, talvez haja algumas limitações nas bibliotecas que você usa - o script funcionou por mais de 30 horas e não criou um único arquivo.
Obrigado por alguns exemplos de código complicados - no R, sou apenas um consumidor, não consigo descobrir o que corrigir no script principal.
Você quer dizer que, para cada tipo de dados, deve haver um método para calcular a corr?
A matriz é um tipo de dados incorporado ao R, que tem algo como o vetor matrix.corr().
O que significa "dataframes" - explique aos ignorantes dessa linguagem.
Foi mais uma mensagem para os escritores do R :) essas são tabelas para exibição conveniente de dados e algumas manipulações típicas com eles, como extração de subamostras (como no sql).
Elas não foram projetadas para serem executadas em loops com dados tão grandes como os que você tem, pois serão 20 a 100 vezes mais lentas do que as matrizes. Por memória, você já entendeu por si mesmo.
Acho que está tudo bem aqui:
Não sei qual é a velocidade do tipo incorporado "matrix", mas ele usa caret, o que também pode ser mais lento. O tipo incorporado não tem operação vetorial para calcular a correlação ou algo do gênero.
De onde vêm esses pensamentos?
por que você desacelera um tipo embutido com o lobo esquerdo, que deve ter seu próprio cálculo de corr, o mais rápido possível para ele
Por que você reduz a velocidade de um tipo incorporado que deveria ter seu próprio cálculo de Korr, que é o mais rápido possível para ele?
A biblioteca não leva em conta o tipo? O tipo de dados é como dados para os cálculos mais baratos. A mesma matriz deve ser projetada para cálculos.
Como ficar mais inteligente no futuro sem ficar mais estúpido no passado? Algoritmicamente... sem criar terabytes de conhecimento.
Não é possível.