Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2475

 
Evgeniy Ilin # :

Para conseguir isso em uma rede neural, o tipo de neurônios deve ser o mais diferente possível, e o número de camadas e sua composição também deve ser arbitrária, então isso é possível.

sim, a fim de aproximar parâmetros independentes uns dos outros numa tentativa de reduzi-los a 1 saída - é realmente necessário pesar dados históricos estatisticamente profundos até ao momento actual - ou seja, ter uma amostra representativa (quanto maior - maior a probabilidade de atingir o alvo)... processá-los (pesar) numa caixa negra... mas tudo isto são estatísticas, e pode estar muito longe mesmo da fase económica actual... -obter apenasuma média com uma grande variação (e um coeficiente de variação também)

parecemos ter passado por um ciclo económico completo durante 30 anos - é melhor aprender os sinais para o momento actual a partir de uma fase semelhante de desenvolvimento económico (por isso suponho) - para reduzir a amostra de dados iniciais ()... mas pessoalmente não tenho esses dados (necessários para eu acreditar na validade de uma análise significativa durante um período tão longo) ....

Evgeniy Ilin # :

Todos usam principalmente uma rede neural de arquitetura fixa, mas por alguma razão não entendem que a arquitetura também deve ser flexível, ao destruir essa flexibilidade destruímos a própria possibilidade de minimizar a reciclagem. Em geral o mesmo critério pode, naturalmente, ser aplicado a modelos simples, mesmo que seja necessário, então você terá um bom avanço, meu modelo dá um par de meses de lucro à frente e as configurações podem ser atualizadas em um dia. Um dos truques básicos é tomar o máximo de dados possível(10 anos de história ou mais), neste caso estamos à procura de padrões globais, e eles são baseados na física do próprio mercado e, na maioria dos casos, funcionam durante muito tempo.

não é um truque, é uma tentativa de fugir da realidade... imho

(é possível obter um avanço normal - com menos custo - lógico - para obter um avanço normal - sem analisar os huskies e os disparates para o momento actual - mesmo que tudo seja aprendido apenas por comparação, e na caixa negra também, mas ainda assim, primeiro usaria o seu cérebro, e depois, mesmo não tão profundo de aprendizagem da máquina, mas apenas em relação a parte do momento actual por sinais importantes na situação actual do mercado) - e depois faltam todos os dados necessários da história...

Ainda assim, uma compreensão do Ecossistema e uma base de conhecimento da troca de matéria e energia nele contida, combinada com a consciência oportuna das novidades/eventos que o impulsionam, é uma forma de perceber a Evolução sem carregar tal energia de PC apenas por causa da média e da variância... imho

Mas obrigado pelas suas observações... mas para mim a necessidade de um aprendizado tão profundo é discutível (embora eu ache que para a caixa preta seja indiscutível)

 
mytarmailS #:


Minha visão, claro, não é uma referência, estou falando principalmente de um ponto de vista de economia de tempo, só porque falei com muitas pessoas e acho que não é segredo que vamos ler este fórum em 5 anos e provavelmente rir de nós mesmos, eu só acho que todos os desenvolvimentos não estão vazios e você deveria tentar escalar o que você tem. Muitas vezes quis estragar tudo, mas por alguma razão não o fiz, apesar de não trazer dinheiro. Parece-me que esta experiência é valiosa, e cada um tem o seu valor, mas tudo o que podemos fazer é seguir em frente ou ir a um pub e embebedarmo-nos. Parece-me que precisamos apenas de escalar e intensificar aquilo de que temos o início, e parece-me que é provavelmente muito simples. Quanto mais eu complico as coisas e quanto mais eu quero colocar alguma matemática estranha lá, menos previsível é. Para ser honesto, acho que todos os que passaram anos nisso entendem que não vão receber 100% por mês, e aqueles que não passaram esse tempo vão olhar para seus 100 por ano e comprar um sinal com 100 por mês, mesmo sem prestar atenção ao fato de que ele fica pendurado por 2 meses.

 
JeeyCi #:

sim, a fim de aproximar parâmetros independentes uns dos outros numa tentativa de trazê-los para 1 saída - é realmente necessário pesar dados históricos estatisticamente profundos até o momento atual - ou seja, para ter uma amostra representativa (quanto maior - maior a probabilidade de atingir o alvo)... para processá-los (pesar) em uma caixa preta... mas tudo isso são estatísticas, e pode estar longe mesmo da fase econômica atual... -obter apenasuma média com uma grande variação (e um coeficiente de variação também)

parecemos ter passado por um ciclo económico completo durante 30 anos - é melhor aprender os sinais para o momento actual a partir de uma fase semelhante de desenvolvimento económico (por isso suponho) - a fim de reduzir a amostra de dados iniciais ()... mas pessoalmente não tenho esses dados (necessários para eu acreditar na validade de uma análise significativa durante um período tão longo)....

não é um truque, é uma tentativa de fugir da realidade... imho

(é possível obter um avanço normal - com menos custo - lógico - sem analisar a rouquidão e a falta de significado para o momento atual - mesmo que tudo seja conhecido apenas por comparação, e na caixa preta também, mas ainda assim eu ligaria meu cérebro primeiro, e depois até mesmo não tão profundo aprendizado da máquina, mas apenas em relação a parte do momento atual por sinais importantes na situação atual do mercado) - e depois faltam todos os dados necessários da história...

Ainda assim, uma compreensão do Ecossistema e uma base de conhecimento da troca de matéria e energia nele contida, combinada com a consciência oportuna das novidades/eventos que o impulsionam, é uma forma de perceber a Evolução sem carregar tal energia de PC apenas por causa da média e da variância... imho

Mas obrigado pelas suas observações... Mas para mim a necessidade de um aprendizado tão profundo é discutível (embora eu ache que para uma caixa preta seja inegável))

A variância e outros desvios são o resultado natural da análise de um sistema baseado em probabilidades mas não em equações diferenciais, tudo que você pode obter é um sistema de equações diferenciais, as variáveis nas quais estão as "probabilidades de certos eventos" de atenção, aqueles eventos que parecem importantes para você, e tudo que você pode prever é a probabilidade mas não o valor exato. Uma vez que você entende isso, as coisas ficam mais fáceis e você não terá medo de variações ou outras coisas. Você sempre terá a variância, sua tarefa é apenas minimizá-la. Você não pode prever o comportamento a longo prazo do sistema com 100% de precisão, mas você pode atingir certos números, que é o suficiente para uma negociação lucrativa. Não faça o trabalho da máquina, dê-lhe alguma liberdade e verá que ela sabe melhor do que você de que dados precisa. A propósito, quanto mais preta a caixa negra, mais inteligente ela é. A IA é construída exactamente com base nesse princípio.

 
Evgeniy Ilin #:

. Meu ponto é, não faça o trabalho da máquina por ela, dê-lhe liberdade e você verá que ela sabe melhor do que você que dados ela precisa. Por falar na caixa negra, quanto mais negra a caixa, mais inteligente ela é. A IA é construída com base nesse princípio.

- Bem, vejo que quanto mais dados de entrada (e características a seleccionar), mais precisa é a estimativa aproximada e até a previsão baseada nela (embora ainda com uma probabilidade de erro)...

Depois dos seus posts, a área de responsabilidade do desenvolvedor torna-se um pouco mais clara,

Evgeniy Ilin #:

A variância e outros desvios são o resultado natural da análise de um sistema baseado em probabilidades mas não em equações diferenciais, tudo o que você pode obter é um sistema de equações diferenciais, as variáveis nas quais estão as "probabilidades de certos eventos" de atenção, aqueles eventos que lhe parecem importantes, e tudo o que você pode prever é a probabilidade mas não o valor exato.

Algoritmo para encontrar derivados usando Newtons Forward Difference Formula

Evgeniy Ilin # :

. Você sempre terá desvios, sua tarefa é apenas minimizá-los.

sim, havia uma imagem algures no link que deixei anteriormente ~ convergência de previsão e erro até ao fundo da parábola (isto é para evitar o sobretreinamento e parar no tempo) - A evolução vai em espiral até este ponto (por isso acho que com aceleração decrescente, até parar completamente - até a variação de maior para menor, como a queda de um funil)

p.s.

Eu codifiquei uma vez usando Calculate Implied Volatility with VBA- Implied Volatility with Newton-Raphson Iteration - não consegui encontrar nenhum sinal... E compreensivelmente (como os buracos negros não funcionam em moeda, já que nem tudo é tão distribuído lá como se gostaria de sonhar)

... Para ser honesto, eu não estou nada familiarizado com Newton - se ele inventou tantas coisas diferentes(?), ou se isto (o seu avanço e a minha Volatilidade Implícita) é da mesma linha e perspectiva e é um e o mesmo cálculo... ?... Eu não quero perder meu tempo em algo em que eu não acredito - Eu não acredito em modelagem financeira

Algorithm To Find Derivatives Using Newtons Forward Difference Formula
  • www.codesansar.com
Following steps are required inorder to find derivatives using forward difference formula:
 

mas ainda há a questão de escolher uma função alvo... - também é responsabilidade de um desenvolvedor... - o que você aconselha?

(embora sim, você usou a diferença de avanço)

p.s.

sobre os graus de liberdade - Eu vou olhar novamente

 

acreditar na Procura - Oferta... no modelo spider-web (foco em elasticidade eWalrasian) - em equilíbrio-desbalanceamento - para determinar a direção... (por probabilidade de sair de um apartamento para uma tendência) - apenas OI e gestão de tempo (incluindo que nem sempre se pode ser guiado pelo Walras)...

pelo facto - o vidro (níveis de análise ou oops - popping iceberg) - embora, claro, seja melhor não analisar, mas passar calmamente, quando alguém já analisou o nível e o NO-opposite existe (melhor com testes após a avaria - também visível no vidro, e na fita adesiva)

 
JeeyCi #:

sobre o Walras

Adorei aquele sobre a aldeia de queijo e o centro de vitivinicultura.

 
JeeyCi #:


Só te posso falar do Newton. Eu entendo que há previsão de futuro com base na curva existente no passado, eu fiz isso há muito tempo, não funciona com o preço, a partir da palavra, se é isso que você quer dizer. Mas funciona se você tentar prever o gráfico de trás para frente, mas há algumas nuances como esta:

Esta é puramente a minha experiência. Qualquer método de previsão de algo é baseado na interpolação da função com algum polinômio seguido pela construção da continuação, eu não sei como Newton faz isso, mas o mais provável é que as derivadas sejam calculadas como profundas e depois são tomadas como constantes para essa função, embora é claro que tudo muda com o tempo (no mercado essas previsões não funcionam de jeito nenhum, eu verifiquei). Se prevemos um backtest para a frente, ele deve ser o mais direto possível e ter o maior número possível de pontos (dados ou negociações neste caso, então podemos olhar um pouco à frente). Em outras palavras, se tivermos encontrado uma amostra com uma faixa de flutuação suficientemente estreita do maior número possível de primeiras derivadas, tais métodos de extrapolação funcionarão parcialmente, o principal é não ser ganancioso e parar no tempo. Abaixo eu só mostro como lidar com a incerteza por meio da loteria (se não soubermos exatamente onde a previsão vai perder seu poder). Posso interpolar a transformação de Fourier e desenhar sequências para o futuro, mas não vai funcionar com funções arbitrárias. E sobre o funil de aprendizagem, bem, você pode controlar a reaprendizagem de diferentes maneiras, eu nunca tomei as fórmulas de outra pessoa, só porque eu posso juntar as minhas num piscar de olhos se necessário, e elas provavelmente serão mais fáceis e mais úteis, só porque eu entendo tudo, então eu sempre fui, nunca tive nenhuma dificuldade nisso.

 
Evgeniy Ilin #:

Só te posso falar do Newton. Eu entendo que há uma previsão de futuro baseada em uma curva no passado, eu fiz isso há muito tempo, não funciona com o preço, desde o início, se é isso que você quer dizer.

Esta é puramente a minha experiência. Qualquer método de previsão de algo é baseado na interpolação da função com algum polinômio seguido pela construção da continuação, não sei como Newton o faz, mas... (no mercado tais previsões não funcionam de todo, testadas).

esta conclusão foi interessante para mim - obrigado! -

Evgeniy Ilin #:
E o funil de treinamento, você pode controlar a reeducação de diferentes maneiras, eu nunca usei as fórmulas de outra pessoa, simplesmente porque eu posso fazer as minhas em pouco tempo se for preciso, e elas provavelmente serão mais fáceis e mais úteis, só porque eu entendo tudo, eu nunca tive nenhum problema com isso.

+1, mas não sou licenciado em Física... Embora eu esteja mais próximo da minha própria lógica do que usar os modelos de outra pessoa.

Evgeniy Ilin# :

Se você quiser prever um backtest para frente, você tem que fazer o gráfico o mais reto possível e ter o maior número possível de pontos nele (dados ou negociações neste caso, então você pode olhar um pouco para frente). Em outras palavras, se tivermos encontrado uma amostra com faixas de flutuação suficientemente estreitas do maior número possível de primeiras derivadas, tais métodos de extrapolação funcionarão parcialmente,

em geral, tendo uma parábola normal da qual a 1ª derivada é linear... acabamos apenas com o coeficiente da sua inclinação (como uma tendência, sem ruído) - com todas as coisas que descreveu (faixa estreita de grande número de 1ª derivadas)... só tem de ser pesada até ficar azul na cara? (várias camadas até que a saída seja uma parábola)... ou melhor, uma derivada reta de 1x

Evgeniy Ilin #:
Os próprios métodos são de importância secundária aqui, é possível interpolar Fourier e traçar uma continuação para o futuro, mas não funcionará com funções arbitrárias.

é isso que me intriga nas redes neurais, não derivar uma distribuição e compará-la com as tabulares/empíricas, e não procurar confirmação de cada espirro estatisticamente (até "se acertei a média"), comparando a hipótese nula com a tabular... - que é algum tipo de processamento estatístico do século passado... em geral, para não provar a validade tanto do modelo como da previsão e dos erros e tudo isso com tabelas em mãos do século passado (perdoe a expressão)

ou, em alternativa, apenas a ponderação de várias camadas (tomo como uma rede neural)... como eu disse: até ficar com a cara azul? (várias camadas até termos uma parábola na saída)... ou melhor, uma derivada directa 1x dela?

? ?? ou geralmente esquecer todos os tipos de funções (incluindo parábola) e apenas procurar peso*sinal(evento) -> próximo nível... e em cada nível, a função deve ser escolhida mais ou menos trivialmente, como no Excel Solution Finder (seja para dependência linear, ou para dependência não linear, ou para dados independentes) [embora eu não saiba o que o Excel tem sob o capô por estes nomes, mas isto são detalhes, ênfase na lógica].

e no ponto de convergência dos sinais no nível seguinte (tendo em conta os pesos anteriores) calcular todas as diferenças dos sinais recebidos...

? entendo correctamente a rede neural e a diferenciação pelas forças da máquina do caos sem qualquer necessidade de aderir a qualquer curva/linha de recta - que, a meu ver, só pode ser resultado da estruturação do caos, mas de forma alguma um ponto de partida... é tudo responsabilidade do mesmo desenvolvedor - não acredito e não vejo razão para colocar quaisquer modelos financeiros de livros/blogs/artigos (e distribuições estatisticamente processadas) na análise financeira ao aproximar/interpolar o caos... para extrapolação posterior

p.s.

No fundo entendo que só há velocidade (coeficiente em x) e aceleração (coeficiente em x^2) e deslocamento de membro livre - na parábola, e claro que a 1ª derivada dela é linear... as fórmulas assustam-me, especialmente dos modelos de outras pessoas.

 
Evgeniy Ilin #:

Há aqui alguma verdade, mas eu verifiquei o meu modelo, o principal é saber com que tipo de avanço estamos a contar. O problema está no re-treinamento, para não re-treinar, devemos nos esforçar para obter a máxima relação entre os dados analisados e o conjunto final de critérios, ou seja, há compressão de dados, por exemplo, podemos analisar dados de um gráfico de parábola e tomar vários milhares de pontos e reduzir tudo para três coeficientes A*X^2 + B*X + C. É aí que a qualidade de compressão dos dados é maior - é aí que está o forward. A reciclagem pode ser controlada através da introdução de indicadores escalares correctos da sua qualidade, tendo em conta esta compressão de dados. No meu caso é feito de uma maneira mais simples - pegamos um número fixo de coeficientes e fazemos o tamanho da amostra o maior possível, é menos eficiente, mas funciona.

encontrou a sua resposta mais cedo... Devo ter apressado o posto anterior... provavelmente deveria pelo menos começar de uma parábola como função descrevendo o movimento com velocidade e aceleração... (Já vi este tipo de gráficos e gregos (delta e gama) de opções em algum lugar - não me lembro e não quero encontrar - preciso de análise temporal - horizontal, não vertical)

Razão: