Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1258

 
elibrarius:

um monte de fórmulas ((

Bem ) há um link para o pacote R. Eu próprio não uso R, eu compreendo as fórmulas.

se você usa R, experimente )

 
Maxim Dmitrievsky:

Bem ) há um link para o pacote R. Eu próprio não uso R, eu compreendo as fórmulas.

Se você usa R, tente )

O artigo desta manhã ainda está aberto: https://towardsdatascience.com/bayesian-additive-regression-trees-paper-summary-9da19708fa71

O facto mais decepcionante é que não consegui encontrar uma implementação Python deste algoritmo. Os autores criaram um pacote R(BayesTrees) que tinha alguns problemas óbvios - principalmente a falta de uma função "prever" - e outra implementação, mais amplamente utilizada, chamada bartMachine foi criada.

Se você tem experiência na implementação desta técnica ou conhece uma biblioteca Python, por favor deixe um link nos comentários!

Portanto, o primeiro pacote é inútil porque não pode prever.
O segundo link tem fórmulas de novo.

Aqui está uma árvore comum, fácil de entender. Tudo é simples e lógico. E sem fórmulas.

 
Maxim Dmitrievsky:

Talvez eu ainda não tenha chegado à libra. As árvores são apenas um caso especial de um enorme tópico Bayesiano, por exemplo, há muitos exemplos de livros e vídeos

Eu usei a otimização Bayesiana dos hiperparâmetros de NS de acordo com os artigos de Vladimir. Funciona bem.
Mas se há muitas variáveis para otimizar, é muito longo.


Maxim Dmitrievsky:

Como as árvores... existem redes neurais Bayesianas...

Inesperadamente!
NS trabalha com operações matemáticas + e * e pode construir qualquer indicador dentro de si mesmo, desde MA até filtros digitais.
Mas as árvores são divididas em partes direita e esquerda por simples if(x<v){ ramo esquerdo}else{ ramo direito}.
Ou também é if(x<v){sector esquerdo}else{ramo direito}?

 
elibrarius:
Mas se há muitas variáveis a optimizar, é demasiado longo.


Inesperadamente!
NS trabalha com operações matemáticas + e * e pode construir qualquer indicador dentro - desde MA a filtros digitais.
As árvores são divididas em partes direitas e esquerdas por simples if(x<v){ ramo esquerdo}else{ ramo direito}.
Ou a baisian NS também é se(x<v){sector esquerdo}else{do sector direito}?

é, sim, lento, por isso puxar daí conhecimentos úteis até agora, dá uma compreensão de algumas coisas

Não, em Bayesian NS, os pesos são simplesmente otimizados pela amostragem dos pesos das distribuições, e a saída é também uma distribuição que contém um monte de escolhas, mas tem uma média, variância, etc. Em outras palavras, ele captura muitas variantes que na verdade não estão no conjunto de dados de treinamento, mas elas são, a priori, assumidas. Quanto mais amostras são alimentadas em tais NS, mais perto converge para uma normal, ou seja, as abordagens Bayesianas são inicialmente para conjuntos de dados não muito grandes. Isto é o que eu sei até agora.

Ou seja, tais NS não precisam de conjuntos de dados muito grandes, os resultados convergirão para os convencionais. Mas o resultado após o treinamento não será uma estimativa de ponto, mas uma distribuição de probabilidade para cada amostra.

 
Maxim Dmitrievsky:

é lento, é por isso que estou tirando algum conhecimento útil dele até agora, dá uma compreensão de algumas coisas

Não, em Bayesian NS, os pesos são simplesmente otimizados pela amostragem dos pesos das distribuições, e a saída é também uma distribuição que contém um monte de escolhas, mas tem uma média, variância, etc. Em outras palavras, ele captura muitas variantes que na verdade não estão no conjunto de dados de treinamento, mas elas são, a priori, assumidas. Quanto mais amostras são alimentadas em tais NS, mais perto converge para uma normal, ou seja, as abordagens Bayesianas são inicialmente para conjuntos de dados não muito grandes. Isto é o que eu sei até agora.

Ou seja, tais NS não precisam de conjuntos de dados muito grandes, os resultados convergirão para os convencionais. Mas o resultado após o treinamento não será uma estimativa de ponto, mas uma distribuição de probabilidade para cada amostra.

Andas por aí como se estivesses em velocidade, uma coisa de cada vez, outra coisa de cada vez... e é inútil.

Você parece ter muito tempo, como um cavalheiro, você precisa trabalhar, trabalhar duro e lutar pelo crescimento da carreira, em vez de se apressar das redes neuronais para o básico.

Acredite, ninguém em nenhuma corretora normal lhe dará dinheiro para verborreia científica ou artigos, apenas equidade confirmada pelos principais corretores do mundo.
 
Maxim Dmitrievsky:

Eu não tenho pressa, mas estudo de forma consistente do simples ao complexo

Se você não tem um emprego, posso oferecer-lhe, por exemplo, para reescrever algo em mql.

Eu trabalho para o senhorio, assim como todos os outros, é estranho que você não trabalhe, você mesmo é um senhorio, um herdeiro, um menino de ouro, um homem normal se ele perder o emprego em 3 meses na rua, ele está morto em 6 meses.

 
Maxim Dmitrievsky:

Se não há nada sobre MO no comércio, então dê uma volta, você vai pensar que são os únicos mendigos aqui)

Mostrei a todos em RI, honestamente, sem segredos infantis, sem tretas, o erro no teste é de 10-15%, mas o mercado está em constante mudança, o comércio não vai, tagarelice perto de zero

 
Maxim Dmitrievsky:

Em resumo, vai-te embora, Vasya, não estou interessado em lamentar

Tudo o que você faz é choramingar, sem resultados, você cava garfos na água e é isso, mas você não tem coragem de admitir que está perdendo seu tempo.

Você deve se alistar no exército ou pelo menos trabalhar em um canteiro de obras com homens fisicamente, você melhoraria seu caráter.
 
Maxim Dmitrievsky:

é, sim, lento, por isso puxar daí conhecimentos úteis até agora, dá uma compreensão de algumas coisas

Não, em Bayesian NS, os pesos são simplesmente otimizados pela amostragem dos pesos das distribuições, e a saída é também uma distribuição que contém um monte de escolhas, mas tem uma média, variância, etc. Em outras palavras, ele captura muitas variantes que na verdade não estão no conjunto de dados de treinamento, mas elas são, a priori, assumidas. Quanto mais amostras são alimentadas em tais NS, mais perto converge para uma normal, ou seja, as abordagens Bayesianas são inicialmente para conjuntos de dados não muito grandes. Isto é o que eu sei até agora.

Ou seja, tais NS não precisam de grandes conjuntos de dados, os resultados irão convergir para os convencionais.

É como projetar uma curva Bayesiana como no exemplo por 10 pontos e depois tirar 100 ou 1000 pontos dessa curva e usá-los para ensinar NS/floresta?
Aqui estão os comentários de https://www.mql5.com/ru/forum/226219 sobre o artigo de Vladimir sobre otimização Bayesiana, como ele plota a curva em vários pontos. Mas então eles também não precisam de NS/floresta - você pode simplesmente procurar a resposta nesta curva.

Outro problema - se um otimizador não aprender, ele ensinará a NS algumas porcarias incompreensíveis.
Aqui para 3 características trabalho de Bayes
amostra ensinada

Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
Обсуждение статьи "Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN"
  • 2018.01.31
  • www.mql5.com
Опубликована статья Глубокие нейросети (Часть V). Байесовская оптимизация гиперпараметров DNN: Автор: Vladimir Perervenko...
 
Maxim Dmitrievsky:

São os imbecis no fio que não o tornam divertido de todo.

a choramingar para si mesmos.

Do que há para falar? Você apenas coleta links e diferentes resumos científicos para impressionar os recém-chegados, SanSanych escreveu tudo em seu artigo, não há muito a acrescentar, agora há diferentes vendedores e redatores de artigos que mancharam tudo com suas forquilhas de vergonha e repugnância. Eles se chamam "matemáticos", eles se chamam "quantum" .....

Quer que a matemática tente ler istohttp://www.kurims.kyoto-u.ac.jp/~motizuki/Inter-universal%20Teichmuller%20Theory%20I.pdf

E você não vai entender que não é um matemático, mas um floco.
Razão: