Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2252

 
Maxim Dmitrievsky:

Так я же говорю, почему ты решил заменить гмм кодером?

Почему ты решил что это будет работать лучше, у тебя была же какая то идея , вот мне интересна идея, понимаешь?

 
mytarmailS:

Так я же говорю, почему ты решил заменить гмм кодером?

Почему ты решил что это будет работать лучше, у тебя была же какая то идея , вот мне интересна идея, понимаешь?

потому что это такая же генеративная модель, но настраиваемая

на кратинках работает не хуже, на котировках хуже, пока не понял почему

 
Maxim Dmitrievsky:

потому что это такая же генеративная модель, но настраиваемая

на кратинках работает не хуже, на котировках хуже, пока не понял почему

у тебя есть доступ к весам сети и возможность их изменять ?

 
Maxim Dmitrievsky:

я ожидал бОльшего от них

кодер это нейронка

все равно нифига не поймешь, но вот структура его

Так а где обучение? Это все функции и класс. 

 
Vladimir Perervenko:

Так а где обучение? Это все функции и класс. 

вам нужен цикл обучения?

 
Maxim Dmitrievsky:

вам нужен цикл обучения?

Ну насколько я понимаю вариационный АЕ отличается от обычного АЕ тем, что при обучении на декодер подается не hidden  а репараметризованное значение его. Я не увидел где это происходит.

 
Vladimir Perervenko:

Ну насколько я понимаю вариационный АЕ отличается от обычного АЕ тем, что при обучении на декодер подается не hidden  а репараметризованное значение его. Я не увидел где это происходит.

        z_mu, z_var = self.encoder(x)

        # sample from the distribution having latent parameters z_mu, z_var
        # reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)
 
Maxim Dmitrievsky:

Ну допустим(мне в коде ПИтоновском не все понятно). А где обучение этого ВАЕ?

Это в pyTorch ?
 
Vladimir Perervenko:

Ну допустим(мне в коде ПИтоновском не все понятно). А где обучение этого ВАЕ?

Это в pyTorch ?

все на торче

кодер рабочий, просто с ним результаты хуже

короче через расстояние Кульбака-Лейбнера модели очень сложно учиться, это описанная проблема вариационных кодеров

на самом деле, алгоритм "сходится" после 2-3х эпох, и дальше ничего не происходит

One of the main drawbacks of variational autoencoders is that the integral of the KL divergence term does not have a closed form analytical solution except for a handful of distributions. Furthermore, it is not straightforward to use discrete distributions for the latent code z z . This is because backpropagation through discrete variables is generally not possible, making the model difficult to train efficiently. One approach to do this in the VAE setting was introduced here
Discrete Variational Autoencoders
  • arxiv.org
Download PDF Probabilistic models with discrete latent variables naturally capture datasets composed of discrete classes. However, they are difficult to train efficiently, since backpropagation through discrete variables is generally not possible. We present a novel method to train a class of probabilistic models with discrete latent variables...
 
mytarmailS:

у тебя есть доступ к весам сети и возможность их изменять ?

ну конечно, но мне это зачем

Причина обращения: