Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2252
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Так я же говорю, почему ты решил заменить гмм кодером?
Почему ты решил что это будет работать лучше, у тебя была же какая то идея , вот мне интересна идея, понимаешь?
Так я же говорю, почему ты решил заменить гмм кодером?
Почему ты решил что это будет работать лучше, у тебя была же какая то идея , вот мне интересна идея, понимаешь?
потому что это такая же генеративная модель, но настраиваемая
на кратинках работает не хуже, на котировках хуже, пока не понял почему
потому что это такая же генеративная модель, но настраиваемая
на кратинках работает не хуже, на котировках хуже, пока не понял почему
у тебя есть доступ к весам сети и возможность их изменять ?
я ожидал бОльшего от них
кодер это нейронка
все равно нифига не поймешь, но вот структура его
Так а где обучение? Это все функции и класс.
Так а где обучение? Это все функции и класс.
вам нужен цикл обучения?
вам нужен цикл обучения?
Ну насколько я понимаю вариационный АЕ отличается от обычного АЕ тем, что при обучении на декодер подается не hidden а репараметризованное значение его. Я не увидел где это происходит.
Ну насколько я понимаю вариационный АЕ отличается от обычного АЕ тем, что при обучении на декодер подается не hidden а репараметризованное значение его. Я не увидел где это происходит.
Ну допустим(мне в коде ПИтоновском не все понятно). А где обучение этого ВАЕ?
Это в pyTorch ?Ну допустим(мне в коде ПИтоновском не все понятно). А где обучение этого ВАЕ?
Это в pyTorch ?все на торче
кодер рабочий, просто с ним результаты хуже
короче через расстояние Кульбака-Лейбнера модели очень сложно учиться, это описанная проблема вариационных кодеров
на самом деле, алгоритм "сходится" после 2-3х эпох, и дальше ничего не происходит
One of the main drawbacks of variational autoencoders is that the integral of the KL divergence term does not have a closed form analytical solution except for a handful of distributions. Furthermore, it is not straightforward to use discrete distributions for the latent code z z . This is because backpropagation through discrete variables is generally not possible, making the model difficult to train efficiently. One approach to do this in the VAE setting was introduced hereу тебя есть доступ к весам сети и возможность их изменять ?
ну конечно, но мне это зачем