Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3515

 
Forester #:

Кто-то понял, что за свертки и фильтры?

Сверточный слой и слой лстм. Страйд (фильтр) это шаг перемещения в свертке
Фигня напридуманная, которая ничего не улучшает. Но эта архитектура (последовательность слоев) считается наиболее хорошей. На самом деле ничего не дает. Ну если явный сигнал в данных есть, то дает.
 

ИИ столкнулся с непреодолимым потолком

https://dzen.ru/a/ZkLZRGaQUXtVCKjH

 
Maxim Dmitrievsky #:
Сверточный слой и слой лстм. Страйд (фильтр) это шаг перемещения в свертке
Фигня напридуманная, которая ничего не улучшает. Но эта архитектура (последовательность слоев) считается наиболее хорошей. На самом деле ничего не дает. Ну если явный сигнал в данных есть, то дает.

Why you shouldn’t trade this model

So at the first glance, the OFI signal looks like a profitable strategy. Now I will highlight why it isn’t in practice.

  • Trading costs will eat you alive

I’ve not taken into account any slippage, probability of fill, or anything that a real-world trading model would need to be practical. As our analysis around the Sharpe ratio has shown, it wants to trade as much as possible, which means transaction costs will just destroy the return profile. With every trade, you will pay the full bid-ask spread in a round trip to open and then close the trade.


Самое большое упущение

 
Maxim Dmitrievsky #:
Сверточный слой и слой лстм. Страйд (фильтр) это шаг перемещения в свертке
Фигня напридуманная, которая ничего не улучшает. Но эта архитектура (последовательность слоев) считается наиболее хорошей. На самом деле ничего не дает. Ну если явный сигнал в данных есть, то дает.
По сверткам...
Если вторая функция для нее прямоугольная, то получится SMA


Если там другие формы этой функции (треугольные, экспоненциальные и др.) то получим что-то еще (может и EMA), просто будут другие коэффициенты для разных строк.
Но в любом случае как и с SMA и с EMA будет задержка из за усреднения.
Так что видимо и правда от них мало пользы, как и от МАшек. Один плюс - уменьшение числа предикторов.
 
Forester #:
По сверткам...
Если вторая функция для нее прямоугольная, то получится SMA


Если там другие формы этой функции (треугольные, экспоненциальные и др.) то получим что-то еще (может и EMA), просто будут другие коэффициенты для разных строк.
Но в любом случае как и с SMA и с EMA будет задержка из за усреднения.
Так что видимо и правда от них мало пользы, как и от МАшек. Один плюс - уменьшение числа предикторов.

Это немного другое, то же но сильно приминивнее..

В сверточной нейронке ядра свертки "придумывает" нейронка в процессе обучения и ядер/фильтров там тысячи..


Так что думать что св. нейронку можно заменить одним прямоугольным ядром это абсурд

 
mytarmailS #:

В сверточной нейронке ядра свертки "придумывает" нейронка в процессе обучения и ядер/фильтров там тысячи..

Подбирает коэффициенты разным строкам? Чем создаст вместо прямоугольной ф-ии какую-то более подходящую.

 
Forester #:

Подбирает коэффициенты разным строкам? 

нет, подбирает ядра свертки

Forester #:

 Чем создаст вместо прямоугольной ф-ии какую-то более подходящую.

да

 
Forester #:
По сверткам...
Если вторая функция для нее прямоугольная, то получится SMA


Если там другие формы этой функции (треугольные, экспоненциальные и др.) то получим что-то еще (может и EMA), просто будут другие коэффициенты для разных строк.
Но в любом случае как и с SMA и с EMA будет задержка из за усреднения.
Так что видимо и правда от них мало пользы, как и от МАшек. Один плюс - уменьшение числа предикторов.

ну там коэффициенты ядра свертки подбираются для минимизации ошибки, насколько помню

матрица или вектор этих коэффициентов бегает по другой матрице или векотору входных данных с заданным шагом, перемножаются значения и берется матрица с максимальными итоговыми значениями как выход, например

потом выходы передаются в следующий слой НС, в данном случае lstm, как на картинке

lstm пытается потом запомнить последовательности этих значений, типа аналог памяти

То есть особенность сверточного слоя - что он может выделить наиболее важные элементы из всей матрицы, а lstm запоминает их последовательности.


В итоге выделение важных признаков каждого ряда + запоминание их последовательностей, что за чем идет, в каком порядке. Аппроксимация. Обычно в конце еще полносвязный слой ставят с софтмаксом, чтобы разнести все это добро по классам.

 
lstm работает с радикально разбалансированными классами - для 2 классов в десятки раз?
 
СанСаныч Фоменко #:
lstm работает с радикально разбалансированными классами - для 2 классов в десятки раз?

lstm работает в принципе херово ) очень сложно правильно обучить

там постоянные взрывы градиента из-за множественных перемножений весов

может быть сейчас это как-то фиксят, но не думаю, потому что все перешли на трансформеры

Трансформер - это некая комбинация свертки и lstm, неофициально наверное можно провести такую аналогию

Это вам не случайные леса - там чтобы обучить нормально, надо выпендриться.

Причина обращения: