Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 128
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Наткнулся на бложик и чуть не всплакнул, человек делал практически ту же идею что и я когда то придумал и решил реализовать, и именно под эту идею я и начал учить программирование где то год назад
https://www.r-bloggers.com/time-series-matching-with-dynamic-time-warping/
А я то думал что моя идея уникальна))) молодость, наивность... правда DTW я конечно не использовал, так как вообще тогда еще ничего не понимал
Если взять два временных ряда: целевая переменная и предиктор. Получим некоторые "расстояния". Если расстояние небольшое (что такое "небольшое"), то предсказательная способность высокая? Такой предиктор более ценен по сравнению с другими, у которых это расстояние больше?
Так, что ли?
Если взять два временных ряда: целевая переменная и предиктор. Получим некоторые "расстояния". Если расстояние небольшое (что такое "небольшое"), то предсказательная способность высокая? Такой предиктор более ценен по сравнению с другими, у которых это расстояние больше?
Так, что ли?
Перечитал по три раза, хоть убейте не понял((
1) По ходу это не есть МО в чистом виде, это как бы улучшение какой то существующей ТС, у которой есть сигналы на вход, и только на этих входах мы и входим и уже эти входы мы анализируем МО верно?
2) Когда есть прибыль мы закрываем сделку. Когда сделка в убытке мы держим позицию, с какой стати??
3) когда надо покупать, когда надо продавать?
4) Я умею потупить, такой уже я) но реально ничего не понимаю с того что вы написали, может картинкой какой то покажете или блох схемой какой..
1. Сигнал генерит сеть.
2. Ни с какой, у нас свободная страна. Хотите - закрывайте, не хотите - не закрывайте. SL есть в системе, а может и не есть - тоже Ваше право.
3. Откуда я знаю? Спросите у сетки. которую обучаете.
4. Возможно нужно прочитать 4-й раз, может быть прояснится.
Наткнулся на бложик и чуть не всплакнул, человек делал практически ту же идею что и я когда то придумал и решил реализовать, и именно под эту идею я и начал учить программирование где то год назад
https://www.r-bloggers.com/time-series-matching-with-dynamic-time-warping/
А я то думал что моя идея уникальна))) молодость, наивность... правда DTW я конечно не использовал, так как вообще тогда еще ничего не понимал
1. Сигнал генерит сеть.
2. Ни с какой, у нас свободная страна. Хотите - закрывайте, не хотите - не закрывайте. SL есть в системе, а может и не есть - тоже Ваше право.
3. Откуда я знаю? Спросите у сетки. которую обучаете.
4. Возможно нужно прочитать 4-й раз, может быть прояснится.
1) Весь ваш алгоритм - это создание некой "мягкой" целевой функции для нейросети верно?
но уже на первом пункте этого алгоритма мы должны принимать какие то сигналы от нейросети, сигналы которые получаются от обучения нейросети по целевой функции, по той целевой которой мы еще не создали потому что мы только на пункте 1.
мой мозг взрывается...
вообще не так, какой предиктор, какая целевая, нету там ничего такого.. Просто тупо в ВР ищутся участки которые схожие на последнюю текущую ситуацию все...
Два временных ряда
Вот обращение
Details The function performs Dynamic Time Warp (DTW) and computes the optimal alignment between two time series x and y, given as numeric vectors. The “optimal” alignment minimizes the sum of distances between aligned elements. Lengths of x and y may differ. The local distance between elements of x (query) and y (reference) can be computed in one of the following ways:
При этом полезно обратить внимание на параметр step.pattern=symmetric2,
Это из документации на пакет.
1) Весь ваш алгоритм - это создание некой "мягкой" целевой функции для нейросети верно?
но уже на первом пункте этого алгоритма мы должны принимать какие то сигналы от нейросети, сигналы которые получаются от обучения нейросети по целевой функции, по той целевой которой мы еще не создали потому что мы только на пункте 1.
мой мозг взрывается...
Два временных ряда
Ну да, два ряда, чтоб промерять близость между двумя рядами нудно два ряда,
два ряда (в нашем случаи) имеется ввиду два каких то участка из одного ряда(цены)
если очень грубо и чисто в рамках этого примера, то ето функция которая меряет евклидову близость , аналог функции dist(x,y) - разница лишь в том что ряды которые вы подаете в dtw могут быть разных размеров, и это очень круто для нас
1) Весь ваш алгоритм - это создание некой "мягкой" целевой функции для нейросети верно?
но уже на первом пункте этого алгоритма мы должны принимать какие то сигналы от нейросети, сигналы которые получаются от обучения нейросети по целевой функции, по той целевой которой мы еще не создали потому что мы только на пункте 1.
мой мозг взрывается...
Народ тут такой. "Мягкий". Деталей не говорят. А что толку? Жидят свой сливатор?
Вот же, четко по слогам расписал что я делаю:
Подробнее: на текущем баре сигнал бай, типа покупаем, отсчитываем наименьшее кол-во баров вперёд в будущее и проверяем - в прибыль ли получится сделка, если да то типа закрываем, если нет - отсчитываем вперед ещё один бар и снова проверяем. И так до максимального кол-ва баров и закрываем окончательно. Такой механизм обучения.
Что тут не понятно?... Это не фантазия, сейчас я так именно и делаю. Целевая функция - максимизация прибыли при минимальных просадках. Обучаю с помощью своей генетики.
Народ тут такой. "Мягкий". Деталей не говорят. А что толку? Жидят свой сливатор?