Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1966

 
Evgeni Gavrilovi:


Мне можешь скинуть на почту? 

только ему, остальным за бабки

 
Maxim Dmitrievsky:

переходи на питон, я дам тебе примеры, поюзаешь

не вижу смысла на форуме обсуждать, т.к. RL тема далеко не начального уровня

попробую..

 
mytarmailS:

попробую..

Посмотри на ютубе ролики вводные. То же самое что R, только со своими особенностями. Проблем с переходом быть не должно. Зато можно брать котир с мт5 и открывать сделки 
 
Maxim Dmitrievsky:
Посмотри на ютубе ролики вводные. 

да, так и делаю))

 
mytarmailS:

да, так и делаю))

Понимание пришло бы быстрее, если бы пособие было написано без ошибок:

Слой кластеров представляет собой нейронную сеть Кохонена векторного квантования (LVQ). Слой кластеров группирует результаты работы дендритов согласно стандартному алгоритму LVQ. Напомним, что LQV реализует обучение без учителя в online режиме.

Во первых буквы в аббревиатурах перепутаны (правильно LVQ), во вторых это метод обучения С УЧИТЕЛЕМ

а метод без учителя называется VQ (vector quantizatinon), тогда скорее всего он стоит в нейроне, а не LVQ.


Важно отметить, что LQV-подсеть сохраняла память о предыдущих входных сигналах в виде памяти о последних выходах LQV-нейронов. Поэтому нейронной сети было доступно больше информации, чем непосредственно подавалось на ее вход.

это не понимаю пока. Скорее всего имеются в виду эти связи выходов подсети, которые идут обратно в нейроны. Они как раз сохраняют инфу о прошлых действиях

Т.е. память сохраняет LQV подсеть.


 
Maxim Dmitrievsky:

Понимание пришло бы быстрее, если бы пособие было написано без ошибок:

Слой кластеров представляет собой нейронную сеть Кохонена векторного квантования (LVQ). Слой кластеров группирует результаты работы дендритов согласно стандартному алгоритму LVQ. Напомним, что LQV реализует обучение без учителя в online режиме.

Во первых буквы в аббревиатурах перепутаны (правильно LVQ), во вторых это метод обучения С УЧИТЕЛЕМ

а метод без учителя называется VQ (vector quantizatinon), тогда скорее всего он стоит в нейроне, а не LVQ.

хз.. Я читал 4 раза так и не вкурил, может там учитель - подкрепление? 

+ там еще голосование идет от слоев 

Maxim Dmitrievsky:

Важно отметить, что LQV-подсеть сохраняла память о предыдущих входных сигналах в виде памяти о последних выходах LQV-нейронов. Поэтому нейронной сети было доступно больше информации, чем непосредственно подавалось на ее вход.

это не понимаю пока. Скорее всего имеются в виду эти связи выходов подсети, которые идут обратно в нейроны. Они как раз сохраняют инфу о прошлых действиях

Т.е. память сохраняет LQV подсеть.

Ну да, память в  LQV в виде   последних выходах LQV-нейронов , но это же как я понимаю память всего на один шаг назад..

А как же эта фантастическая аналогия с чайником и кофе ?   Вот это и есть весь грааль.. 


Он тебе так ниче и неотписал? 

Блин интересно где такому учат вообще, ето уже кибернетика по ходу, робостроение , ии...

ДатаСайнтисты  это просто физруки в этом институте технологий )))


==============================================================

есть еще и динамический LVQ  - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Подробности

dlvq : Входные данные должны быть нормализованы для использования DLVQ.

Обучение в DLVQ: для каждого класса вычисляется средний вектор (прототип) и сохраняется в (вновь созданном) скрытом модуле.  Затем сеть используется для классификации каждого шаблона с использованием ближайшего прототипа.  Если шаблон ошибочно классифицируется как класс y вместо класса x, прототип класса y перемещается от шаблона, а прототип класса x перемещается в сторону шаблона.  Эта процедура повторяется итеративно до тех пор, пока не перестанут происходить изменения в классификации.  Затем новые прототипы вводятся в сеть для каждого класса как новые скрытые единицы и инициализируются средним вектором неправильно классифицированных шаблонов в этом классе.

Сетевая архитектура: сеть имеет только один скрытый слой, содержащий по одной единице для каждого прототипа.  Прототипы / скрытые блоки также называются векторами кодовой книги.  Поскольку SNNS генерирует единицы автоматически и не требует предварительного указания их количества, процедура  в SNNS  называется  динамическим  LVQ.

Функции инициализации, обучения и обновления по умолчанию - единственные, подходящие для такого типа сети.  Три параметра функции обучения определяют две скорости обучения (для случаев, правильно / неправильно классифицированных) и количество циклов, в течение которых сеть обучается перед вычислением средних векторов.

Ссылки

Кохонен, Т. (1988), Самоорганизация и ассоциативная память, Vol.  8, Springer-Verlag.



=========================================================


Блин читаю про этот   LVQ , это практически тот же Кохонен (SOM) только с учителем

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

 

Кто решал вопрос квантования цифрового ряда с привязкой к целевой? В моем случае это неравномерное "квантование" - процесс автоподстройки под целевую с ограничением минимума цифр в диапазоне или же самого окна в числовом выражении - пока не решил.

Эксперименты с CatBoost показывают, что квантование сильно (в некоторых случаях до 15% акураси) влияет на результат.

 
Aleksey Vyazmikin:

Кто решал вопрос квантования цифрового ряда с привязкой к целевой? В моем случае это неравномерное "квантование" - процесс автоподстройки под целевую с ограничением минимума цифр в диапазоне или же самого окна в числовом выражении - пока не решил.

Эксперименты с CatBoost показывают, что квантование сильно (в некоторых случаях до 15% акураси) влияет на результат.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

пакет для дискретизации (квантования)  с учетом  целевой

 
mytarmailS:

хз.. Я читал 4 раза так и не вкурил, может там учитель - подкрепление? 

+ там еще голосование идет от слоев 

Ну да, память в  LQV в виде   последних выходах LQV-нейронов , но это же как я понимаю память всего на один шаг назад..

А как же эта фантастическая аналогия с чайником и кофе ?   Вот это и есть весь грааль.. 


Он тебе так ниче и неотписал? 

Блин интересно где такому учат вообще, ето уже кибернетика по ходу, робостроение , ии...

ДатаСайнтисты  это просто физруки в этом институте технологий )))


==============================================================

есть еще и динамический LVQ  - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Подробности

dlvq : Входные данные должны быть нормализованы для использования DLVQ.

Обучение в DLVQ: для каждого класса вычисляется средний вектор (прототип) и сохраняется в (вновь созданном) скрытом модуле.  Затем сеть используется для классификации каждого шаблона с использованием ближайшего прототипа.  Если шаблон ошибочно классифицируется как класс y вместо класса x, прототип класса y перемещается от шаблона, а прототип класса x перемещается в сторону шаблона.  Эта процедура повторяется итеративно до тех пор, пока не перестанут происходить изменения в классификации.  Затем новые прототипы вводятся в сеть для каждого класса как новые скрытые единицы и инициализируются средним вектором неправильно классифицированных шаблонов в этом классе.

Сетевая архитектура: сеть имеет только один скрытый слой, содержащий по одной единице для каждого прототипа.  Прототипы / скрытые блоки также называются векторами кодовой книги.  Поскольку SNNS генерирует единицы автоматически и не требует предварительного указания их количества, процедура  в SNNS  называется  динамическим  LVQ.

Функции инициализации, обучения и обновления по умолчанию - единственные, подходящие для такого типа сети.  Три параметра функции обучения определяют две скорости обучения (для случаев, правильно / неправильно классифицированных) и количество циклов, в течение которых сеть обучается перед вычислением средних векторов.

Ссылки

Кохонен, Т. (1988), Самоорганизация и ассоциативная память, Vol.  8, Springer-Verlag.



=========================================================


Блин читаю про этот   LVQ , это практически тот же Кохонен (SOM) только с учителем

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

У него не LVQ, а VQ

не отвечает

наверное из-за разреженных связей как-то не все нейроны не всегда активны, поэтому память может дольше храниться.. Помимо этого там есть ассоциативная память (какие наборы фичей к какому кластеру принадлежат). Кодовая книга так называемая.

ну это из теории управления все, в унивёрах учат наверное. Оригинальная статья датируется 2015 годом от каких-то китайцев. Нет доступа к ней у меня. Скорее всего эта - уже переделка.

 
Maxim Dmitrievsky:

У него не LVQ, а VQ

не отвечает

наверное из-за разреженных связей как-то не все нейроны не всегда активны, поэтому память может дольше храниться.. Помимо этого там есть ассоциативная память (какие наборы фичей к какому кластеру принадлежат). Кодовая книга так называемая.

ну это из теории управления все, в унивёрах учат наверное. Оригинальная статья датируется 2015 годом от каких-то китайцев. Нет доступа к ней у меня. Скорее всего эта - уже переделка.

Получается квантование векторов идет сперва на голых данных, а потом с учетом результата, при этом результат более точным получается. Как минимум фильтр на отрицательный результат появляется. Наборы фичей к разным кластерам, это как разделение ряда на разные стабильные участки.

Причина обращения: