Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 591

 
Yuriy Asaulenko:
Вообще-то, все надо писать на С++/C#, и проблем вообще никаких с взаимодействием с чем угодно. Бяда в том, что основные библиотеки ДМ на Python и R, и это нужно, как минимум, осваивать. А взаимодействие - эт пустое, везде есть API (кроме MQL). Да можно хоть файлами передавать через RAM-Disk.

ну да, все верно, проблем с этим нет

проблема в том насколько глубоко нужно пустить корни в МО и на каком этапе понять что вот этих вот моделей уже достаточно..

я пока остановился на классике и мне всего хватает.. за приростом 1-10% точности не бегу :) сейчас на стратегиях сосредоточился, кучу идей выписал - и все это надо проверить, жесть

Подробнее сейчас изучаю PNN - которые работают с полтностями вероятностей и почти не переобучаются, интересные штуки

 
Evgeny Belyaev:

Юра, ну ты даешь! )) Такое говорить на форуме MQL. Сейчас прибегут товарищи и закидают тебя камнями.

Встану на защиту Юрия - я тоже использую MQL только для открытия/закрытия ордеров. Все расчеты - в Виссиме. Но только на этом форуме есть более-менее профессиональные физики и математики, поэтому я пришел именно сюда. На остальных площадках - вообще деревенские дурачки.
 
Alexander_K2:
Встану на защиту Юрия - я тоже использую MQL только для открытия/закрытия ордеров. Все расчеты - в Виссиме. Но только на этом форуме есть более-менее профессиональные физики и математики, поэтому я пришел именно сюда. На остальных площадках - вообще деревенские дурачки.

Александр, мб вам будет интересна такая тема :)

Метод аппроксимации плотности вероятности с помощью ядерных функций во многом похож на метод радиальных базисных функций, и таким образом мы естественно приходим к понятиям вероятностной нейронной сети (PNN) и обобщенно-регрессионной нейронной сети (GRNN) (Speckt 1990, 1991). PNN-сети предназначены для задач классификации, а GRNN - для задач регрессии. Сети этих двух типов представляют собой реализацию методов ядерной аппроксимации, оформленных в виде нейронной сети.

 
Maxim Dmitrievsky:

Александр, мб вам будет интересна такая тема :)

Метод аппроксимации плотности вероятности с помощью ядерных функций во многом похож на метод радиальных базисных функций, и таким образом мы естественно приходим к понятиям вероятностной нейронной сети (PNN) и обобщенно-регрессионной нейронной сети (GRNN) (Speckt 1990, 1991). PNN-сети предназначены для задач классификации, а GRNN - для задач регрессии. Сети этих двух типов представляют собой реализацию методов ядерной аппроксимации, оформленных в виде нейронной сети.

Ага. Спасибо, Максим!
 
Alexander_K2:
Ага. Спасибо, Максим!
Максим, вообще-то, молодец. Иногда я поражаюсь его кругозору. Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))
 
Yuriy Asaulenko:
Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))

Есть и такое мнение:

Люди перестают мыслить,когда перестают читать.  Дидро

 
Yuriy Asaulenko:
Максим, вообще-то, молодец. Иногда я поражаюсь его кругозору. Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))
Согласен. Но, ссылка интересная - почитаю, когда время будет. Щас занят - вижу на горизонте Грааль и, подталкиваемый мощными руками тестя, движусь по направлению к нему.
 
Evgeny Belyaev:

Есть и такое мнение:

Люди перестают мыслить,когда перестают читать.  Дидро

Одно, другое не исключает.) Никто не утверждал, что читать вообще не нужно.))
 
Alexander_K2:
Согласен. Но, ссылка интересная - почитаю, когда время будет. Щас занят - вижу на горизонте Грааль и, подталкиваемый мощными руками тестя, движусь по направлению к нему.

Ищите, и обрящите. (с)

Но не в этот раз.

 
Yuriy Asaulenko:
Максим, вообще-то, молодец. Иногда я поражаюсь его кругозору. Но, следует помнить, - люди, которые много читают, отвыкают самостоятельно мыслить.(с) И это не я сказал. Угадайте кто?))

да прям, просто пошел по статьям всяким, посмотреть что интересного есть в этой теме :) Ну основное преимущество перед MLP, как понял, - скорость и минимум настроек (здесь их вообще нет) и то, что эти сетки почти не переобучаются

ну и гауссовская ф-я используется а не стьюдента. Для каждого входа создается ф-я плотности вер., потом результаты на выходе линейно суммируются

кстати, PNN и GRNN есть в mql-виде, но я еще не пробовал и не сравнивал с MLP

https://www.mql5.com/ru/code/1323

Класс нейронной сети PNN
Класс нейронной сети PNN
  • голосов: 41
  • 2012.11.30
  • Yury Kulikov
  • www.mql5.com
Класс CNetPNN реализует вероятностную нейронную сеть (Probabilistic Neural Network - PNN). Создание сети объявляется параметрическим конструктором класса. Нумерация классов(целей классификации) начинается с нуля и должна быть непрерывна. Например, если задано 3 класса, то номера классов должны быть: 0, 1, 2. Обучение сети осуществляется вызовом...
Причина обращения: