Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 602

 
Vladimir Perervenko:
 

А по поводу интереса, Вы может слышали о графах TensorFlow, Protocol Buffers, генерации кода для различных платформ и языков, т.е. по существу низком уровне, так вот и я занимаюсь подобным, только для своей НС и языка MQL.

Не только слышал но и использую. Но с языком R для выполнения в МТ. Так что у нас разный подход и направление. Мои наработки Вам не будут полезны.Вы наверное не слышали - Hlaiman EA Generator. 

Слышал, читал. Не тот путь по которому я хотел бы идти.

Надеюсь и Вам, из написанного выше, понятно в каком направлении мне м.б. интересна помочь.

Визуализация графов, топологий НС, сериализация, форматы ProtoBuf, пакетная обработка и импорт/экспорт n-мерных массивах NumPy весов НС и.т.д..

Если Вы располагаете такого рода информацией или опытом реализации, с удовольствием, готов пообсуждать.

Еще раз повторю. У нас разный подход и направление движения. Мои наработки Вам не будут полезны.

Удачи

Тогда м.б. наоборот, наши наработки окажутся полезны Вам, например Hlaiman EA Generator с консолями Python и R - интегрированная среда содержащая элементы TensorBoard и RStudio, нативные НС компоненты и коннект с MT4, MT5 терминалами через DLL, NamedPipes и REST.

 
Maxim Dmitrievsky:

Ну ты че, Михаил

правда там виртуалка, и гпуха используется ихняя )


Вспомнил. Видел я уже этот проект. Уверен что в подобных проектах есть возможность создавать и сахранять, а также обмениватся моделями перед тем как хочешь их обучить. Потому как нахрапом осилить сей ресурс не получилось. Есть есть литра по этой теме... почитал бы...

 
Mihail Marchukajtes:

Вспомнил. Видел я уже этот проект. Уверен что в подобных проектах есть возможность создавать и сахранять, а также обмениватся моделями перед тем как хочешь их обучить. Потому как нахрапом осилить сей ресурс не получилось. Есть есть литра по этой теме... почитал бы...


там обычный код на питоне, интерфейс изучается за 15 мин. По крайней мере я сразу все понял, даже не зная питона толком.. основы питона изучаются за неск. дней. Все остальное - либы с МО. Короче начать очень просто. Но если не уверен зачем тебе это надо - то лучше не лезть :) я там просто разные нейросеточки изучаю

ну а вообще тебе надо бы.. потому что ты привязался к предиктору и не изучаешь основы, что бы самому начать шарить. Что бы изучить основы, не имея мат подготовки, нужен год минимум

плюс в том что не надо устанавливать среду на комп, да и это не нужно для каких-то исследований или изучения языка

например тервер по Байесу - ты шаришь как работают НС по сути? про априорные и апостериорные распределения там,  парадокс Монти Холла, методы обучения.. Или чем SVM отличается от RBM
 
Maxim Dmitrievsky:

там обычный код на питоне, интерфейс изучается за 15 мин. По крайней мере я сразу все понял, даже не зная питона толком.. основы питона изучаются за неск. дней. Все остальное - либы с МО. Короче начать очень просто. Но если не уверен зачем тебе это надо - то лучше не лезть :) я там просто разные нейросеточки изучаю

ну а вообще тебе надо бы.. потому что ты привязался к предиктору и не изучаешь основы, что бы самому начать шарить. Что бы изучить основы, не имея мат подготовки, нужен год минимум

плюс в том что не надо устанавливать среду на комп, да и это не нужно для каких-то исследований или изучения языка


Ты чего??? я основы МО знаю достаточно досконально. Другое дело синтаксис Питона и т.д. Согласен. Хочу проверить общедоступные сервисы, как они строят модели и лучше ли они чем мои на ООС. Там и выводы можно уже делать. Теоретически можно повторить основные принципы оптимизатора чтобы сравнительная характеристика была адекватной....

 
Mihail Marchukajtes:

Ты чего??? я основы МО знаю достаточно досконально. Другое дело синтаксис Питона и т.д. Согласен. Хочу проверить общедоступные сервисы, как они строят модели и лучше ли они чем мои на ООС. Там и выводы можно уже делать. Теоретически можно повторить основные принципы оптимизатора чтобы сравнительная характеристика была адекватной....


ну что бы повторить оптимизатор нужно изучить всю теорию, в том числе и вероятностей.. такие вещи просто так не осознаются по щелчку пальца )

их пишут псц умные люди )

или вон Иван, например, написал свой Hlaimann.. это псц, попробуй напиши что-нибудь такое :)

таким как мы с тобой, юзерам, остается только завидовать молча и учить матчасть

 
Maxim Dmitrievsky:


ну что бы повторить оптимизатор нужно изучить всю теорию, в том числе и вероятностей.. такие вещи просто так не осознаются по щелчку пальца )

их пишут псц умные люди )

или вон Иван, например, написал свой Hlaimann.. это псц, попробуй напиши что-нибудь такое :)

таким как мы с тобой, юзерам, остается только завидовать молча и учить матчасть


Главное понять принцип подхода. Реализация будет у всех разная....

 
Mihail Marchukajtes:

Главное понять принцип подхода. Реализация будет у всех разная....


принцип подхода - сплошной неинтуитивный матан :)

простой пример

 
Vizard_:

Это был стеб. Без стеба - покрути крутизну, посмотри как влияет.
Если под задачу входа адекватные, можно и на "1 нейроне".
В контексте мо, идеологически правильно у toxic-а.
--------------
Профессор о глубоких сетях - youtu.be/qx3iM2aa2yU
31 мин."Там до сих пор мало науки, а много магии вуду"



да я даже понять до сих пор не могу понять что лучше - сигмоид или тангенс.. ) одни пишут что тангенс, теперь вот читаю что 


 
Мне кажется второй абзац не важен. Смещение в нейроне сдвинет 0,5 сигмоида в 0, если это даст меньшую ошибку, и 0 тангенса  в любое др. значение тоже сместит.
А вот крутизну было бы интересно оптимизировать, но это можно делать в самоделке. Готовые пакеты этого наверное не позволяют делать.
Сравнивал у себя эти ф-ии - сигмоид дает меньшую ошибку чем тангенс. Но возможно это верно только на случайно выбранном участке теста. Нужно делать более масштабное сравнение.
 
elibrarius:
Мне кажется второй абзац не важен. Смещение в нейроне сдвинет 0,5 сигмоида в 0, если это даст меньшую ошибку, и 0 тангенса  в любое др. значение тоже сместит.
А вот крутизну было бы интересно оптимизировать, но это можно делать в самоделке. Готовые пакеты этого наверное не позволяют делать.
Сравнивал у себя эти ф-ии - сигмоид дает меньшую ошибку чем тангенс. Но возможно это верно только на случайно выбранном участке теста. Нужно делать более масштабное сравнение.

говорят что ReLU лучше :)

в либе Fuzzy мт5 есть всякие ф-ии, и из кусков можно НС оригинальную собрать, наполовину НС наполовину экспертную, но обучать в оптимизаторе тогда

Причина обращения: