Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 594

 
Alexander_K2:

Не спится - немного почитал всякую муть в инете. Понравилось вот это:

"То что приращения используют это не совсем так уж плохо на общем фоне, большинство логарифмированный прайс подают на вход, приращения это шаг вперёд, хотя и так и так подгонка.

Я знаю людей которые из НС вытянули грааль, но те парни настолько закрыты для общения и даже намёков о том что они делают, у меня новичка так точно нет шансов. Знаю только что там всё архисложно, там не велс, не метатрейдер и даже не S#, а С++ и MatLab с какими то фичами которым расшифровывают и интерпретируют данные поступающие с калайдеров, оказалось что это одна и та же методология, я как услышал так и подафигел, там с ними работает дядя который раньше в ЦЕРНе перемалывал терабайты в день ища новый частицы в квантовом хаосе."

Прикольно. Остаюсь при своем мнении - на вход НС надо подавать чистейшие, как слеза, приращения цены. Именно приращения - ключ ко всему. На них строится решение этой задачи. Фактически на Форексе мы следим за псевдостационарным процессом движения волнового пакета (функции плотности вероятности) этих приращений. И ничего более. (этот абзац уже я налабал :)))


Из биографии Б.Фритцке примечательно, что в 2001 году он завершил карьеру ученого в Рурском университете (г. Бохум, ФРГ) в связи с поступившим предложением о трудоустройстве на Немецкой фондовой бирже (Deutsche Bӧrse). Не буду скрывать, что этот факт послужил дополнительным стимулом к выбору именно его алгоритма в качестве основы для написания настоящей статьи.

https://www.mql5.com/ru/articles/163

вообще я поражаюсь.. сесть вечером за комп.. а почему бы мне не написать ээээ.. растущий нейронный газ.. например..

ЖЕСТЬ, поражаюсь насколько люди умные

Растущий нейронный газ - реализация на языке программирования MQL5
Растущий нейронный газ - реализация на языке программирования MQL5
  • 2010.09.24
  • Alexey Subbotin
  • www.mql5.com
В 90-х годах прошлого века исследователи искусственных нейросетей пришли к выводу о необходимости развития нового класса этих вычислительных механизмов, особенностью которого было бы отсутствие фиксированной топологии слоев сети. Это означает, что количество и расположение искусственных нейронов в пространстве признаков не задается заранее, а...
 
Maxim Dmitrievsky:

...нс, которая играет сама с собой в форекс...

...ну собсно Юрий уже об этом писал...

А что за вид нейронки такое может? Я как-то пропустил те сообщения.

 
Dr. Trader:

А что за вид нейронки такое может? Я как-то пропустил те сообщения.


ну вообще обучение с подкреплением, но могут быть вариации на тему

q-learning, например

оно, правда, не входит в раздел нейродинамики.. т.к. все-таки обучается просто другим способом, но топология и веса нейронов потом уже не меняются когда уже обучена, вроде бы

 
Yuriy Asaulenko:
Зашло. Но Вы все про МКЛ, да МКЛ. Я об этом. Не катит, если уж мы ДМ занялись. Имхо.
Во-первых не я, а Максим про МКЛ, К чему я собственно и написал что не зашло.
Во-вторых у меня у самого МКЛ только как интерфейс, следствие чего при необходимости я могу менять интерфейсы, не меняя системы анализа.
 

Все говорят о том что подавать на вход. А на мой взгляд что подавать на выход не менее значимо. Если подавать зигзаг, то сеть вообще не обучается ни на каких входах. Если сбалансировать классы. Т.е. убрать большинство входов не показывающие развороты, результат тоже не выдерживает никакой критики. Если на выходы подавать будет ли средняя цена бара выше или ниже предыдущей. Получаем ровно 50% правильных ответов. Что тоже не хорошо. Что еще можно придумать?

 

алё, вы робот закончили? с ИИ.

пора тестировать ))

 

Интересная мысль https://monographies.ru/en/book/section?id=2465

При моделировании нейронных сетей с линейными функциями активации ней­ронов можно построить алгоритм, гарантирующий достижение абсолютного минимума ошибки обучения. Для нейронных сетей с нелинейными функциями активации в общем случае нельзя гарантировать достижения глобального минимума функции ошибки.
...............

В случае линейной модели сети и функции ошибок в виде суммы квадратов такая по­верхность (функции ошибок) будет представлять собой параболоид, который имеет единственный минимум, и это позволяет отыскать такой минимум достаточно просто.

В случае нелинейной модели поверхность ошибок имеет гораздо более сложное строение и обладает рядом неблагоприятных свойств, в частности может иметь локальные минимумы, плоские участки, седловые точки и длинные узкие овраги.

Может надо при нелинейных ф-ях активации побольше нейронов использовать? Чтобы все эти неровности сгладить.

 
Grigoriy Chaunin:

Все говорят о том что подавать на вход. А на мой взгляд что подавать на выход не менее значимо. 


Когда входишь в здание под названием "Статистика", то над входом написано "Мусор на входе - мусор на выходе".



 
СанСаныч Фоменко:

Когда входишь в здание под названием "Статистика", то над входом написано "Мусор на входе - мусор на выходе".

))

 
Aleksey Terentev:
Во-первых не я, а Максим про МКЛ, К чему я собственно и написал что не зашло.
Во-вторых у меня у самого МКЛ только как интерфейс, следствие чего при необходимости я могу менять интерфейсы, не меняя системы анализа.
Извините, действительно думал, что отвечаю Максиму.
Причина обращения: