Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 630

 
Yuriy Asaulenko:
Не буду утверждать, но мне кажется, что это иллюзии. Просто из общих соображений.
Почему, у Владимира Перервенко в статьях есть инфа, обучаются оч. быстро на сотнях входов
 
Maxim Dmitrievsky:
Почему, у Владимира Перевенко в статьях есть инфа, обучаются оч. быстро на сотнях входов

Статьи не читал и спорить не буду. Только картинки видел.)

МЛП, скажем, можно прекрасно обучить за 10-15 минут, и он будет великолепно функционировать. Да, но это в случае, если данные хорошо классифицируются, множества разделяются.

А вот если нет, то - Ой! Если, допустим, на рынке (или в ваших обуч выборках) просто нет разделяемых множеств, то обучай что хошь вечно - результатов не будет.

 
Maxim Dmitrievsky:
Почему, у Владимира Перевенко в статьях есть инфа, обучаются оч. быстро на сотнях входов

Все зависит от архитектуры и количества данных.
Сети для распознавания образов, учатся неделю на GPU. А там десятки слоев, с трехмерными тензорами.

 
Aleksey Terentev:

Все зависит от архитектуры и количества данных.
Сети для распознавания образов, учатся неделю на GPU. А там десятки слоев, с трехмерными тензорами.

ну там он более простые описал - сеть Больцмана + MLP, например

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
Yuriy Asaulenko:

Статьи не читал и спорить не буду. Только картинки видел.)

МЛП, скажем, можно прекрасно обучить за 10-15 минут, и он будет великолепно функционировать. Да, но это в случае, если данные хорошо классифицируются, множества разделяются.

А вот если нет, то - Ой! Если, допустим, на рынке (или в ваших обуч выборках) просто нет разделяемых множеств, то обучай что хошь вечно - результатов не будет.

Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.

Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)

 
Aleksey Terentev:

Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.

Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)

Боюсь, мне так слабо.) Не вижу смысла решать абстрактные задачи. А обмен мнениями совсем не флейм. Я из этого флейма вынес оч. много. И пошел в другом направлении.) А без флейма м.б. так и ковырялся.
 

Делюсь первыми результатами своей НС. Архитектура такая, как описал в боге, ничего не менял.

Плато довольно ровное, НС хорошо обучилась уже на 1000 проходе, дальше результаты улучшались не сильно.

Обучалась за последний месяц на 15-минутках. Потрачено на обучение ~0.65$ Кол-во сделок в мес ~300

Результаты на предыдущих 2-х мес неуд, но и не сильно плохие.

Попробую добавить еще один скрытый слой и поискать ошибки еще :) и потом попробую обучить за более продолжительный период.

 

Maxim Dmitrievsky:
Почему, у Владимира Перервенко в статьях есть инфа, обучаются оч. быстро на сотнях входов


Во всех статьях приведены наборы данных и скрипты которые можно воспроизвести и получить реальные данные о времени обучения конкретно на Вашем железе. Время обучения DNN с двумя скрытыми слоями до 1 минуты. 

Удачи

 
Aleksey Terentev:

Давайте ради "научного знания" просто проведем эксперимент.
Выберем данные, размеры, архитектуру МЛП, выходные данные.
И каждый проведет свои тесты со своими инструментами.

Количество флейма станет меньше.
И кстати можно завести такую традицию, и каждую новую архитектуру тестить всем миром. =)

Покажите пример. Начните 
 
Maxim Dmitrievsky:

Делюсь первыми результатами своей НС. Архитектура такая, как описал в боге, ничего не менял.

Плато довольно ровное, НС хорошо обучилась уже на 1000 проходе, дальше результаты улучшались не сильно.

Обучалась за последний месяц на 15-минутках. Потрачено на обучение ~0.65$ Кол-во сделок в мес ~300

Результаты на предыдущих 2-х мес неуд, но и не сильно плохие.

Попробую добавить еще один скрытый слой и поискать ошибки еще :) и потом попробую обучить за более продолжительный период.

У Вас получается на входе второго слоя сигмоидом обрабатываются три нейрона? Как подбираете веса на втором слое какой диапазон выбирается от -1 до 1 с шагом к примеру 0.1.

В моей сети после обработки вторым слоем падало количество сделок и не сильно улучшался результат. В отличии от того когда просто подгонялся перпцетрон с 9 входами и одним выходным нейроном и потом брался другой независимый перпцетрон и опять подгонялся с сохраненными настройками первого и т.д.

Причина обращения: