Рыночный этикет или правила хорошего тона на минном поле - страница 41

 

Щас сижу балуюсь сравнивая точность прогноза однослойной и двуслойной нейронки по часовкам евробакса, и вижу, что однослойка работает заметно эффективнее. Думаю, связано это с тем, что нет на рынке "хитрых" нелинейных зависимостей между барами. Всё тут просто как лом и зависимости самые линейные, которые и отрабатывает однослойка. Кстати, по-сути, архитектура одинокого нейрончика это аналог линейной АР-модели n-го порядка, где n - число входов НС и тот факт, что двуслоечка ничего нового промеж баров не находит, говорит о беспонтовости использования нелинейных АР-моделей в этом, конкретном случае.

paralocus писал(а) >>

Пока у меня нет абсолютной уверенности в правильности её работы - попробуй свой нейрон на моих данных - они в прицепе вместе с девушкой, а если будет время и желание - проверь девушку на своих данных.

Ты закинь мне свой файл с EURUSD 1h и сохраняй свои маткадовские файлы в 11 формате, а тоя опять тебя прочитать не могу.

 
paralocus писал(а) >>

Извини, конечно, но у меня последнее время имеются трудности с пониманием намеков. Может из-за того, что у компа пересидел... Что это за "нечто", о котором ты пишешь? Хоть пример приведи.

Я как-то подал кроме всего прочего на вход стохастику(0) в момент образования нового бара. Или можешь МА(0) с PRICE_TYPICAL на вход подать. Она по определению содержит уже цену закрытия. То есть ты даешь сети "подсказку", а она только и всего должна за нее ухватиться. Если ухватится - будешь знать, что алгоритм тренировки работает

 
Neutron >>:

Щас сижу балуюсь сравнивая точность прогноза однослойной и двуслойной нейронки по часовкам евробакса, и вижу, что однослойка работает заметно эффективнее. Думаю, связано это с тем, что нет на рынке "хитрых" нелинейных зависимостей между барами. Всё тут просто как лом и зависимости самые линейные, которые и отрабатывает однослойка. Кстати, по-сути, архитектура одинокого нейрончика это аналог линейной АР-модели n-го порядка, где n - число входов НС и тот факт, что двуслоечка ничего нового промеж баров не находит, говорит о беспонтовости использования нелинейных АР-моделей в этом, конкретном случае.

Ты закинь мне свой файл с EURUSD 1h и сохраняй свои маткадовские файлы в 11 формате, а тоя опять тебя прочитать не могу.

Было у меня такое подозрение, но я его мужественно отбросил :-) Насчет формата - прости, недоглядел. прицепил все здесь. Кстати, пробую сейчас манипулировать скоростью обучения(греческая Эта) - результаты на AUDUSD удалось значительно улучшить введя Эту 15-20 - доходность получилась свыше 4,5. Но на евробаксе сие действо никак не отразилось.

Файлы:
nero2_11.rar  222 kb
 
YDzh >>:

Я как-то подал кроме всего прочего на вход стохастику(0) в момент образования нового бара. Или можешь МА(0) с PRICE_TYPICAL на вход подать. Она по определению содержит уже цену закрытия. То есть ты даешь сети "подсказку", а она только и всего должна за нее ухватиться. Если ухватится - будешь знать, что алгоритм тренировки работает

Так не проще ли просто нулевой бар(незаконченное закрытие) на вход подать? Вот только как увидеть результаты? Тестер тут не поможет, да и то численное моделирование, которому меня здесь Сергей учит тоже.

 

Подогрел до 100... чудеса, однако!



 
Попробуй статистику увеличить раза в два.
 

Это великолепный метод обучения! Главное - понять как им правильно пользоваться


Помнишь мои "фантазии" насчет энтропии и всего прочего? Так у тебя именно это и сделано, нужно только отказаться от начальной инициализации весов и температуру девушке поднять, а потом остужать её постепенно. И, спрашивается, зачем нам та двухслойка?

Неплохо бы еще додумать одновременную оптимизацию трех параметров: размерности входа, количества эпох, и начальной температуры. Все три параметра критичны, т.е. изменение любого из них даже на единицу(температуры на десяток) дает уже совершенно другой результат.

 
paralocus писал(а) >>

Все три параметра критичны, т.е. изменение любого из них даже на единицу(температуры на десяток) дает уже совершенно другой результат.

В общем, это может говорить о плохой обучаемости НС. Сам посуди, поиск глобального минимума на поверхности, должен обеспечиваться с практически любой стартовой точки. А утебя это условие не выполнено (чувствительность к начальной рандомизации весов). Это звоночек.

Нужно разбираться, пока не наступит понимание.

 
Где хоть искать? Попробую сохранять результаты обучения между эпохами. Да и каковы результаты на моих данных?
 
paralocus писал(а) >>
Где хоть искать?

Хороший вопрос! Незнаю. Благо Маткад позволяет на любом шаге визуализировать процесс счёта. Экспериментируй.

Я сейчас балуюсь со своей двуслойкой - смотрю зависимость эффективности обучения от k. Довольно ресурсоёмко, поэтому, пока не запускаю на счёт твоё решение.

Причина обращения: