"Новый нейронный" - проект Open Source движка нейронной сети для платформы MetaTrader 5. - страница 75
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Суть не в том - каким. Просто интересно, потянет ГА с такой слабенькой железкой?
Облегченная версия алгоритма joo.
Ну, можете грубо прикинуть. Для этого прогоните один раз по истории ФФ замерив при этом время а потом умножите на 10000. Получится вполне реалистичный результат что получится, если будете гонять обучение.
И эта.. Чё там облегчать то уже? :)
Ну, можете грубо прикинуть. Для этого прогоните один раз по истории ФФ замерив при этом время а потом умножите на 10000. Получится вполне реалистичный результат что получится, если будете гонять обучение.
И эта.. Чё там облегчать то уже? :)
Не не вполне адекватный, нужно отдельно ещё замерить и вычесть суммарное время ФФ, чтоб получить чистое значение выполнения алгоритма.
тогда можно умножать на количество параметров.
Котлеты отдельно мухи отдельно.
Как то думал написать тестилку для обучения маленькой сеточки Тестерным ГА, типа той что выше рисовал, 6 весов 3 нейрона, задача XOR, да всё руки не доходят :)
Я говорю про:
1) Чему учить,
2) сколько примеров,
3) ошибка и т.д.?
1) Ради эксперимента - попробуйте аппроксимировать какую нить функцию, напрмер ту что в статье.
2) Ну, не меньше 1000, я думаю.
3) ЗФФ - наименьшая ошибка с поверхностью тестовой функции.
И эта.. Чё там облегчать то уже? :)
3) ЗФФ - наименьшая ошибка с поверхностью тестовой функции.
ЗФФ - не понял. ?
Значение ФФ, или - VFF, если следовать терминологии статьи.
наименьшая ошибка - понятие растяжимое...
Всё, удаляюсь, что то меня здесь уже много. Будут еще непонятки, в личке спрошу, чтоб не захломлять. Как будет результат - покажу.
Надеюсь Urain & yu-sha определятся с архитектурой и описанием сети.
Задача XOR решаемая стандартным тестерным ГА, на 100 примеров 14 дискретных ошибок.
там в коде две сетки на два нейрона каскадом, и на три нейрона как в классике MLP.
шаг вверху в комментариях, для 7-ми параметров шаг 0.005 , для 9-ти 0.2-03 веса при входе 0.2, независимые 03.
так игруха но прекольна.
ЗЫ вот я балбес, я же в примерах дал по углам 1 для примера, а средине 0. А как сетка ни крутит из двух нулей на входе не может выдать 1.
Щас ивертирую выходы сетки ошибка должа быть равна нулю в дискретном виде, и стремиться к нулю в вещественном.
ЗЫ странно инветрировал выходы а ошибка не ушла, даже немного подросла 16, ладно фиг с ним спишем на ГА :) , а может чёт о на бочил спать уже хотца.
Сегодня день Элдера :)
Полная тишина, все курят интервью.