
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Пока что именно отсутствие тех подробностей, о которых я вопрошал выше, и ввело меня, как рядового чайника, в ступор. Трижды перечитал статью, но нужные ответы нашёл только на форуме.
После некоторых раздумий, было принято решение по написанию второй части статьи.
На данный момент во второй части будет освещена работа с многослойными нейронными сетями.
Если у Вас имеются пожелания о ее содержимом - прошу, вкратце, напишите их.
Те идеи, которые я смогу передать на пальцах будут описаны в статье.
Спасибо.
Я "наивно полагаю", что в среде носителей русского языка не принято называть процесс самостоятельного обучения "подгонкой параметров". Равно как и не принято подбор параметров (с помощью внешних процессов) для какой-либо системы называть обучением.
Как подгонку не называй, она от этого подгонкой быть не перестанет.
Оптимизация, подгонка и обучение для нейросетей, имеющих дело с нестационарными данными - это синонимы. Потому что все три термина означают одно и тоже: подбор весовых коэффициентов под прошлые исторические данные (обучающую выборку) с целью минимизации ошибок на выходе нейросети. Если бы имелась возможность подсунуть сетке будущие данные, тогда другое дело. Но машину времени еще пока не продают в магазинах оргтехники, поэтому приходится подгонять под прошлое.
Как подгонку не называй, она от этого подгонкой быть не перестанет.
Интересует только один вопрос: как создать самообучающуюся программу, которая могла бы обходиться без использования "внешнего" оптимизатора. Если такое, конечно, возможно на данном этапе.
Всё просто. Код советника может содержать саму сеть и оптимизатор её весов, который может запускаться автоматически при поступлении новых данных. Под нейроными сетями в большинстве случаев как раз и подразумевают такие самообучающие сети. Сети обучаемые извне, например оптимизатором тестера - это игрушки.
Парни, подскажите! Я верно понял, что нормализацию входных данных нужно делать на всем периоде обучения сети? В смысле максимальное и минимальное значения хi брать со всего этого периода?
вот написал такого сова. Можно ли сказать что это нейросеть, а то у меня есть сомнения.
Сова для торговли в канале.
Алгоритм следующий: берутся экстремумы за кол-во баров по Фибо (2,3,5,8,13....). Для каждого нейрона на покупку, к примеру - если Цена ниже или равна цене экстремума LOW для одного периода то возвращаем 1 иначе - 0. дальше, как в примере c NeuronMACD. На продажу - зеркально наоборот.
Жду критики кода и алгоритма.
вот написал такого сова. Можно ли сказать что это нейросеть, а то у меня есть сомнения.
Сова для торговли в канале.
Алгоритм следующий: берутся экстремумы за кол-во баров по Фибо (2,3,5,8,13....). Для каждого нейрона на покупку, к примеру - если Цена ниже или равна цене экстремума LOW для одного периода то возвращаем 1 иначе - 0. дальше, как в примере c NeuronMACD. На продажу - зеркально наоборот.
Жду критики кода и алгоритма.
В вашем случае Функцию активации нейрона можно выкинуть, лишний тормоз.