Обсуждение статьи "Нейросети бесплатно и сердито - соединяем NeuroPro и MetaTrader 5" - страница 5

 
zaskok:

Что касается самой статьи, а не НС в общем. А в чем прикол? Количество подгоняемых коэффициентов сопоставимо с количеством истории.

Давайте возьмем количество коэффициентов равным количеству истории. Думаю, тогда подгонится просто идеально. Не будет ни одной убыточной сделки и выжмет из истори максимум возможного.

Если подходить к построению НС, как к подбору дикого количества коэффициентов, нафиг надо такое добро.

Ваши аргументы были бы справедливы, если бы статья называлась "Создаем Грааль". :)

Но статья совсем не об этом. Так что структура НС полностью адекватна цели статьи и позволяет:

1) четко продемонстрировать этапы создания советника (в частности, отлично заметна разница между точностью работы необученной и обученной сети - такой заметной разницы не было бы, будь в сети всего несколько нейронов);

2) продемонстрировать работу с сетями больших размеров. Все эти манипуляции по массовой замене текста в Блокноте были бы непонятно зачем нужны, если бы в примере была всего пара нейронов. А кто знает, какого размера НС будут строить читатели. А так я их заранее всему научил.

 
Интересно,а форвард за какой период в будущее не льет? Если месяц-уже хорошо.
 
marker:
Интересно,а форвард за какой период в будущее не льет? Если месяц-уже хорошо.
сливать начинает сразу же
 

Большинство трейдунов не могут и не знают как правильно открыть ордер Бай Стоп ...

А при виде подобной статьи  у них будет просто недержание...

 
ds2:

Ваши аргументы были бы справедливы, если бы статья называлась "Создаем Грааль". :)

Но статья совсем не об этом. Так что структура НС полностью адекватна цели статьи и позволяет:

1) четко продемонстрировать этапы создания советника (в частности, отлично заметна разница между точностью работы необученной и обученной сети - такой заметной разницы не было бы, будь в сети всего несколько нейронов);

2) продемонстрировать работу с сетями больших размеров. Все эти манипуляции по массовой замене текста в Блокноте были бы непонятно зачем нужны, если бы в примере была всего пара нейронов. А кто знает, какого размера НС будут строить читатели. А так я их заранее всему научил.

Ваша статья очень полезна для, наконец, трезвого взгляда на НС. Понимания, что логика "умножь и сложи" крайне примитивна, поэтому для приемлемого подгона требует много большего количества входных параметров, чем при более осмысленных подходах.

 

Безусловно, мировой опыт показал, что даже такая простейшая логика может давать замечательные результаты в распознавании конечного количества паттернов - капчи, образы и прочее. Но как требуется оперировать с нескончаемым количеством паттернов (временные ряды), так выходит нечто похожее на то, что и получилось в статье.

 

Если задача была заинтересовать в НС в применении к задачам, не касаемых ВР, но все же на примере ВР, то это несколько странный подход. Но, пожалуй, Ваша статья самая честная про НС. Жаль, никто исходники не смотрит и не понимает сути. Дискуссии НС vs НС ради заполнения внутренней потребности хоть что-то обсудить по теме НС хорошо продемонстрированы некоторыми комментариями к статье.

 

Ну, некоторые код все же читают. С точки зрения полезности статьи для себя лично ставлю 100%.

Даже с позиции "современных" НС, такой подход все равно имеет право на существование.

Если некоторые не видят в коде операций + и *, так что же им вдалбливать-то... статья ориентирована на разработчиков, а не трейдеров (тем более, которые не знают про бай-стопы).

Автору спасибо. Добавил в избранное, т.к. не раз буду возвращаться к этому материалу.

 

O, ёё, страсти то какие....., нейроны,гены ,естественные мутации, искуственные репликкации,с колонией хромосом))  это ж сколько надо знать ,чтобы понять что разводят на классике, а проще нельзя ?

Чем заведует нейросеть если обучишь, характером  пары ? или я что то упустил, если это так ,то дело не стоит потраченных на неё средств и хлопот

 

Я новичек тут)

Статья отличная! (в ней показан интересный подход к вопросу)

Прочитал статью и попробовал со своими параметрами.

Провел не мало экспериментов и буду делать их еще.

Пара мыслей:

Тестировать результаты НС в МТ на том наборе на котором она обучалась НЕЛЬЗЯ (всегда будет хороший результат)

Нужно  брать для обучения и для теста НЕ ПЕРЕСЕКАЮЩИЕСЯ фреймы!

При создании НС кол-во заданных нейронов прямопорционально качеству обучения и времени обучения сети)

Кол-во слоев влияет существенно слабее.

Автору огромное спасибо! 

 
Очень интересная статья, но ни какого отношения к торговле она не имеет.
 
antblack:

Я новичек тут)


При создании НС кол-во заданных нейронов прямопорционально качеству обучения и времени обучения сети)

Кол-во слоев влияет существенно слабее.


Это не верные утверждения.
Причина обращения: