Советники: PROphet - страница 3

 

khorosh писал(а):

Такова особенность генетического алгоритма.


... получил определённые результаты при первом оптимизировании - после последующих нескольких раз оптимизации так и не получил те самые результаты!

Есть вообще возможность как-то  эту "особенность генетического алгоритма" исправить, ну или как-то другим методом обойти...???

Поправте если не прав, но смысл такой оптимизации если в результатах не все прогоны присутствуют??? (естественно речь не о незначительной разнице, а о весьма ощутимом различии)

 
noahbread:


Есть вообще возможность как-то  эту "особенность генетического алгоритма" исправить, ну или как-то другим методом обойти...???

Поправте если не прав, но смысл такой оптимизации если в результатах не все прогоны присутствуют??? (естественно речь не о незначительной разнице, а о весьма ощутимом различии)

кажется,есть выход из этой ситуации:
первую оптимизацию провести с ГА,а все последующие оптимизации с шагом  +или- 5 провести при
отключенном ГА.
 

budimir писал(а):

кажется,есть выход из этой ситуации:

первую оптимизацию провести с ГА,а все последующие оптимизации с шагом  +или- 5 провести при
отключенном ГА.

из того что я выяснил по этому вопросу - обучать нейро в МТ маразм, те результаты которые даст ГА ОООЧЕНЬ сомнительны, понятно что и прямым перебором не выйдет - тупо здохнем все раньше...

обучать сиё чудо нужно не в МТ и впринципе не перебором...

хорошо бы услышать автора- PraVedNiK рассуди, ты то уж точно должен знать минусы ГА.

 
noahbread:

budimir писал(а):

кажется,есть выход из этой ситуации:

первую оптимизацию провести с ГА,а все последующие оптимизации с шагом +или- 5 провести при
отключенном ГА.

из того что я выяснил по этому вопросу - обучать нейро в МТ маразм, те результаты которые даст ГА ОООЧЕНЬ сомнительны, понятно что и прямым перебором не выйдет - тупо здохнем все раньше...

обучать сиё чудо нужно не в МТ и впринципе не перебором...

хорошо бы услышать автора- PraVedNiK рассуди, ты то уж точно должен знать минусы ГА.

при отключенном ГА,если проводить оптимизацию в диапазоне "+" или "-" 5 пипок, мой старенький одно-ядерный ноут думает около 1ч.50мин.,

подозреваю,если это делать в выходные дни /для будущей недели/,то мы все выживем,и ещё успеем "Субботний вечер" посмотреть.

 
PraVedNiK:
noahbread:

budimir писал(а):

кажется,есть выход из этой ситуации:

первую оптимизацию провести с ГА,а все последующие оптимизации с шагом +или- 5 провести при
отключенном ГА.

из того что я выяснил по этому вопросу - обучать нейро в МТ маразм, те результаты которые даст ГА ОООЧЕНЬ сомнительны, понятно что и прямым перебором не выйдет - тупо здохнем все раньше...

обучать сиё чудо нужно не в МТ и впринципе не перебором...

хорошо бы услышать автора- PraVedNiK рассуди, ты то уж точно должен знать минусы ГА.

при отключенном ГА,если проводить оптимизацию в диапазоне "+" или "-" 5 пипок, мой старенький одно-ядерный ноут думает около 1ч.50мин.,

подозреваю,если это делать в выходные дни /для будущей недели/,то мы все выживем,и ещё успеем "Субботний вечер" посмотреть.

так вопрос не про +\- 5 оптимизацию - и больше выживем, а про то какие именно коэфы мы получаем при оптим ГА - т.е. речь о сомнительности именно первоначальных параметров, кот выдаёт ГА и о том что они явно не лучшие...

если не составит труда отпиши плиз в аську 179853303...

 
noahbread:
PraVedNiK:
noahbread:

budimir писал(а):

кажется,есть выход из этой ситуации:

первую оптимизацию провести с ГА,а все последующие оптимизации с шагом +или- 5 провести при
отключенном ГА.

из того что я выяснил по этому вопросу - обучать нейро в МТ маразм, те результаты которые даст ГА ОООЧЕНЬ сомнительны, понятно что и прямым перебором не выйдет - тупо здохнем все раньше...

обучать сиё чудо нужно не в МТ и впринципе не перебором...

хорошо бы услышать автора- PraVedNiK рассуди, ты то уж точно должен знать минусы ГА.

при отключенном ГА,если проводить оптимизацию в диапазоне "+" или "-" 5 пипок, мой старенький одно-ядерный ноут думает около 1ч.50мин.,

подозреваю,если это делать в выходные дни /для будущей недели/,то мы все выживем,и ещё успеем "Субботний вечер" посмотреть.

так вопрос не про +\- 5 оптимизацию - и больше выживем, а про то какие именно коэфы мы получаем при оптим ГА - т.е. речь о сомнительности именно первоначальных параметров, кот выдаёт ГА и о том что они явно не лучшие...

если не составит труда отпиши плиз в аську 179853303...

в этом как раз и заключается вся фишка - откатываемся на пол-года назад и делаем первую оптимизацию с ГА,пускай результаты будут НЕдостоверные,

но следующие оптимизации делаем без ГА / в диапазоне "+" или "-" 5 пипок/ и ТС постепенно,через несколько недель доползёт до достоверного "холмика".

 

Прокатал по историии нескольких пар - пока тренд (днёвки,4-х часовки) сохраняется - то в плюсе; во флёте - нет; перемена тренда (в понедельник) сожрёт весь предыдущий навар.

Но код - просто вышка! Такое поле непаханное! ОГРОМЕННЫЙ РЕСПЕКТ. Если б ещё дни недели вставить...

polopolo2006(гав)yandex.ru

 
polopolo:

Прокатал по историии нескольких пар - пока тренд (днёвки,4-х часовки) сохраняется - то в плюсе; во флёте - нет; перемена тренда (в понедельник) сожрёт весь предыдущий навар.

Но код - просто вышка! Такое поле непаханное! ОГРОМЕННЫЙ РЕСПЕКТ. Если б ещё дни недели вставить...

polopolo2006(гав)yandex.ru

Да,Вы верно заметили,что здесь - поле непаханное,деятельность советников такого типа сильно зависит от дня недели а также от входных признаков в перцептроне,чтобы понять особенности такого советника - забавно проверить такой перцептрон:



double Qu (int q1,int q2,int q3,int q4) {return ((q1-100)*(Open[0]-Open[q3])+(q2-100)*(Open[0]-Open[q4]));}

где параметры q1,q2,q3,q4 - подлежат оптимизации.

 

Здравствуйте! Советник очень понравился. Возникло несколько вопросов: 1. Что такое перцептрон? 2. Какой физически смысл этой строчки return ((q1-100)*MathAbs(High[1]-Low[2])+ (q2-100)*MathAbs(High[3]-Low[2])+ (q3-100)*MathAbs(High[2]-Low[1])+ (q4-100)*MathAbs(High[2]-Low[3])); Это просто функция от Low и High последних 3-x свечей? 3. Совсем не понятна следеующая строчка int sprb = MarketInfo(Symbol(), MODE_SPREAD)+2*slb;

 

AndreyK
писал(а):

Возникло несколько вопросов: 1. Что такое перцептрон?

1. Перцептрон-это разделительная линия между классами,а веса-координаты этой


линии. Подробнее и д е о л о г и ю линейного перцептостроения можно прочитать


в этой замечательной статье: http://articles.mql4.com/ru/289

Причина обращения: