MetaTrader 5 Strategy Tester! - страница 91

 
Renat Fatkhullin:

Первую и последнюю выкиньте - натягиваете сову на глобус же.

И что за нулевой шаг и зачем он нужен?

Не буду выкидывать. Это те самые главные причины, по которым мне пришлось писать свой алгоритм больше 6-ти лет назад, понимаете, свой. Я не стал использовать доступные повсеместно алгоритмы. Я не намерен терпеть ограничения алгоритма, когда у меня есть в чемодане нерешённые задачи.

Нулевой шаг бывает очень нужен, когда неизвестно частота ФФ, при шаге отличным от 0 бывает невозможно найти глобальный экстремум. 

 
fxsaber:

Не первый, кто просит от Вас пример адекватной ФФ.

У меня нет времени ковырять ФФ функцию. Я сделал два варианта и получил гораздо лучший разультат в 46 символов.

То, что предложил Андрей в качестве фитнеса(+1 на совпадении), выглядит очень плохо. Но при этом он утверждает, что такая функция позволяет ему дойти почти до идеала. Я в универсальную чистоту не верю, но в явную подгонку под специфику мат функций верю. Запросто можно себя обмануть закладками.


1.5мс без фарша vs 50-70 секунд с полным фаршем. Кто считает себя здравым, сделайте выбор.

Вы читаете, что я пишу?

Хотите играться в далекие от жизни задачи и радоваться запуску одной функции в простейшем цикле - вперед. Но в реальности любой пользователь пошлет в далекое путешествие, если ему предложат такой метод работы.

 
fxsaber:
Можно ли считать оптимизационную задачу нахождения максимума функции решенной приблизительно, если находится локальный экстремум, хуже миллионов-триллионов точек функции? И если да, то что этот один из тучи может дать?

Во первых, выше я показал, что второй итерацией ФФ (+1 + MathSqrt(i+1)) я получил результат в 46 найденных символов из 50.  Поэтому ваше сравнение устарело. Там нет никаких триллионов.

Во вторых, да. Задача ГА - быстро найти среди бесконечного поля приемлемые результаты. И при наличии слабой ФФ (и без подстройки алгоритма ГА под эту задачу) вы просто не доберетесь до идеала.

 
Renat Fatkhullin:

У меня нет времени ковырять ФФ функцию.

Но то, что предложил Андрей в качестве фитнеса(+1 на совпадении), выглядит очень плохо. Но при этом он утверждает, что такая функция позволяет ему дойти почти до идеала. Я в универсальную чистоту не верю, но в явную подгонку по специфику мат функций верю. Запросто можно себя обмануть закладками.

 Опять Вы про закладки? Да что же это такое то...

Поручите кому нибудь, специалисту из MQ, Quantum например, разобраться с вопросом если у Вас не хватает времени (это понятно). Я тестирую Ваш оптимизатор и привожу результаты. А Вы тестировали мой алгоритм? У Вас есть подтверждение наличия закладок в моём алгоритме? - это же голословное обвинение. 

 
Andrey Dik:

Не буду выкидывать. Это те самые главные причины, по которым мне пришлось писать свой алгоритм больше 6-ти лет назад, понимаете, свой. Я не стал использовать доступные повсеместно алгоритмы. Я не намерен терпеть ограничения алгоритма, когда у меня есть в чемодане нерешённые задачи.

Докажите оба утверждения, пожалуйста.

 
Renat Fatkhullin:

Докажите оба утверждения, пожалуйста.

Какие именно?
И докажите наличие закладок в алгоритме, пожалуйста. 

 
Andrey Dik:


Поручите кому нибудь, специалисту из MQ, Quantum например, разобраться с вопросом если у Вас не хватает времени (это понятно). Я тестирую Ваш оптимизатор и привожу результаты. А Вы тестировали мой алгоритм? У Вас есть подтверждение наличия закладок в моём алгоритме? - это же голословное обвинение. 

Я столько видел самообмана, что меня не удивит ничего.

Вы делаете вид, что не видите вопроса "как при заведомо слабой ФФ, а ФФ - это основа движения процесса ГА, получили хорошие результаты"?

Ок, вы утверждаете, что у вас ГА, которому можно подсунуть вводящую в заблуждение ФФ. А мое мнение, что это возможно только при серьезной подстройке под целевые алгоритмы. Например, заложить знание нескольких классов задач.

 
Andrey Dik:
Какие именно?

Первое - "работа с параметрами в виде чисел double в диапазоне [-DBL_MAX; DBL_MAX]" и второе - "отсутствие требования "гладкости" к ФФ".

Доказательство того, что этого нет в штатном ГА.


Я так понимаю, что совсем в отрыв пошли с игнором требований к ФФ.

 
Renat Fatkhullin:

Я столько видел самообмана, что меня не удивит ничего.

1. Вы делаете вид, что не видите вопроса "как при заведомо слабой ФФ, а ФФ - это основа движения процесса ГА, получили хорошие результаты"?

2. Ок, вы утверждаете, что у вас ГА, которому можно подсунуть вводящую в заблуждение ФФ. А мое мнение, что это возможно только при серьезной подстройке под целевые алгоритмы. Например, заложить знание нескольких классов задач.

1. Я же говорил уже. У моего алгоритма и классического ГА мало общего. У меня вероятностный подход к выбору родителей, вероятностный подход к операторам, это уже можно сказать и не ГА, у алгоритма нет недостатков класического ГА - требование к гладкости ФФ, отсюда результаты выше чем у Вашего классического бинароного ГА. Моему без разницы, дискретная функция, гладкая ли - будет искать. Будет рыть но что то найдет. А вот Вы ссылаетесь на занятость и не хотите представить функцию, которая бы выгодно отличала Ваш алгоритм. Так покажите задачу, что бы подчеркнуть достоинства штатного ГА, неужели я могу знать всё на свете и заложить всё в алгоритм? Я далеко не гений и уж совсем не бог что бы мочь это сделать.

2. Всё я заложить не в состоянии в алгоритм, это невозможно. Это равносильно знанию ответов на все вопросы. Но успех кроется в подходе к решению задач, нет никаких привязок к гладкости ФФ, в этом и причина робастности алгоритма. 

 
Renat Fatkhullin:

1. Первое - "работа с параметрами в виде чисел double в диапазоне [-DBL_MAX; DBL_MAX]" и

2. второе - "отсутствие требования "гладкости" к ФФ".

Доказательство того, что этого нет в штатном ГА.

Я так понимаю, что совсем в отрыв пошли с игнором требований к ФФ.

1. В этом легко убедится, достаточно открыть советник в тестере и попробовать ввести такие граничные условия.

2. Это Вы сами заявляете, Ваш алгоритм чувствителен к гладкости. Мой - нет, это я продемонстрировал. 

Причина обращения: