Чемпионат Алгоритмов Оптимизации. - страница 134

 
Andrey Dik #:
привет! поясните, пожалуйста, что имеете ввиду?

в тестере МТ4-5 стоит обычный переборщик данных.

Это нужно только для торговли по ценам открытия.

Предполагаю.

Но надо сделать обучение - сначала хаотично много- очень много, и потом начинать с лучших резов.

Как это бывает обычно в нейросети.

Но это должно быть многократно-цикличным, чтобы выскребать возможности EA.

Как-бы. В тестере стоят максимум десятка лифтов, а их должно быть 1000 минимум. И этажей 1000. Минимум.
 

тестер наш в мт4 напоминает кино "ПЛАТФОРМА"...

 
Alexander Ivanov #:

в тестере МТ4-5 стоит обычный переборщик данных.

Это нужно только для торговли по ценам открытия.

Предполагаю.

Но надо сделать обучение - сначала хаотично много- очень много, и потом начинать с лучших резов.

Как это бывает обычно в нейросети.

Но это должно быть многократно-цикличным, чтобы выскребать возможности EA.

Как-бы. В тестере стоят максимум десятка лифтов, а их должно быть 1000 минимум. И этажей 1000. Минимум.

ну, в оптимизаторе МТ5 присутствует генетика, а не только "переборщик".

алгоритмы в статьях открытые и полностью готовые для интеграции в пользовательские решения, как то самооптимизация советников и обучение нейронок. ограничений никаких нет в алгоритмах, ни на количество оптимизируемых параметров ни на диапазон ни на шаг.

алгоритмы никак не связаны с тестером МТ4/5, это готовые самодостаточные решения. коды предельно просты и могут в считанные минуты переписаны на любой другой язык и включены в состав любых пользовательских решений.

 
Хотелось бы попробовать все эти способы оптимизации в Метатрейдере.
Когда разработчики вставят эти коды для выбора оптимизации советников
 
Dmitiry Ananiev #:
Хотелось бы попробовать все эти способы оптимизации в Метатрейдере.
Когда разработчики вставят эти коды для выбора оптимизации советников

хороший вопрос. наврядли стоит ждать в скором времени, что будет интегрирована хотя бы часть алгоритмов в терминал из тех, что существуют уже. а появляются новых наверное каждый год по крайней мере несколько штук))
но, совершенно ясно одно - мир оптимизации безграничен, это значит, что завтра кто то получит результат хоть немного, но раньше и лучше, чем "ты" сегодня. уверен ли кто то прямо сейчас, что использует лучшее решение из тех, которое ему доступно? - риторический вопрос.
штатный оптимизатор - это законченное и очень крутое решение для большинства пользователей, хоть он и не проходит тесты полностью, но он удовлетворяет потребности большинства. но, есть mql5, который позволяет решать любые задачи, в том числе и те, которые не решались "вчера". что поразительно, но есть реальные свидетельства, что на данный момент итоговая оценка в тестах некоторых гибридных алгоритмов составляет 0.57.
что ещё более поразительно, что скорее всего есть алгоритмы которые имеют ещё более высокие характеристики, что значит ещё более высокое качество оптимизации, более высокое качество обучения нейросетей, ещё более быстрое получение решения в итоге.
 

Добрый день!

Прошло 7 лет и настало время, когда алгоритмы оптимизации стали играть ещё более важную роль как никогда ранее в машинном обучении и разработоках систем с ИИ. Современные модели генеративных сетей имеют десятки миллионов, и даже, миллиарды оптимизируемых параметров, что даёт просто чудовищное количество степеней свободы, используются для обучения самые мощные суперкомпьютеры и всё равно затрачивается от нескольких дней до месяца и больше, в зависимости от объема обучающих данных. Применение продвинутых алгоритмов оптимизации позволяет сократить время и повысить качество обучения и существенно экономить на потребляемой электроэнергии.

Предлагаю открытое соревнование всем желающим, здесь будут представлены шаблоны кодов, что бы продемонстрировать способ обращения к библиотеке с закрытой (неизвестной) фитнес функцией. Победит тот, кто за 10000 обращений к библиотеке сможет найти наибольшее возвращаемое библиотекой значение. Для затравки интереса будем искать максимум секретной функции с 1 000 000 (один миллион) параметров.

Всё очень просто, кто найдёт максимум, тому хвала и почет.

Участник может использовать любой известный или самодельный алгоритм оптимизации, ограничений нет, задача: найти значение фф больше, чем остальные участники.

Дополнительный нюанс: минимальный шаг каждого из миллиона параметров 0,0000'0000'0000'0001. Вот такая вот задача. Будем её решать.
 

Было в ветке несколько человек, кто готовил свои алгоритмы для соревнования.

"Оседлайте своих благородных алгоритмов, смелые рыцари оптимизации, и покажите миру мощь вашего интеллекта и искусства!"

 

Если в роботе присутствуют параметры, которые нужно оптимизировать - это явная недоработка стратегии.

Оптимизация по сути - подгонка.

 
Renat Akhtyamov #:

Если в роботе присутствуют параметры, которые нужно оптимизировать - это явная недоработка стратегии.

Оптимизация по сути - подгонка.


если удастся научить гипотетическую сеть с миллионом параметров торговать так, как это делают успешные ручники, принимать взвешенные торговые решения учитывая рыночную ситуацию и филигранным управлением капиталом - это замечательная подгонка и я, например, хотел бы достичь этого.
сегодня уже не вчера, когда мучили параметры трёх "машек", боясь при этом попасть в подгонку.
 

На текущий момент опубликованы 16 алгоритмов оптимизации с очень разными стратегиями поиска из категории популяционных. Участники соревнования вполне могут взять один из них и участвовать в битве, всё равно никто не узнает какой именно алгоритм использовал участник (если конечно он сам не раскроет алго после соревнования).

Кроме популяционных в ближайшее время планирую разобрать иные типы алго, применяемых в обучении нейросетей, таких как ChatGPT, в частности очень интересно рассмотреть ADAM и SGD (применяются для ChatGPT).

Причина обращения: