Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
привет! поясните, пожалуйста, что имеете ввиду?
в тестере МТ4-5 стоит обычный переборщик данных.
Это нужно только для торговли по ценам открытия.
Предполагаю.
Но надо сделать обучение - сначала хаотично много- очень много, и потом начинать с лучших резов.
Как это бывает обычно в нейросети.
Но это должно быть многократно-цикличным, чтобы выскребать возможности EA.
Как-бы. В тестере стоят максимум десятка лифтов, а их должно быть 1000 минимум. И этажей 1000. Минимум.тестер наш в мт4 напоминает кино "ПЛАТФОРМА"...
в тестере МТ4-5 стоит обычный переборщик данных.
Это нужно только для торговли по ценам открытия.
Предполагаю.
Но надо сделать обучение - сначала хаотично много- очень много, и потом начинать с лучших резов.
Как это бывает обычно в нейросети.
Но это должно быть многократно-цикличным, чтобы выскребать возможности EA.
Как-бы. В тестере стоят максимум десятка лифтов, а их должно быть 1000 минимум. И этажей 1000. Минимум.ну, в оптимизаторе МТ5 присутствует генетика, а не только "переборщик".
алгоритмы в статьях открытые и полностью готовые для интеграции в пользовательские решения, как то самооптимизация советников и обучение нейронок. ограничений никаких нет в алгоритмах, ни на количество оптимизируемых параметров ни на диапазон ни на шаг.
алгоритмы никак не связаны с тестером МТ4/5, это готовые самодостаточные решения. коды предельно просты и могут в считанные минуты переписаны на любой другой язык и включены в состав любых пользовательских решений.
Когда разработчики вставят эти коды для выбора оптимизации советников ?
Хотелось бы попробовать все эти способы оптимизации в Метатрейдере.
Когда разработчики вставят эти коды для выбора оптимизации советников ?
Добрый день!
Прошло 7 лет и настало время, когда алгоритмы оптимизации стали играть ещё более важную роль как никогда ранее в машинном обучении и разработоках систем с ИИ. Современные модели генеративных сетей имеют десятки миллионов, и даже, миллиарды оптимизируемых параметров, что даёт просто чудовищное количество степеней свободы, используются для обучения самые мощные суперкомпьютеры и всё равно затрачивается от нескольких дней до месяца и больше, в зависимости от объема обучающих данных. Применение продвинутых алгоритмов оптимизации позволяет сократить время и повысить качество обучения и существенно экономить на потребляемой электроэнергии.
Предлагаю открытое соревнование всем желающим, здесь будут представлены шаблоны кодов, что бы продемонстрировать способ обращения к библиотеке с закрытой (неизвестной) фитнес функцией. Победит тот, кто за 10000 обращений к библиотеке сможет найти наибольшее возвращаемое библиотекой значение. Для затравки интереса будем искать максимум секретной функции с 1 000 000 (один миллион) параметров.
Всё очень просто, кто найдёт максимум, тому хвала и почет.
Участник может использовать любой известный или самодельный алгоритм оптимизации, ограничений нет, задача: найти значение фф больше, чем остальные участники.
Дополнительный нюанс: минимальный шаг каждого из миллиона параметров 0,0000'0000'0000'0001. Вот такая вот задача. Будем её решать.Было в ветке несколько человек, кто готовил свои алгоритмы для соревнования.
"Оседлайте своих благородных алгоритмов, смелые рыцари оптимизации, и покажите миру мощь вашего интеллекта и искусства!"
Если в роботе присутствуют параметры, которые нужно оптимизировать - это явная недоработка стратегии.
Оптимизация по сути - подгонка.
Если в роботе присутствуют параметры, которые нужно оптимизировать - это явная недоработка стратегии.
Оптимизация по сути - подгонка.
На текущий момент опубликованы 16 алгоритмов оптимизации с очень разными стратегиями поиска из категории популяционных. Участники соревнования вполне могут взять один из них и участвовать в битве, всё равно никто не узнает какой именно алгоритм использовал участник (если конечно он сам не раскроет алго после соревнования).
Кроме популяционных в ближайшее время планирую разобрать иные типы алго, применяемых в обучении нейросетей, таких как ChatGPT, в частности очень интересно рассмотреть ADAM и SGD (применяются для ChatGPT).