Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Привет, Ли,
Я обновил статью, добавив 2 демо-файла. Один для MQL5 и один для MQL4. DeepNeuralNetwork.mqh можно использовать как для mql5, так и для mql4.
В любом случае, я прикрепляю эти файлы здесь, чтобы показать, как их использовать.
Дайте мне знать, если у вас есть еще вопросы.
Спасибо за коды, которыми вы поделились. Пытался понять ваш способ.
У меня есть некоторые сомнения по поводу yValues[0], yValues[1], yValues[2], так как они НЕ меняются и всегда 0 ,33333, но_xValues[1,2,3] меняются с новым баром; поэтому, если торговля основана на yValues, я не видел НИКАКОЙ ТОРГОВЛИ, в то время как ТОРГОВЛЯ ИСЧЕЗАЕТ, когда условия основаны на _xValues.
Это моя ошибка или просто ошибка кодирования в вашем оригинальном коде?
Обновите следующую функцию, чтобы она возвращала `bool` вместо `void`, и вы увидите, что было задано неправильное количество весов.
Обратите внимание, что вам также необходимо обновлять веса поверх файла (недостаточно обновлять их только при инициализации сети :P
большое спасибо
Красивая анимация.
Двухслойная нейросеть - "мелкая" нейросеть, никак не глубокая. К глубоким нейросетям относятся сети с количеством скрытых слоев больше трех. В связи с особенностями обучения таких нейросетей были разработаны методы глубокого обучения.
Статья как пример программирования на МКЛ наверное полезна. Для ознакомления с темой MLP- безусловно нужная. Как пример применения нейросети - не полная и далеко отстающая от текущего состояния темы.
Как правило без оптимизации гиперпараметров нейросеть не дает удовлетворительного качества.
Мне только не понятно зачем строить велосипед из подручных средств, если есть море готовых программ по этой теме?
Поправка. В статье есть определение глубокой сети. Я не увидел ее.
Процесс оптимизации весов нейросети с помощью генетики не является в прямом смысле "обучением". Это все таки оптимизация. При обучении используются совсем другие методы. Хотя и такой вариант использования нейросети практикуется и довольно успешно.
Для понимания работы нейросети как раз важно понять как происходит обучение нейросети обратным распространением ошибки. Ну это я уже придираюсь :)
Удачи
как то можно в эту сеть встроить обратное распространение ошибки?
почему то есть мнение, что такая сеть более гибко бы настраивалась и предоставляла лучшие входа - выхода...
ведь Сеть с обратным распространением ошибки - это же ведь не совсем другие сети?