
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
to dentraf
MQL4
to IlyaA
Есть. А также ещё разных авторов порядка 200-300 книг. Только я подумал, что NN и GA самостоятельно освою быстрее, чем прочитаю эту библиотеку. Так и вышло. Быстрее.
Под освоением я имею виду практическое применение, а не владение терминологией.
тогда Хайкин с. 330, глава 4,19 Этой штукой я владею хорошо. Освоишь быстро.Хотел бы посоветовать ещё вот что. Заведите дополнительную популяцию, в которую помещайте лучших особей из каждой эпохи(я называю это "Генофонд Эпохи", или ГЭ). При скрещивании брать особей из текущей популяции и из ГЭ. Таким образом резко сокращается кол-во запусков фф. Не путать этот прием с элитным отбором.
Раскроем суть скрещиваний. Я своих выбираю по вероятности, которая отражает насколько данный перцептрон лучше остальных справился с задачей. Соответственно лучший получит 80%-й шанс поучаствовать в каждой паре, а худший 20% шанс. Так они и живут. Что имеется ввиду касательно твоего метода доп. популяции.Спасибо. Очень подробно. В принципе да, если ты уже несколько раз прогонял алгоритм с разными параметрами, тогда воспользуемся результатами. Значит 200... Хорошо пусть так и будет. Тогда следующий момент. Нужно искать профитную "феньку" (комбинация на свечах и индикаторах) ищем мы ее не глазами, а перцептроном. Типа пускай за нас строит линейно разделимые группы. Критерий для поиска Прибыль => max. Остановка по желанию пользователя. Затем анализ весов и выявление "феньки". Затем нормальный индикатор и система торговли. Довольно сложно, но это на первый взгляд. Ковыряться в весах очень интересно (ну во всяком случае мне). Вопрос :) приходится прогонять историю за 5 лет на свечах + индикаторы (по желанию) через каждую особь, а их стало 200 на каждой популяции. Это ОГРОМНОЕ ресурсопотребление, к тому же неизвестно когда остановимся. Давайте попробуем переформулировать задачу или другим путем сохранить самое важное свойство этой конструкции - выявление "феньки" машиной.
5 лет на каком ТФ? Если М1, то да, долго. Если W1, то очень быстро.
Не нужно делать из сети вундеркинда и пытаться научить сеть всем историческим моментам (профитных фенек). Большинство из них уже никогда не повторятся вновь, ну по крайней мере 99%.
Оптимальным считаю 1000-3000 баров истории. Переучивать, когда ошибка во время работы повысится выше заданного уровня. Хотя на счет количества примеров (баров), существуют разные мнения, возможно, сейчас найдутся люди, которые выступят оппонентами в этом вопросе.
5 лет на каком ТФ? Если М1, то да, долго. Если W1, то очень быстро.
Не нужно делать из сети вундеркинда и пытаться научить сеть всем историческим моментам (профитных фенек). Большинство из них уже никогда не повторятся вновь, ну по крайней мере 99%.
Оптимальным считаю 1000-3000 баров истории. Переучивать, когда ошибка во время работы повысится выше заданного уровня. Хотя на счет количества примеров (баров), существуют разные мнения, возможно, сейчас найдутся люди, которые выступят оппонентами в этом вопросе.
Ну видимо я начну. Почему я предлагаю много баров? Потому что (сам спросил, сам ответил) как было правильно замечено, большинство фенек одноразовые и сеть может "зазубрить" ее. И получится как всегда, на тестируемом интервале шоколадно, на всех остальных - подайте на пропитание. Я предлагаю воспользоваться самым лучшим фильтром одноразовых моментов это их интегрированием. У сетки будет выше шанс изолировать многократно повторяющуюся феньку. Какая идея у тебя?Вчера написал сетку 10-15-10-1
идем дальше...
Ты перцептрон проверял на излишнее обучение (переобучение, зубрешка)?
тогда Хайкин с. 330, глава 4,19 Этой штукой я владею хорошо. Освоишь быстро.Пока нет времени на чтение, возможно прочитаю. Спасибо.
IlyaA писал(а) >>
Раскроем суть скрещиваний. Я своих выбираю по вероятности, которая отражает насколько данный перцептрон лучше остальных справился с задачей. Соответственно лучший получит 80%-й шанс поучаствовать в каждой паре, а худший 20% шанс. Так они и живут. Что имеется ввиду касательно твоего метода доп. популяции.
Да. Потомки этих родителей заносятся в новую популяцию. Остальные особи бесславно дохнут, так и ни разу не испытав любви. :)
Вот в чем заковыка! Мы не знаем, может среди этих, погибших были достойные особи? Ну и что что на вид они уроды, они могли дать новое, сильное поколение.
Подходи к вопросу о GA так, как если бы ты пытался вывести лебедя из мух дрозофил.
Алгоритм такой:
1 Создали популяцию из случайных особей (в большинстве своём - все страшненькие)
2 Определили приспособленность.
3 Скопировали популяцию в генофонд
4 Скрестили особей из популяции и генофонда ( выбрав от туда и оттуда)
5 Поместили новых особей в новую популяцию
6 Определили приспособленность каждой особи
7 Взяли лучших особей из старой популяции и из новой, поместили в генофонд, если они лучше чем в генофонде(заменили)
8 Заменили Старую популяцию особями из новой.
9 повторить с п4
и так до тех пор, пока не перестанут появляться особи, лучше, чем самая лучшая в генофонде.
Пока нет времени на чтение, возможно прочитаю. Спасибо.
Да. Потомки этих родителей заносятся в новую популяцию. Остальные особи бесславно дохнут, так и ни разу не испытав любви. :)
Вот в чем заковыка! Мы не знаем, может среди этих, погибших были достойные особи? Ну и что что на вид они уроды, они могли дать новое, сильное поколение.
Подходи к вопросу о GA так, как если бы ты пытался вывести лебедя из мух дрозофил.
Алгоритм такой:
1 Создали популяцию из случайных особей (в большинстве своём - все страшненькие)
2 Определили приспособленность.
3 Скопировали популяцию в генофонд
4 Скрестили особей из популяции и генофонда ( выбрав от туда и оттуда)
5 Поместили новых особей в новую популяцию
6 Определили приспособленность каждой особи
7 Взяли лучших особей из старой популяции и из новой, поместили в генофонд, если они лучше чем в генофонде(заменили)
8 Заменили Старую популяцию особями из новой.
9 повторить с п4
и так до тех пор, пока не перестанут появляться особи, лучше, чем самая лучшая в генофонде.
Ок. буду дожидаться :) Это очень напоминает лучевой поиск. Я сравнивал работу алгоритма лучевого поиска с вероятностным скрещиванием. Результаты оказались лучше (меньше популяций) у вероятностного скрещивания. Однако, если ты его пользуешь существует высокая вероятность его хорошей работы. Нужно провести эксперимент. Как ты на это смотришь. Допустим на XOR?
Ну видимо я начну. Почему я предлагаю много баров? Потому что (сам спросил, сам ответил) как было правильно замечено, большинство фенек одноразовые и сеть может "зазубрить" ее. И получится как всегда, на тестируемом интервале шоколадно, на всех остальных - подайте на пропитание. Я предлагаю воспользоваться самым лучшим фильтром одноразовых моментов это их интегрированием. У сетки будет выше шанс изолировать многократно повторяющуюся феньку. Какая идея у тебя?Думай о NN так же, как если бы ты думал о своем мозге. Как это будешь "интегрировать"? Представь, что ты разбираешься в живописи. Может быть и на самом деле разбираешься.
Так вот, ты знаешь характерные приемы известных мастеров (прибыльные фичи). Теперь склей работы всех известных мастеров в фотожопе в один слой. Найдёш хоть одну тебе известную фичу хоть одного известного автора? Сомневаюсь. Так и NN.
Думай о NN так же, как если бы ты думал о своем мозге. Как это будешь "интегрировать"? Представь, что ты разбираешься в живописи. Может быть и на самом деле разбираешься.
Так вот, ты знаешь характерные приемы известных мастеров (прибыльные фичи). Теперь склей работы всех известных мастеров в фотожопе в один слой. Найдёш хоть одну тебе известную фичу хоть одного известного автора? Сомневаюсь. Так и NN.
Что такое интегрирование шума? (Опять сам спросил сам ответил :) Имеем случайную величину m(t) распределенную равномерно на интервале [-1; 1]. Соответственно мат. ожидание = 0. Чудесно. Также имеем Сигнал s(t) сложной конфигурации. Амплитуда сигнала и шума имеют сопостовимые значения. Задача выделить s(t) из s(t) + m(t) при условии, что можно повторить s(t) + m(t) неограниченное количество раз. Помехи каждый раз будут новые, кривая сигнала будет сильно отличаться от предыдущей кривой. Поступают на удивление просто: находят среднее значение сигнала s(t) + m(t) за 1000 повторений. При этом помеха, которая имела 0 мат.ожидание была проинтегрирована и удалена. Чем большее количество раз мы сможем усреднить сигнал s(t) + m(t), тем меньше помех останется. Вот моя идея еще раз более подробно.
Чтобы ограничить сеть от выискивания всех фенек за раз (назовем это эффектом абстракционизма :), мы уменьшим количество нейрончиков, т.о. получим выигрыш в обобщающей способности сети и невозможности выучивания перцептроном большого количества матерала. Мы нацелим сеть на поиск только одной, но самой профитной феньке на данных. Что думаешь?