Гибридные нейросети. - страница 4

 
joo >>:

to dentraf

MQL4

to IlyaA

Есть. А также ещё разных авторов порядка 200-300 книг. Только я подумал, что NN и GA самостоятельно освою быстрее, чем прочитаю эту библиотеку. Так и вышло. Быстрее.

Под освоением я имею виду практическое применение, а не владение терминологией.


тогда Хайкин с. 330, глава 4,19 Этой штукой я владею хорошо. Освоишь быстро.
 
joo >>:

Хотел бы посоветовать ещё вот что. Заведите дополнительную популяцию, в которую помещайте лучших особей из каждой эпохи(я называю это "Генофонд Эпохи", или ГЭ). При скрещивании брать особей из текущей популяции и из ГЭ. Таким образом резко сокращается кол-во запусков фф. Не путать этот прием с элитным отбором.


Раскроем суть скрещиваний. Я своих выбираю по вероятности, которая отражает насколько данный перцептрон лучше остальных справился с задачей. Соответственно лучший получит 80%-й шанс поучаствовать в каждой паре, а худший 20% шанс. Так они и живут. Что имеется ввиду касательно твоего метода доп. популяции.
 
IlyaA >>:
Спасибо. Очень подробно. В принципе да, если ты уже несколько раз прогонял алгоритм с разными параметрами, тогда воспользуемся результатами. Значит 200... Хорошо пусть так и будет. Тогда следующий момент. Нужно искать профитную "феньку" (комбинация на свечах и индикаторах) ищем мы ее не глазами, а перцептроном. Типа пускай за нас строит линейно разделимые группы. Критерий для поиска Прибыль => max. Остановка по желанию пользователя. Затем анализ весов и выявление "феньки". Затем нормальный индикатор и система торговли. Довольно сложно, но это на первый взгляд. Ковыряться в весах очень интересно (ну во всяком случае мне). Вопрос :) приходится прогонять историю за 5 лет на свечах + индикаторы (по желанию) через каждую особь, а их стало 200 на каждой популяции. Это ОГРОМНОЕ ресурсопотребление, к тому же неизвестно когда остановимся. Давайте попробуем переформулировать задачу или другим путем сохранить самое важное свойство этой конструкции - выявление "феньки" машиной.

5 лет на каком ТФ? Если М1, то да, долго. Если W1, то очень быстро.

Не нужно делать из сети вундеркинда и пытаться научить сеть всем историческим моментам (профитных фенек). Большинство из них уже никогда не повторятся вновь, ну по крайней мере 99%.

Оптимальным считаю 1000-3000 баров истории. Переучивать, когда ошибка во время работы повысится выше заданного уровня. Хотя на счет количества примеров (баров), существуют разные мнения, возможно, сейчас найдутся люди, которые выступят оппонентами в этом вопросе.

 
joo >>:

5 лет на каком ТФ? Если М1, то да, долго. Если W1, то очень быстро.

Не нужно делать из сети вундеркинда и пытаться научить сеть всем историческим моментам (профитных фенек). Большинство из них уже никогда не повторятся вновь, ну по крайней мере 99%.

Оптимальным считаю 1000-3000 баров истории. Переучивать, когда ошибка во время работы повысится выше заданного уровня. Хотя на счет количества примеров (баров), существуют разные мнения, возможно, сейчас найдутся люди, которые выступят оппонентами в этом вопросе.


Ну видимо я начну. Почему я предлагаю много баров? Потому что (сам спросил, сам ответил) как было правильно замечено, большинство фенек одноразовые и сеть может "зазубрить" ее. И получится как всегда, на тестируемом интервале шоколадно, на всех остальных - подайте на пропитание. Я предлагаю воспользоваться самым лучшим фильтром одноразовых моментов это их интегрированием. У сетки будет выше шанс изолировать многократно повторяющуюся феньку. Какая идея у тебя?
 
gumgum >>:

Вчера написал сетку 10-15-10-1

идем дальше...


Ты перцептрон проверял на излишнее обучение (переобучение, зубрешка)?
 
IlyaA >>:


тогда Хайкин с. 330, глава 4,19 Этой штукой я владею хорошо. Освоишь быстро.

Пока нет времени на чтение, возможно прочитаю. Спасибо.

IlyaA писал(а) >>

Раскроем суть скрещиваний. Я своих выбираю по вероятности, которая отражает насколько данный перцептрон лучше остальных справился с задачей. Соответственно лучший получит 80%-й шанс поучаствовать в каждой паре, а худший 20% шанс. Так они и живут. Что имеется ввиду касательно твоего метода доп. популяции.

Да. Потомки этих родителей заносятся в новую популяцию. Остальные особи бесславно дохнут, так и ни разу не испытав любви. :)

Вот в чем заковыка! Мы не знаем, может среди этих, погибших были достойные особи? Ну и что что на вид они уроды, они могли дать новое, сильное поколение.

Подходи к вопросу о GA так, как если бы ты пытался вывести лебедя из мух дрозофил.

Алгоритм такой:

1 Создали популяцию из случайных особей (в большинстве своём - все страшненькие)

2 Определили приспособленность.

3 Скопировали популяцию в генофонд

4 Скрестили особей из популяции и генофонда ( выбрав от туда и оттуда)

5 Поместили новых особей в новую популяцию

6 Определили приспособленность каждой особи

7 Взяли лучших особей из старой популяции и из новой, поместили в генофонд, если они лучше чем в генофонде(заменили)

8 Заменили Старую популяцию особями из новой.

9 повторить с п4

и так до тех пор, пока не перестанут появляться особи, лучше, чем самая лучшая в генофонде.

 
Млин, пока я пишу пост, ты пишешь три!, угомонись немного :)
 
joo >>:

Пока нет времени на чтение, возможно прочитаю. Спасибо.

Да. Потомки этих родителей заносятся в новую популяцию. Остальные особи бесславно дохнут, так и ни разу не испытав любви. :)

Вот в чем заковыка! Мы не знаем, может среди этих, погибших были достойные особи? Ну и что что на вид они уроды, они могли дать новое, сильное поколение.

Подходи к вопросу о GA так, как если бы ты пытался вывести лебедя из мух дрозофил.

Алгоритм такой:

1 Создали популяцию из случайных особей (в большинстве своём - все страшненькие)

2 Определили приспособленность.

3 Скопировали популяцию в генофонд

4 Скрестили особей из популяции и генофонда ( выбрав от туда и оттуда)

5 Поместили новых особей в новую популяцию

6 Определили приспособленность каждой особи

7 Взяли лучших особей из старой популяции и из новой, поместили в генофонд, если они лучше чем в генофонде(заменили)

8 Заменили Старую популяцию особями из новой.

9 повторить с п4

и так до тех пор, пока не перестанут появляться особи, лучше, чем самая лучшая в генофонде.




Ок. буду дожидаться :) Это очень напоминает лучевой поиск. Я сравнивал работу алгоритма лучевого поиска с вероятностным скрещиванием. Результаты оказались лучше (меньше популяций) у вероятностного скрещивания. Однако, если ты его пользуешь существует высокая вероятность его хорошей работы. Нужно провести эксперимент. Как ты на это смотришь. Допустим на XOR?
 
IlyaA >>:


Ну видимо я начну. Почему я предлагаю много баров? Потому что (сам спросил, сам ответил) как было правильно замечено, большинство фенек одноразовые и сеть может "зазубрить" ее. И получится как всегда, на тестируемом интервале шоколадно, на всех остальных - подайте на пропитание. Я предлагаю воспользоваться самым лучшим фильтром одноразовых моментов это их интегрированием. У сетки будет выше шанс изолировать многократно повторяющуюся феньку. Какая идея у тебя?

Думай о NN так же, как если бы ты думал о своем мозге. Как это будешь "интегрировать"? Представь, что ты разбираешься в живописи. Может быть и на самом деле разбираешься.

Так вот, ты знаешь характерные приемы известных мастеров (прибыльные фичи). Теперь склей работы всех известных мастеров в фотожопе в один слой. Найдёш хоть одну тебе известную фичу хоть одного известного автора? Сомневаюсь. Так и NN.

 
joo >>:

Думай о NN так же, как если бы ты думал о своем мозге. Как это будешь "интегрировать"? Представь, что ты разбираешься в живописи. Может быть и на самом деле разбираешься.

Так вот, ты знаешь характерные приемы известных мастеров (прибыльные фичи). Теперь склей работы всех известных мастеров в фотожопе в один слой. Найдёш хоть одну тебе известную фичу хоть одного известного автора? Сомневаюсь. Так и NN.


Что такое интегрирование шума? (Опять сам спросил сам ответил :) Имеем случайную величину m(t) распределенную равномерно на интервале [-1; 1]. Соответственно мат. ожидание = 0. Чудесно. Также имеем Сигнал s(t) сложной конфигурации. Амплитуда сигнала и шума имеют сопостовимые значения. Задача выделить s(t) из s(t) + m(t) при условии, что можно повторить s(t) + m(t) неограниченное количество раз. Помехи каждый раз будут новые, кривая сигнала будет сильно отличаться от предыдущей кривой. Поступают на удивление просто: находят среднее значение сигнала s(t) + m(t) за 1000 повторений. При этом помеха, которая имела 0 мат.ожидание была проинтегрирована и удалена. Чем большее количество раз мы сможем усреднить сигнал s(t) + m(t), тем меньше помех останется. Вот моя идея еще раз более подробно.

Чтобы ограничить сеть от выискивания всех фенек за раз (назовем это эффектом абстракционизма :), мы уменьшим количество нейрончиков, т.о. получим выигрыш в обобщающей способности сети и невозможности выучивания перцептроном большого количества матерала. Мы нацелим сеть на поиск только одной, но самой профитной феньке на данных. Что думаешь?

Причина обращения: