Рыночный этикет или правила хорошего тона на минном поле - страница 87

 
Neutron писал(а) >>
Я эту задачу переложил на руки НС, она на основе анализа, по-возможности "короткой" истории (всё-таки истории, что ещё можно в ТА использовать?), принимает решение об открытии по направлению (Н+), либо против (Н-).

Тогда мало что остается от диссера, не так ли?

Да и перцептрон, по Вашим словам, д. прогнозировать ТОЛЬКО направление.

 
M1kha1l >>:

Тогда мало что остается от диссера, не так ли?

Да и перцептрон, по Вашим словам, д. прогнозировать ТОЛЬКО направление.

Так нам же не диссер интересен, а профит... по этой же причине кроме направления(знака следующего отсчета) ничего знать и не нужно.

 

Разве пастуховские паттерны это не то же самое?

Какая разница, чем анализировать их - статистикой или сетями...

 
gpwr писал(а) >>

Моей сети было подано 300 обучающих примеров при количестве весов 45. В литературе существует мнение что при кол-ве обучающих примеров в 5 раз превышающих кол-во весов, сеть с 95% вероятностью будет обобщённой. Т.е. моя сеть должна иметь хорошое обобщение согласно теории, но на самом деле это не так. Поэтому и приводил примеры чтобы подтвердить это. Я так думаю что дело тут в не том чтобы ещё больше взять обучающих примеров. Дело тут в характере задачи, которую я заставляю сеть решить. Если пытаться заставить сеть предсказать размер следующего шага цены, то при обучении она будет стремиться к таким весам, при которых нейроны работают в линейной области функции активации чтобы сохранить пропорциональность между предсказываемом шагом и входными прошлыми шагами. То есть задача сама по себе линейная. При таком положении дел, добавка скрытых нейронов ничего не улучшит. Да и сам скрытый слой становится ненужным. Путём экспериментов с моей сетью, я пришёл к выводу что однослойка работает также хорошо как и двуслойка. По-моему, читая ваши прошлые посты на этой ветке, вы тоже пришли к такому же выводу для EURUSD.

По-моему сеть нужно применять для сильно нелинейных задач (как например XOR задача или задачи классификации), для которых функция активации нейронов может быть выбрана ступенчатой.

Если Вам не сложно, скиньте(.rar) выборку на которой обучали НС, выборку порядка 10000 примеров. Или код который сформирует её...

По первым впечатлениям в выборке которую Вы подавали на сеть существует сильная линейная взаимосвязь между входом и выходом - поэтому сеть работает как линейный решатель...

//----

по-поводу выборки: есть способ определения достаточной выборки для обучения, но сеть(10-21-8-1) можно переобучить и с выборкой в 50000 примеров и в 100 000 примеров...

поэтому лучше обучать с перекрёстной проверкой...

 
paralocus писал(а) >>

Так нам же не диссер интересен, а профит... по этой же причине кроме направления(знака следующего отсчета) ничего знать и не нужно.

А на каком таймфрейме по вашему прогноз направления свечи имеет смысл? Я сейчас как раз в этом направлении копаю (используется не нейросеть); результаты (вероятности корректных прогнозов) следующие: m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Советник по мотивам этого метода сливает со скоростью спреда. :/

 
lea >>:

А на каком таймфрейме по вашему прогноз направления свечи имеет смысл? Я сейчас как раз в этом направлении копаю (используется не нейросеть); результаты (вероятности корректных прогнозов) следующие: m1- 69%, m5- 61%, m15- 58%, m30- 56%, h1- 55%, h4- 51%, d1- 46%, w1- 51%, m1- 58%. Советник по мотивам этого метода сливает со скоростью спреда. :/

По моему ни на каком. Таймфреймы ф топку!

 
paralocus >>:

По моему ни на каком. Таймфреймы ф топку!

Все таки Вы унаследовали темперамент своего Героя! Не торопитесь, придет время и Вы напишите что то типа:

тики ф топку!!!

Просто, всему - свое время...

Удачи! :о)

 
grasn писал(а) >>

Просто, всему - свое время...

Пока моя нейросеточка набирает статистику (она за это время пару раз выбила процесс из-за неусточивости сходимости при больших числах нейронов в скрытом слое, пришлось снова вводить нормировку коэффициента скорости счёта на длину вектора веса), выскажу свои соображения на область применимости НС.

Выше я высказывал предположение о способности натренированой сети восполнять статистические пробелы в обучающем векторе. Это, по моим соображениям, позволяло эффективно использовать НС при недостатке обучающих данных. Однако, природа оказалась ещё интереснее... Похоже, основная специализация НС лежит в области несколько иной. Её работа сводится к "выдаче" значения (предсказания) на основе тех значений входных данных, которые не принимали участиия в обучении. Это понятно, но вдумайтесь пристальнее... нам достаточно иметь несколько реперных точек в НЕПРЕРЫВНОМ просранстве входных признаков (область значений, которые принимают входные данные), что бы максимально достоверно предсказать ожидаемое значение на "чуть-чуть" не тех входных данных. Именно это свойство НС является основным, и ключевм моментом тут является факт непрерывности области значений входных данных. Тут сила НС проявляется в полной мере.

Что же будет, если входные данные являются дискретными? А ничего особенного, НС то же будет работать. Правда теперь у нас имеется возможность набрать статистику на всех комбинациях из дискретных значений и сделать тот же самый прогноз, что и НС но без неё. Но, нужно не забывать, что НС это сделает гораздо быстрее и элегантнее (если дискретных значений много, а если нет...). А, если дискретность входных значений низка, или их всего два (+/-1), то,оказывается НС не нужна! Достаточно, набрать статистику по каждому значению, и ничто в природе не даст более точного прогноза, кроме такого.

Для прогноза бинарных входов есть способы прогнозирования много более эффективные, чем НС. Это не умоляет достоинства НС, но восхищает способ сведения прогноза ВР к бинарному!

На рис. приведена область состояний, которые принимает бинарная двух-входовая НС. Число комбинаций, который могут принять входные значения всего 4. И на каждом из них нужно принять решение Buy/Sell. НС тут нафик не нужна! Нужна банальная статистика. Для 3-х входовой НС, мы получим 3-х мерный куб с 8-ю вершинами, в каждой из которых так же Buy/Sell и т.д.

Ещё раз, я не умоляю достоинства НС. Например, если прогнозировать численость популяции рачков Дафнии в пруду, которая зависит от сотни-другой факторов (кислотность воды, температура и т.д.), то сделать достоверный прогноз при изменении хотя бы одного-двух из параметров на 1 %, без НС нельзя - наверняка попадаем в область, где статистики нет вобще, либо она не состоятельна для интерполяции.

 
Neutron >>:
...

Звучит, как приговор.... как "приговор", например Минскому, который доказал серьезную ограниченность перцептронов и о чем в погоне за деньгами просто забывают. А еще забывают про то, что даже многослойная сеть с нелинейной инициализацией совершенно не дает абсолютно никаких гарантий корректной классификации, а еще забывают .. (но это в качестве шутки, а не начало очередного спора). Признаюсь, я так и не понял в чем сила НС из твоего поста, но мой опыт построения как собственных, так и с использованием специализированных средств НС дает простой и ясный ответ - использование перцептрона ни в чем не дает преимущество, особенно - на "плохих" рядах (твои каги - очень плохие ряды для прогнозирования).


Но в любом случае - удачи. До встречи, (на пару недель исчезну).

 
Если кому будет интересно, на FORTS доступна полная потиковая история для фьючерсов. Глубиной в несколько лет.
Причина обращения: