Рыночный этикет или правила хорошего тона на минном поле - страница 14
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Это самая большая ошибка. Рынок вас накажет за дерзость!
С Рынком можно только играть, и по его правилам. И если ему понравится игра, он вас наградит.
Вы приписываете рынку личностные качества, да еще с большой буквы? :)
Рынок - это дикая стихия, аналогия с океаном мне кажется достаточно удачной.
Я шутил:-)
Знаю, что рынок, это всего-навсего случайный, и где-то квазистационарный процесс. А задача ТС сводится к поиску и эксплуатации хоть какого-то подобя стационрности.
Интересно, есть ли способ рассчитывать цели (ТП,СЛ), например, от волатильности "дневок", "неделек", или иначе, чтобы они могли плавно изменяться с рынком.
Я шутил:-)
Да здесь полно серьезных дядек! Шутка...-:)
Neutron, у меня вопросы по ОРО. Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?
То есть берем значение ошибки +/- Er, потом суммируем все веса входящих синапсов Sw1 = SUM(w1+w2+w3+... wn) и вычисляем долю (в общем весе) каждого из них
Dw1 = w1/(Sw1/100) после чего распределяем +/-Er между всеми весами соответственно их доле в общем весе: wi = wi +/- Dwi *Er это так? Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.
Второй вопрос:
Откуда вообще берется значение ошибки? Каков знак этого значения? Модет ли величина полученного в ходе пердыдущей транзакции убытка, выступать "значением ошибки"?
Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?
Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.
В свете этого --
Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.
Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.
Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.
В свете этого --
Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.
А предсказуемость увеличиться?
Neutron, у меня вопросы по ОРО. Правильно ли я понимаю, что когда значение ошибки подается на вход нейрона, он делит эту ошибку между всеми весами своих входов, соответственно их доле в общей сумме этих весов?
То есть берем значение ошибки +/- Er, потом суммируем все веса входящих синапсов Sw1 = SUM(w1+w2+w3+... wn) и вычисляем долю (в общем весе) каждого из них
Dw1 = w1/(Sw1/100) после чего распределяем +/-Er между всеми весами соответственно их доле в общем весе: wi = wi +/- Dwi *Er это так? Если да, то можно ли это сделать такое распределение не линейным, а скажем экспоненциальным? Ведь в жиывых системах "премии" и "оплеухи", т.е. ошибки и бонусы распределяются среди "первых" и "последних" вовсе не линейно.
Второй вопрос:
Откуда вообще берется значение ошибки? Каков знак этого значения? Модет ли величина полученного в ходе пердыдущей транзакции убытка, выступать "значением ошибки"?
Не, всё не так.
Рассмотрим не коммитет сетей как у тебя, а обычную двуслойную сетку. Потом можно будет обобщить.
У тебя есть вектор входных сигналов (пусть одномерный) длиной n отсчётов и пусть n+1 отсчёт является проверочным для качества обучения Сети. Суёшь ей на вход этот вектор (n отсчётов), предварительно приравняв все веса случайным значениям в диапазоне +/-1 с равномерным распределением плотности вероятности и смотришь то, что родила на выходе сетка. Пусть, она выдала на-гора +5.1, а твой проверочный n+1 отсчёт (то значение к которому должна стремится обученная сетка на этом обучающем векторе) +1.1 Тогда, ты берёшь разницу между полученным значением и искомым +4 и добавляешь это значение с сохранением его знака к каждому весу выходного нейрона (это, если он без ФА), или находишь значение производной от ФА от этого значения и добавляешь его к весам на входе последнего нейрона (если есть ФА). И т.д.
Если этот кусок переваришь, расскажу как дальше проталкивать ошибку к входным весам первого (входного) слоя.
Не, всё не так.
Может лучше в формулах? Математика тут несложная.
А предсказуемость увеличиться?
Вряд ли.
Нет, не делит -- распространяет. И получается так не потому, что кому-то так вздумалось, а в результате минимизации целевой функции.
В свете этого --
Данное предположение скорей всего приведет к замедлению обучения или расхождению суммарной ошибки.
И почему должно появиться расхождение суммарной ошибки, если Er = e(w1*x) + e(w2*x) + ... e(wn*x)? Нет, суммарная ошибка будет равнв входящей ошибке.
Может лучше в формулах? Математика тут несложная.
Формулы можно и самому в литературе посмотреть, которой полно в просторах Инета.
Не будем спешить. И не пытайтись усложнить себе жизнь всякими наворотами, типа "нелинейное обучение" и т.п. это от Лукавого. Красота и надёжность в простоте и гармонии!
Если этот кусок переваришь, расскажу как дальше проталкивать ошибку к входным весам первого (входного) слоя.
Пошел варить...