FOREX - Тенденции, прогнозы и следствия 2018 - страница 131

 
Renat Akhtyamov:

продавцов то сколько....


Не-не не продаю - меняю...котейка молодец - на колбасу зарабатывает...где б такого Матроскина найти партнером по бизнесу...))

 
Lesorub:

Херня это, а не сигнал...


Ты среднесрок смотришь! Это в соседнем зале.

Ты,я смотрю,какой-то сажень стал по графикам таскать. Могучий как-то сказал,хоть на спичках,лишь бы в депо,а не из депо.


 
Vadens:

Ты среднесрок смотришь! Это в соседнем зале.

Ты,я смотрю,какой-то сажень стал по графикам таскать. Могучий как-то сказал,хоть на спичках,лишь бы в депо,а не из депо.


Там люди ушли - и правильно сделали...

Всякую околоторговую чушь читать - только время терять.

 
Lesorub:

Там люди ушли - и правильно сделали...

Всякую околоторговую чушь читать - только время терять.

Чуши по всем форумам предостаточно. Смотря что считать чушью. Чужие разговоры через замочную скважину? 

По мне,пусть СМЕшники остались бы и ладно. Пришёл,глянул для понту на каких страйках бабло,а на каких его уже нет.

Что ещё надо для счастья!

 
Vadens:

Чуши по всем форумам предостаточно. Смотря что считать чушью. Чужие разговоры через замочную скважину? 

По мне,пусть СМЕшники остались бы и ладно. Пришёл,глянул для понту на каких страйках бабло,а на каких его уже нет.

Что ещё надо для счастья!

Так ты сам сюда эту шнягу тащишь.

Видно, маловато флудерасии...

 
Lesorub:

Так ты сам сюда эту шнягу тащишь.

Видно, маловато флудерасии...

Мысль понятна. Картинки со шпалами и землемерами не шняга.

Успехов!

 
Vadens:

Мысль понятна. Картинки со шпалами и землемерами не шняга.

Успехов!

Пока!


 

Предлагаю вот такой вариант событий.


 

Пока переводил статью с новым нейро сетевым переводчиком от Яндекса...потерял исходник...но перевод классный, а флуда, по моему, тоже не меньше чем у нас а даже больше...

"Опубликовано в Интерпретируемость | 7 Комментариев

LSTMs

Опубликовано июнь 4, 2016 по Jesse Johnson

В прошлых сообщениях я описал, как Рекуррентные нейронные сети (Rnn) могут использоваться для изучения шаблонов в последовательностях входов и как идея разворачивания может использоваться для их обучения. Оказывается, есть некоторые существенные ограничения на типы шаблонов, которые может изучить типичный RNN, из-за того, как используются их весовые матрицы. В результате наблюдается большой интерес в варианте RNNs называемые длинные краткосрочные сетей памяти (LSTMs). Как я опишу ниже, Lstm имеют больше контроля, чем типичные Rnn над тем, что они помнят, что позволяет им изучать гораздо более сложные шаблоны.

Опубликовано в нейронные сети / 3 Комментариев

Прокатки и Раскатки RNNs

Опубликовано апрель 27, 2016 по Jesse Johnson

Некоторое время назад я обсуждал Рекуррентные нейронные сети (Rnn), Тип искусственной нейронной сети, в которой некоторые связи между нейронами указывают “назад”. Когда последовательность входных данных подается в такую сеть, стрелки назад передают информацию о более ранних входных значениях обратно в систему на последующих шагах. Одна вещь, которую я не описал в этом посте, заключалась в том, как обучить такую сеть. Поэтому в этом посте я хочу представить один из способов обучения RNN, называемый развертыванием.

Опубликовано в Без рубрики | 3 Комментариев

Непрерывная Теорема Байеса

Опубликовано январь 20, 2016 по Jesse Johnson

Правило байеса-одна из фундаментальных теорем статистики, но до недавнего времени, должен признать, оно меня никогда не впечатляло. Байес " дает вам способ определения вероятности того, что данное событие произойдет, или что данное условие верно, учитывая ваши знания о другом связанном событии или условии. Все примеры, о которых я читал или слышал, казались несколько надуманными и не связанными с тем анализом данных, который меня интересовал. Но оказывается, что существует также интерпретация теоремы Байеса, которая не только гораздо более Геометрическая, чем стандартная формулировка, но также вполне естественно вписывается в типы вещей, которые я обсуждал в этом блоге. Итак, в сегодняшнем посте я хочу объяснить, как я действительно оценил теорему Байеса.

 

Опубликовано в Моделирование / 2 Комментариев

Перспективы TensorFlow на нейронных сетях

Опубликовано Ноябрь 30, 2015 по Jesse Johnson

Несколько недель назад Google объявила, что это открытая внутренняя система под названием TensorFlow, которая позволяет создавать нейронные сети, а также другие типы моделей машинного обучения. (Отказ от ответственности: я работаю в Google.) Поскольку TensorFlow разработан более общим, чем просто структура нейронной сети, он принимает довольно абстрактную перспективу по сравнению с тем, как мы обычно говорим о нейронных сетях. Но (не случайно) эта перспектива очень близка к тому, что я описал в своем последнем посте, со строками нейронов, определяющих выходные векторы, и связями между этими строками, определяющими матрицы весов. В сегодняшнем посте я хочу описать перспективу TensorFlow, объяснить, как она соответствует традиционному способу мышления о нейронных сетях, и объяснить, как TensorFlow обобщает векторный и матричный подход для включения более общих структур, называемых тензорами"(С)...

 
Aleksandr Yakovlev:

Предлагаю вот такой вариант событий.


Идет коррекция к текущему снижению:

А основной вариант в силе до новостей:


Причина обращения: