Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Классная статья!!!
Вот только остался открытым вопрос примера системы из 2-х и более нейронов.
Может у кого есть простенький пример 2-х, 3-х нейронного советника?
Классная статья!!!
Вот только остался открытым вопрос примера системы из 2-х и более нейронов.
Может у кого есть простенький пример 2-х, 3-х нейронного советника?
Планировалась вторя статья по этому вопросу, но пока времени нет.
Попробуйте такую конструкцию
Думаю идея ясна.Попробуйте такую конструкцию
Думаю идея ясна.Все предельно ясно, спасибо!
Здесь получается, что количество весовых коэффициентов удваиваются с каждым нейроном, но тут уже дело творческое :)
Буду ждать статью!
Объясните пожалуйста:
Допустим, обучил я перцептрон1 тестовой выборкой из файл1. Он научился предсказывать на 100% правильно этот же файл1.Потом протестировал этот перцептрон1 на новых данных (файл2). Их он предсказал правильно на 95% процентов.
Как можно доучить перцептрон1?
Вариант 1:
Я склеиваю файл1 и файл2 = файл12. Обучаю с нуля перцетпрон2 скармливая ему файл12 + правильные ответы.
Вариант 2:
Я вручную корректирую правильные ответы в файл2 и дообучаю перцептрон1.
Вариант 1 понятен. Это просто с нуля обучение нового перцептрона.
А как осуществить вариант 2 ? Осуществим ли он?
=========
Сейчас экспериментирую в Jupyter-е на Питоне с библиотекой scikit-learn. Там у перцептрона нет метода чтобы доучить его новыми данными..
http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier
Статья супер, наверно пока единственная с более менее подробным и понятным изложением,
хотелось бы попросить автора исправить картинку, все таки в этом примере рассматривается не сеть, а перцептрон,
и очень ждем примера именно нейронной сети, например: 2 нейрона на входе, 3 в скрытом слое, 1 на выходе
большое спасибо за статью!
Изменение крутизны функции активации совершенно не нужно делать!
Смотрим формулу:
При обучении сеть должна подбирать множители Wn. Если для сети выгоднее чтобы итог был *0,4, то она просто подберет все веса Wn, каждый из которых уже будет * 0.4. Т.е. просто внесем общий множитель в скобки, который сам и определится по минимуму ошибки.
В данной реализации можно просто уменьшить шаг для подбора весов. В более серьезных нейросетях нужные коэффициенты найдутся сами.
Нормализация проводится неверно, а потом еще коэффициент 0.4 зачем-то...
Предположим, есть ряд значений: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10
Значения из этого ряда нужно привести к последовательности [0,1]. Логично предположить, что это будет ряд: 0, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.
Однако по вашей методике получаются просто случайные числа. Предположим, мы получаем значения из индикатора: 6, 7, 8, 9, 10. Упрощая вашу формулу:
Мы получаем:
6 >> 0
7 >> 0.25
8 >> 0.5
9 >> 0.75
10 >> 1
В этом ряду, нормализованном согласно указаниям из вашей статьи, верно только последнее значение.
Если у вас был в жизни курс линейной алгебры и вы можете отличить косинус от тангенса, то непонятно как можно так напортачить с такой простой задачей. Результаты вашей работы носят исключительно случайный характер!!
Но признаю, я использовал именно эту публикацию в качестве отправной точки. Распечатал, внимательно перечитывал, делал пометки ручкой. Потом пошел в Дом книги и купил Осовского "Нейронные сети для обработки информации". Прочитал, стал очень умным, и вот пишу...
я суть ваших претензий не понял, а формула нормализации вообще классическая
Подскажите, что я делаю неправильно, скомпилировал код из статьи, заполнил параметры. При запуске оптимизации в каждом проходе у меня указано одно и то же значение прибыли