Обсуждение статьи "Глубокая нейросеть со Stacked RBM. Самообучение, самоконтроль" - страница 3
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Эта версия вполне подойдет как и R3.2.5.
Удачи
Пробежался быстро по статье. Меня давно интересовал вопрос о претренинг. Ответа не нашёл. По существу глубокие сети это те же старые сети обучаемыемые backpropagation, но с претренингом, который улучшает сходимость к глобальному минимуму. Претренинг делается по методу Contrastive Divergence. В статье он не описан. Если автор разобрался с этим методом, не мог бы он объяснить его.
Смотрите предыдущую статью.
Если будут вопросы после прочтения задавайте.
Удачи
Смотрите предыдущую статью.
Если будут вопросы после прочтения задавайте.
Удачи
Посмотрел. Не нашёл. Пожалуйста cut & paste здесь абзац о Contrastive Divergence. Также объясните на примере.
Радел статьи 2.2.2. Теория и принципы - если не нашли ответа в приложениях к статье, поиск (Сравнительное расхождение (сопоставительное отклонение) (Contrastive Divergence CD-k)).
Удачи
Радел статьи 2.2.2. Теория и принципы - если не нашли ответа в приложениях к статье, поиск (Сравнительное расхождение (сопоставительное отклонение) (Contrastive Divergence CD-k)).
Удачи
Это что ли:
Процесс CD-k выглядит следующим образом:
Это что ли:
Процесс CD-k выглядит следующим образом:
Вам нужна теория и математический аппарат?
В русскоязычной части интернета много материалов на эту тему, поиск Вам поможет.
В статье не ставилась задача освещения теории. Только применение.
Удачи