Распределенные вычисления. Проект Volvox. - страница 2

 
Mathemat:
Хотел бы я знать, как можно back propagation распараллелить... Сами по себе НС по своей природе уже считаются системами параллельных вычислений, вне зависимости от количества компутеров. Ну Vinin уже ответил. Что-то типа комитета с каждой НС на отдельном компе получается?

В принципе, если тогда не получается разделить внутри одной нейронки, то может быть сможем разделить эти самые комитеты?
 
Кстати, Алексей (который Сергеев). Как тебе удалось джина получить. Ты бы переименовал как-то другую тему.
 
Vinin:
Кстати, Алексей (который Сергеев). Как тебе удалось джина получить. Ты бы переименовал как-то другую тему.

В смысле?
 
Так есть эта, есть другая. Называется "_", и ряд вопросов из этой темы переходит в ту, другую. Я пока это понять не могу. Поэтому и говорю про джина, который это делает. Но похоже мне пора с этим вопросом переходить в другую. А эту тему удалять не надо, хорошая тема. И если еще результат будет, то тогда все отлично.
 
Vinin:
Так есть эта, есть другая. Называется "_", и ряд вопросов их этой темы переходит в ту, другую. Я пока это понять не могу. Поэтому и говорю про джина, который это делает. Но похоже мне пора с этим вопросом переходить в другую. А эту тему удалять не надо, хорошая тема. И если еще результат будет, то тогда все отлично.

Даю честное пионерское, что не удалю :)
 
Жаль только что так решения пока и не нашлось.
 
Атак никто не пробовал: на одном компе обучаются образцы 1-100, на втором 101-200 и т.д. Потом вычисляется среднее значение каждого веса, проверяется ошибка по всем образцам, если болшая ошибка - образцы перемешиваются - и все сначала. Интересно что будет если скрестить две сети одинаковой структуры путем усреднения значений весов, она будет обучена на все образцы или полностью разучится?
 
Integer:
Атак никто не пробовал: на одном компе обучаются образцы 1-100, на втором 101-200 и т.д. Потом вычисляется среднее значение каждого веса, проверяется ошибка по всем образцам, если болшая ошибка - образцы перемешиваются - и все сначала. Интересно что будет если скрестить две сети одинаковой структуры путем усреднения значений весов, она будет обучена на все образцы или полностью разучится?

Боюсь он к обратному распространению ошибки это отношения неимеет, если использовать слой Кохонена, да можно.
 
Integer:
Атак никто не пробовал: на одном компе обучаются образцы 1-100, на втором 101-200 и т.д. Потом вычисляется среднее значение каждого веса, проверяется ошибка по всем образцам, если болшая ошибка - образцы перемешиваются - и все сначала. Интересно что будет если скрестить две сети одинаковой структуры путем усреднения значений весов, она будет обучена на все образцы или полностью разучится?

Но возникает вопрос, как это потом слить воедино?
 

Имеем две одинаковых сети, одна обучена на образцах с 1 по 100, вторая на образцах с 101 по 200, берем и устредняем соответсвующие веса. Вот и интеренсо что получится при этом?

Причина обращения: