Обсуждение статьи "Возможности Мастера MQL5, которые вам нужно знать (Часть 18): Поиск нейронной архитектуры с использованием собственных векторов"

 

Опубликована статья Возможности Мастера MQL5, которые вам нужно знать (Часть 18): Поиск нейронной архитектуры с использованием собственных векторов:

Поиск нейронной архитектуры (Neural Architecture Search), автоматизированный подход к определению идеальных настроек нейронной сети, может стать преимуществом при наличии большого количества вариантов и больших наборов тестовых данных. Здесь мы рассмотрим, как этот подход можно сделать еще более эффективным с помощью парных собственных векторов (Eigen Vectors).

Если мы решим использовать нейронные сети для определения связи между обучающим набором данных и его целью, как в этой статье, то нам придется столкнуться с вопросом: какие настройки будет использовать эта сеть? Существует несколько типов сетей, а это значит, что применимых конструкций и настроек также много. В этой статье мы рассмотрим очень простой случай, который часто называют многослойным перцептроном (multi-layer perceptron, MLP). При использовании этого типа настройки, на которых мы остановимся, будут заключаться только в количестве скрытых слоев и размере каждого скрытого слоя.

NAS обычно может помочь определить эти два параметра и многое другое. Например, даже в случае простых MLP вопрос о том, какой тип активации и начальные веса использовать, а также вопрос о начальных смещениях являются факторами, чувствительными к производительности и точности сети. Однако здесь мы их рассмотрим вскользь, поскольку область поиска очень обширна, а вычислительные ресурсы, необходимые для прямого и обратного распространения даже для набора данных среднего размера, были бы непомерно велики.

Автор: Stephen Njuki