Обсуждение статьи "Нейронная сеть на практике: Псевдообратная (II)"

 

Опубликована статья Нейронная сеть на практике: Псевдообратная (II):

Поскольку эти статьи имеют образовательную цель и не направлены на то, чтобы показать реализацию конкретной функциональности, в данной статье мы поступим немного иначе. Вместо того, чтобы показывать, как применять факторизацию для получения обратной матрицы, мы сосредоточимся на факторизации псевдообратной. Причина заключается в том, что нет смысла показывать, как можно получить общий коэффициент, если мы можем сделать это особым способом. А еще лучше, если читатель сможет глубже понять, почему всё происходит именно так. Давайте теперь разберемся, почему со временем аппаратное обеспечение приходит на смену программному.

В предыдущей статье "Нейронная сеть на практике: Псевдообратная (II)", я показал, как можно использовать функцию, доступную в библиотеке MQL5, для вычисления псевдообратной. Однако метод, присутствующий в библиотеке MQL5, как и во многих других языках программирования, предназначен для вычисления псевдообратной при использовании матриц или хотя бы какой-то структуры, которая может напоминать матрицу.

Хотя в данной статье показано, как выполняется умножение двух матриц, и даже факторизация для получения определителя любой матрицы (который важен для того, чтобы знать, можно ли матрицу инвертировать или нет), нам всё равно пришлось реализовать еще одну факторизацию. Это нужно для того, чтобы вы могли понять, как выполняется факторизация для получения значений псевдообратной. Данная факторизация заключается в генерации обратной матрицы.


Вы можете задать вопрос: а как же транспонирование? В предыдущей статье я показал, как можно выполнить факторизацию для симуляции умножения матрицы на ее транспонирование, что не является проблемой.

Автор: Daniel Jose