Обсуждение статьи "Преодоление ограничения машинного обучения (Часть 4): Как уменьшить неустранимую ошибку с помощью нескольких горизонтов прогноза"

 

Опубликована статья Преодоление ограничений машинного обучения (Часть 4): Преодоление ограничения машинного обучения (Часть 4): Как уменьшить неустранимую ошибку с помощью нескольких горизонтов прогноз:

Машинное обучение часто рассматривается через призму статистики или линейной алгебры, но в этой статье особое внимание уделяется геометрической перспективе предсказаний моделей. В ней демонстрируется, что модели на самом деле не приближают цель к действительности, а скорее переносят ее в новую систему координат, создавая неизбежное смещение, которое приводит к неустранимой ошибке. В статье предполагается, что многоступенчатые прогнозы, сравнивающие прогнозы модели на разных горизонтах, предлагают более эффективный подход, чем прямые сравнения с целевым показателем. Применяя этот метод к торговой модели, авторы статьи демонстрируют значительное повышение прибыльности и точности без изменения базовой модели.

В нашей серии статей, посвященных самооптимизирующимся советникам, мы обсудили, как можно построить модели линейной регрессии с использованием матричной факторизации, представили библиотеку OpenBLAS и объяснили метод сингулярного разложения (SVD). Читателям, незнакомым с этим обсуждением, следует ознакомиться с ним, поскольку наша статья основана на этом фундаменте, ссылка на который приведена здесь.

Для знакомых с материалом читателей напомним, что SVD преобразует матрицу в три меньшие матрицы: U, S и VT. Каждая из них обладает особыми геометрическими свойствами. U и VT являются прямоугольными матрицами, что означает, что они представляют собой периодические повороты или отражения исходных данных — и, что особенно важно, они не растягивают векторы, а только меняют направление. S, средняя матрица, является диагональной и масштабирует значения данных. 

В совокупности SVD можно понимать как последовательность поворота, масштабирования и поворота, применяемых к данным. Именно так модели линейной регрессии встраивают изображения целевого объекта в пространство входных параметров. Следовательно, если мы сведем линейную регрессию к ее геометрической сущности, то увидим, что она просто поворачивает, масштабируется и снова поворачивает. Ничего больше. Только это. Поворот, масштабирование, поворот. Изучение геометрии научит вас видеть ее таким образом, но как только вы это сделаете, возникнет провокационный вопрос: где на самом деле происходит все это “обучение”?


Автор: Gamuchirai Zororo Ndawana