Diskussion zum Artikel "Die Grenzen des maschinellen Lernens überwinden (Teil 4): Überwindung des irreduziblen Fehlers durch mehrere Prognosehorizonte"

 

Neuer Artikel Die Grenzen des maschinellen Lernens überwinden (Teil 4): Überwindung des irreduziblen Fehlers durch mehrere Prognosehorizonte :

Maschinelles Lernen wird oft durch die Brille der Statistik oder der linearen Algebra betrachtet, aber dieser Artikel betont eine geometrische Perspektive der Modellvorhersagen. Sie zeigt, dass sich die Modelle dem Ziel nicht wirklich annähern, sondern es auf ein neues Koordinatensystem abbilden, was zu einer inhärenten Fehlausrichtung führt, die irreduzible Fehler zur Folge hat. In dem Artikel wird vorgeschlagen, dass mehrstufige Vorhersagen, bei denen die Prognosen des Modells über verschiedene Zeithorizonte hinweg verglichen werden, einen effektiveren Ansatz darstellen als direkte Vergleiche mit dem Ziel. Durch die Anwendung dieser Methode auf ein Handelsmodell zeigt der Artikel erhebliche Verbesserungen der Rentabilität und Genauigkeit, ohne das zugrunde liegende Modell zu verändern.

In unserer Serie über selbstoptimierende Expertenberater haben wir erörtert, wie lineare Regressionsmodelle mithilfe der Matrixfaktorisierung konstruiert werden können, die OpenBLAS-Bibliothek vorgestellt und die Singulärwertzerlegung (SVD) erläutert. Leser, die mit dieser Diskussion nicht vertraut sind, sollten sie nachlesen, da der vorliegende Artikel auf dieser Grundlage aufbaut; ein Link ist hier angegeben.

Die SVD faktorisiert eine Matrix in drei kleinere Matrizen, wie Sie wissen: U, S und VT. Jede hat besondere geometrische Eigenschaften. U und VT sind orthogonale Matrizen, d. h. sie stellen Drehungen oder Spiegelungen der ursprünglichen Daten dar – und entscheidend ist, dass sie Vektoren nicht strecken, sondern nur die Richtung ändern. S, die mittlere Matrix, ist diagonal und skaliert die Datenwerte. 

Zusammengenommen kann SVD als eine Abfolge von Rotation, Skalierung und Drehung der Daten verstanden werden. Auf diese Weise betten lineare Regressionsmodelle Bilder des Ziels in den Raum der Eingaben ein. Wenn wir also die lineare Regression auf ihr geometrisches Wesen reduzieren, ist sie nichts anderes als Rotation, Skalierung und nochmals Rotation. Mehr nicht. Das war's. Drehen, Skalieren, Drehen. Wenn man Geometrie studiert, lernt man, sie so zu sehen, aber wenn man das tut, stellt sich eine provokante Frage: Wo findet das ganze „Lernen“ wirklich statt?


Autor: Gamuchirai Zororo Ndawana