Neuronales Netz - Seite 4

 
joo писал(а) >> die einzig richtige Lösung wäre das "Lernen ohne Lehrer".

Ganz genau. Denn es gibt keinen perfekten Lehrer für das Netz. Oder besser gesagt, wir können nicht wissen, was der perfekte Lehrer für das Netzwerk sein könnte.....))))

 
LeoV >> :

Ganz genau. Denn es gibt keinen perfekten Lehrer für das Netz. Oder besser gesagt, wir können nicht wissen, wie der perfekte Lehrer für das Netzwerk aussehen könnte.....))))

Ganz genau! Mit einem Lehrer ist es nur möglich, ein Raster über eine bereits bekannte Funktion zu unterrichten, z. B. eine Sinuskurve. Hier können wir, ohne zu zögern, das Netz mit folgendem füttern

der ausgebildeten Stelle als Lehrer. Dieser Trick wird auf dem Markt nicht funktionieren.

 
joo писал(а) >> Genau! Sie können das Gitter mit einem Lehrer nur für eine Funktion trainieren, die wir bereits kennen, z. B. eine Sinuswelle. Hier können wir mit gutem Gewissen das Netz an der nächsten Stelle als Lehrer einspeisen. Das wird auf dem Markt nicht funktionieren.

Ja, und in diesem Fall ist es für das Netz umso besser, je kleiner der Fehler in der Trainingsstichprobe ist. Das wird auf dem Markt nicht funktionieren.

 

Es ist nicht ratsam, ein Netz ausschließlich durch Training mit einem Lehrer aufzubauen. Es ist einfacher, alle Muster manuell im Code zu beschreiben, da es weniger Fehler gibt.

Der eigentliche Zweck des neuronalen Netzes besteht darin, ohne Lehrer zu unterrichten, zu lehren, was der Lehrer nicht weiß,

Sie werden in der Lage sein, Muster zu erkennen, die Sie selbst nicht sehen (und die auch sonst niemand sieht, was ein Vorteil ist).

Blondine an Freund: Du weißt, was "Ich weiß es nicht" bedeutet.

Die Freundin: "Ich weiß es nicht".

Blondine: Nun, das weiß niemand.

 
LeoV >> :
gpwr wrote(a) >> Überall steht geschrieben, dass das Netz so lange trainiert werden muss, bis der Fehler der zu testenden Probe nicht mehr abnimmt.

Es ist eigentlich viel komplizierter als das. Wenn Sie es bis zum minimalen Fehler auf die zu testende Probe trainieren, erhalten Sie wahrscheinlich ein übertrainiertes Netzwerk......

Das ist unwahrscheinlich. Die Wahrheit. Und eine Verringerung der Netzleistung zur besseren Verallgemeinerung hilft auch nicht. Der kleinste Fehler bei der Prüfung ist ein Fehlschlag beim Vorwärtsgang.
 
muallch писал(а) >>
Wahrscheinlich nicht, aber es ist so. Die Wahrheit. Und eine Verringerung der Netzleistung zur besseren Verallgemeinerung ist nicht hilfreich. Der kleinste Fehler bei der Prüfung ist ein Fehlschlag beim Vorwärtsgang.

Einverstanden. Ich habe die Formulierung "höchstwahrscheinlich" im Sinne einer eindeutigen Überschulung verwendet .....)))) Und manchmal hilft es, den Stromverbrauch zu reduzieren: ......

 
muallch >> :
Das ist unwahrscheinlich, aber es ist wahr. >> Wahr. Und eine Verringerung der Netzleistung zur besseren Verallgemeinerung ist nicht hilfreich. Der kleinste Fehler bei der Prüfung ist ein Fehlschlag beim Vorwärtsgang.

Ihr Bürger werdet langsam schlau. Entweder haben Sie etwas Neues erfunden, oder wir verstehen uns nicht.

In allen Lehrbüchern steht, dass ein Netz mit einem Lehrer trainiert wird, indem die Daten in eine Trainings- und eine Teststichprobe aufgeteilt werden. Das Netz wird trainiert, indem der Fehler in der Trainingsstichprobe minimiert wird, während in der Teststichprobe ein Fehler auftritt (Out-of-Sample-Test oder Verifizierung). Das Lernen hört auf, wenn der Fehler des Testmusters nicht mehr abnimmt (unten mit einer gepunkteten Linie dargestellt). Und der Fehler bei der Trainingsstichprobe kann weiter abnehmen, wie in dieser Abbildung dargestellt


Sie behaupten, dass das Netztraining sogar noch früher als die gestrichelte Linie in der Abbildung gestoppt werden muss. Wo genau? Warum sollte man das Netz dann überhaupt trainieren? Nach Ihrer Logik können Sie beliebige Werte für die Gewichte wählen und das Netz für den Handel verwenden. Dann haben Sie eine sichere Spülung.

 
LeoV >> :

Einverstanden. Ich habe die Formulierung "höchstwahrscheinlich" im Sinne einer eindeutigen Überschulung verwendet .....)))) Und manchmal hilft es, den Stromverbrauch zu reduzieren: ......

Ganz genau. Das ist es ja manchmal. Grails auf MAs bringen manchmal auch einen Gewinn auf einer Terminposition. Es gibt keine (zumindest habe ich sie nicht gefunden) eindeutige Systemabhängigkeit zukunftsorientierter Ergebnisse von der Leistung (Aufgedunsenheit, Neuronalität usw.) eines trainierten Gitters. Ich will damit nicht sagen, dass die Art des Netzes keine Auswirkungen hat - es ist nur eines der Kriterien. Die Höhe des Gewinns außerhalb der Teststichprobe hängt jedoch eindeutig (nichtlinear) vom Grad des Lernens ab - zahlreiche Experimente mit "End-to-End"-Tests bestätigen dies.

 
gpwr >> :

Sie argumentieren, dass die Ausbildung im Netz noch vor der gestrichelten Linie in der Abbildung beendet werden muss. Wo genau? Warum sollte man das Netz dann überhaupt trainieren? Nach Ihrer Logik können Sie beliebige Werte für die Gewichte wählen und das Netz für den Handel verwenden. Dann haben Sie den richtigen Abfluss.

Nein, das tue ich nicht.


Und es ist schwer, das zu bestreiten...

 
gpwr >> :

Ihr Bürger werdet langsam schlau. Entweder haben Sie etwas Neues erfunden, oder wir verstehen uns nicht.

In allen Lehrbüchern steht geschrieben, dass das Training eines Netzes mit einem Lehrer erfolgt, indem die Daten in eine Trainings- und eine Teststichprobe aufgeteilt werden. Das Netz lernt, indem es den Fehler in der Trainingsstichprobe minimiert und gleichzeitig den Fehler in der Teststichprobe beobachtet (Out-of-Sample-Test oder Verifizierung). Das Lernen hört auf, wenn der Fehler des Testmusters nicht mehr abnimmt (unten mit einer gepunkteten Linie dargestellt). Aus demselben Grund kann der Fehler in der Trainingsstichprobe weiter abnehmen, wie in dieser Abbildung gezeigt

Erstens: Out-of-sample - Anpassung des Rasters. Und dann gibt es keine - die wirkliche Zukunft liegt vor uns, sie muss vorhergesagt werden. Was ist das Kriterium für das Beenden des Trainings - ein bestimmter Fehler oder die Anzahl der Trainingsläufe? Oder etwas anderes?

Grund der Beschwerde: