Neuronales Netz und Eingaben - Seite 10

 
Figar0:
NS ist komplex.

1) Jeder "erreicht" die Eingänge (manche gehen durch sie hindurch, bis sie graue Kugeln sind),

2) Einige Leute denken über den Output nach, wählen die Netzwerkaufgabe, ihren Typ und ihre Architektur,

3) Nur wenige wagen ernsthaft den Sprung in die Netzausbildung.

In NS gibt es nichts Geringfügiges, daher fehlen die Ergebnisse.


  1. Ich habe verschiedene Eingaben ausprobiert - von der Erhöhung der Quoten und Indizes bis hin zu FFT-Transformationen und der Einspeisung von Spektralkomponenten. Ich habe versucht, von ausgebildeten Kohonen-Karten zu füttern.
  2. Die Architektur ist ein mehrschichtiges Peseptron mit hyperbolischer Tangenten-Aktivierungsfunktion.
  3. Verschiedene Algorithmen vom einfachen Back Prop bis zumLevenberg-Marquardt-Algorithmus mit exakter Berechnung der Hessian.
 
TimeMaster:
  1. verschiedene Algorithmen, vom einfachen Back Prop bis zumLevenberg-Marquardt-Algorithmus mit exakter Berechnung der Hessian.
Dem Lernalgorithmus ist das dreimal egal, auch wenn es sich um einen Gen-Algorithmus handelt.)
 
TheXpert:
Der Lernalgorithmus kümmert sich nicht um den dreimaligen Algorithmus, auch wenn es sich um einen Gen-Algorithmus handelt.)


Ich stimme zu. Der einzige Unterschied ist die Lerngeschwindigkeit. Ich sehe keinen Sinn darin, 6-7 Nachkommastellen mit MSE zu "erwischen", daher verwende ich häufiger einen einfachen Back Prop mit drei Stichproben. Eine Schulungsprobe, eine Validierungsprobe und eine Testprobe. Gültige Beispiele werden auf unterschiedliche Weise ausgewählt, oder sie werden unmittelbar nach dem Training ausgewählt, entsprechend dem Zeitintervall, oder ich "greife" zufällige Beispiele aus dem Training, bzw. mit der Entfernung von Beispielen aus der Trainingsstichprobe.
 

Über Gen-Algorithmen...

Es ist schwer vorstellbar, dass es bei neuronalen Netzen mit mehr als 10000 Synapsen "nützlich" ist. Dies erfordert eine Population von etwa 10000*1000 Individuen, was in Bezug auf die Geschwindigkeit nicht "gut" ist. Ich schweige über Epochen...

 
<br/ translate="no">

Wenn ich zum Beispiel ein Netz trainieren möchte. dass 2*2 = 4 ist, nicht 5 oder 6 oder 7 . dann liegt es an mir müssen klar verstehen. was man ihm beibringen soll. Nicht so, dass manchmal 2*2=4 und manchmal 5 ...

Die Problemstellung im Allgemeinen ist wichtig. Was will ich? Und so weiter.


Da sich der Markt verändert, ist "2*2" nicht immer gleich 4, und genau das ist das Problem. Wenn sich der Markt ändert, ändern sich auch die Bedingungen. In den Trainingsstichproben beginnen inkonsistente Daten aufzutauchen. Das Netz lernt nicht. Wenn man die Stichproben reduziert, um nur den aktuellen Zustand zu "erfassen", wird man mit der Größe der Stichproben selbst konfrontiert - sie ist zu klein, um ein mehr oder weniger volumetrisches neuronales Netz zu trainieren. Es findet ein Übertraining statt. Die Verwendung einfacher neuronaler Netze ist ebenfalls keine Option, da es SEHR schwierig ist, nützliche Daten in den Input zu "stopfen", da der Input klein ist.
 
TimeMaster:

Über Gen-Algorithmen...

Es ist schwer vorstellbar, dass es bei neuronalen Netzen mit mehr als 10000 Synapsen "nützlich" ist. Dies erfordert eine Population von etwa 10000*1000 Individuen, was in Bezug auf die Geschwindigkeit nicht "gut" ist. Über Epochen schweige ich...

Letztes Jahr habe ich eine genetische Optimierung in einer Eule auf 4. Zum Spaß habe ich 88 Eingabeparameter im Bereich 0...200 eingegeben. Trainiert auf 15 Minuten für 2 Wochen ~20 min (P-4 3GHz, 2GB). Ich habe den Plummer - keine Strategie, nur ein Experiment. Wenn Sie Interesse haben, kann ich Ihnen davon erzählen.

 
icas:

Letztes Jahr habe ich eine genetische Optimierung in einer Eule in 4. Zum Spaß habe ich 88 Eingabeparameter im Bereich 0...200 eingegeben. 2 Wochen lang 15 Minuten lang ~20 Minuten lang trainiert (P-4 3GHz, 2GB). Ich habe den Plummer - keine Strategie, nur ein Experiment. Ich kann Ihnen davon erzählen, wenn Sie daran interessiert sind.


Und wenn es 10000 Eingabeparameter gibt, dann wird das Problem in seiner BESTEN Form 10000/88 mal komplizierter, bzw. ~20min*100=2000min ....

Das sind ungefähr eineinhalb Tage...

Wenn man Milliarden von Jahren Zeit hat, kann man sich in einem Spiegel betrachten. :-)

 
solar:
die Datenerhebung, die Datenaufbereitung, die Aufhellung des Rauschens, die Rationierung usw., die durchgeführt werden müssen. So wird die Nicht-Stationarität auf dem Markt bekämpft. (Theoretisch )) )


Die Datenerfassung ist ein gut erforschtes Gebiet, es gibt Möglichkeiten und Orte, an denen man die Geschichte von relativ "guten" Zitaten herunterladen kann.

Auch die Datenaufbereitung gehört der Vergangenheit an. Ich kann Ihnen sagen, dass das Problem der inkonsistenten Daten auch durch eine parallele Konvertierung der einzelnen Dimensionen des Eingabevektors nicht gelöst werden kann.

Bei Rauschen ist es komplizierter, das Intervall ist hier WICHTIG, Minuten im Vergleich zu Wochen sind natürlich "verrauscht", aber 15 Minuten im Vergleich zu Stunden ist eine Frage des Grabens...

Auch die Normalisierung ist ein triviales Thema.

 
TimeMaster:

Über Gen-Algorithmen... Es ist schwer vorstellbar, dass es bei neuronalen Netzen mit mehr als 10000 Synapsen "nützlich" ist. Dies erfordert eine Population von etwa 10000*1000 Individuen, was in Bezug auf die Geschwindigkeit nicht "gut" ist. Ich spreche nicht von Epochen...

10000 Synapsen? Imho ist das ein echter Overkill, ich habe bei etwa 500-700 das Maximum erreicht. Mehr brauchte ich nicht. Übrigens unterrichte ich NS im Rahmen von GA. Ja, es ist langsam, aber es ist für mich bequemer und hat seine Vorteile.
TimeMaster:

Da sich der Markt verändert, ist "2*2" nicht immer gleich 4, und genau da liegt das Problem. Wenn sich der Markt ändert, ändern sich auch die Bedingungen. Die Trainingsmuster beginnen, inkonsistente Daten zu enthalten. Das Netz lernt nicht. Wenn man die Stichproben reduziert, um nur den aktuellen Zustand zu "erfassen", wird man mit der Stichprobengröße konfrontiert - sie ist zu klein, um ein mehr oder weniger volumetrisches neuronales Netz zu trainieren.

2*2 ist nicht immer 4? Es reicht mir, dass z.B. 2*2=4 in 70% der Fälle ist, und ich filtere nicht einmal die restlichen 30% der Beispiele, in denen 2*2 nicht gleich 4 ist. Das Netz kann das ganz gut alleine... Wenn 2*2 in 50% der Fälle gleich 4 ist, sollten Sie versuchen, etwas zu ändern, z.B. Eingaben.... Ich denke, ich habe mich klar ausgedrückt.)

icas:

Letztes Jahr habe ich genetische Optimierung in Eule auf 4. Zum Spaß habe ich 88 Eingabeparameter im Bereich von 0...200 eingegeben. Trainiert auf 15 Minuten für 2 Wochen ~20 min (P-4 3GHz, 2GB). Ich habe den Plummer - keine Strategie, nur ein Experiment. Wenn Sie Interesse haben, kann ich Ihnen davon erzählen.

Erzählen Sie mir davon, natürlich ist es interessant.
 
Figar0:
10000 Synapsen? Imho ist das ein echter Overkill, ich hatte höchstens 500-700. Mehr brauchte ich nicht. Übrigens unterrichte ich NS im Rahmen von GA. Ja, es ist langsam, aber für mich ist es bequemer und hat seine eigenen Vorteile.

2*2 ist nicht immer 4? Es reicht mir, dass z. B. 2*2=4 in 70 % der Fälle ist, und die restlichen 30 % der Beispiele, in denen 2*2 nicht gleich 4 ist, filtere ich gar nicht erst heraus. Das Netz kann das ganz gut alleine... Wenn 2*2 in 50% der Fälle gleich 4 ist, sollten Sie versuchen, etwas zu ändern, z.B. Eingaben.... Ich denke, ich habe mich klar ausgedrückt.)

Erzählen Sie mir davon, natürlich ist es interessant.

Können Sie mir ein Beispiel nennen, bei dem 2*2 nicht gleich 4 ist?

Ich habe das schon oft in der Literatur gelesen, aber leider gibt es keine Beispiele.

Grund der Beschwerde: