Neuronale Netze, wie beherrscht man sie, wo fängt man an? - Seite 6

 
nord >> :

>> ...aber Better hat sehr gute Ergebnisse erzielt, so dass man etwas überleben kann, wenn man es richtig einsetzt.

Nach den Ergebnissen des CHAMPI 2008 zu urteilen, bei dem Mr. Better und andere CHAMPI-Teilnehmer NS verwendet haben, welche Plätze haben ihre Berater eingenommen?

Wie wir 2008 gesehen haben, sind die Anführer der Meisterschaft Berater jeglicher Art, aber nicht diejenigen mit NS!

Dies führt zu einer weiteren Frage: Wurde Herr Better 2007 nicht aus Versehen erschossen?

 
Der NS in der TS ist ein Fit mit Redundanz,
aber selbst die Redundanz der neuronalen Netze reicht möglicherweise nicht aus, um einen Gewinn zu erzielen.
 
TheXpert писал(а) >>

Blödsinn.

Bei vielen Problemen zeigt das 4-Schicht-Perspectron deutlich bessere Ergebnisse und Konvergenz.

Mancherorts wird sogar ein 5-lagiges Modell verwendet. Die mittlere verborgene Schicht erfasst Zwischendaten für weitere Analysen.

Im Übrigen sind die eingesetzten Kreislaufnetze nichts anderes als ein Perseptron. Und ein nichtlineares RNS, das eingesetzt wird, ist einfach ein 5-Schicht-Perseptron.

Über komplexe Netze (mit mehreren Ausgabeschichten und komplexen Verknüpfungen), die auf einem Perseptron basieren, möchte ich vorerst schweigen.

Es ist ziemlich kompliziert.

Ich weiß, dass vor nicht allzu langer Zeit zwei Theoreme bewiesen wurden. Die erste besagt, dass das dreischichtige nichtlineare NS (das aus drei Schichten von Neuronen mit Nichtlinearität am Ausgang jeder Schicht besteht) ein universeller Approximator ist und dass eine weitere Erhöhung der Anzahl der Schichten die Leistung des Netzes nicht erhöht. Nach dem zweiten Theorem hängt die Rechenleistung des Netzes nicht von der spezifischen Art der Nichtlinearität an den Ausgängen seiner Neuronen ab. Wichtig ist, dass im Prinzip eine Nichtlinearität vorliegt, und es spielt keine Rolle, um welche Art von Nichtlinearität es sich genau handelt - Sigmoid oder Arkustangens. Das erspart uns die Suche nach dem Besten vom Gleichen.

Diese beiden Theoreme vereinfachen für uns die Wahl der NS-Architektur radikal und reduzieren den Umfang der möglichen Forschungsarbeit spürbar.

Darüber hinaus beweisen wir eine eindeutige Beziehung zwischen der optimalen Länge der Trainingsstichprobe auf historischen Daten, der Dimensionalität des NS-Eingangs und der Gesamtzahl seiner Synapsen, im Sinne der Minimierung des Vorhersagefehlers auf Daten, die nicht am Training des Netzwerks teilgenommen haben. So kann man sich nicht auf den Leninismus einlassen, indem man dieses Optimum manuell auswählt. Bei den vorhandenen Kapazitäten von MS spart es spürbar Zeit und Kräfte.

 
Andrey4-min >> :

Liebe Forumsmitglieder, das Thema dieses Threads sind Neuronale Netze, wie kann man sie beherrschen, wo soll man anfangen?

Nähern wir uns dem Thema....

Näher am Thema? Kein Problem! Schreiben Sie zunächst ein Neuron und kombinieren Sie es dann zu einem Netzwerk. Und fortgeschrittene Software ist für später. Alle anderen Ratschläge sind Blödsinn.

 
Korey >> :
Der NS im TS ist eine Armatur mit Überschuss...

jeder Matrixapparat in tc ist eine Anpassung,

Nehmen wir zum Beispiel die alte Methode der Anpassung - die exponentielle Glättung mit zwei Parametern, die keineswegs schlechter ist als AI und NS.

 
PraVedNiK писал(а) >>

Exponentielle Zwei-Parameter-Glättung, NICHT schlechter als AI und NS.

Das ist richtig: Die biparametrische exponentielle Glättung ist NICHT schlechter als NS mit zwei Eingängen.

Andererseits können wir in der realen NS die Dimensionalität der Eingabe frei wählen. Für GP des Preistyps liegt die typische Dimensionalität im Bereich von 10-100. Hier wird es schwierig sein, ein Modell mit einer solchen Anzahl von Parametern zu erstellen, und es wird sicherlich unmöglich sein, sie in einer angemessenen Zeit zu optimieren. Zu diesem Zweck verwendet NS die Methode der Rückvermehrung von Fehlern, die viel schneller ist als der genetische Algorithmus im Tester, und erst recht als die stupide Suche nach Parametern.

 
Die Arbeit mit dem NS im TS lässt mich erschaudern - ich muss nicht nachdenken, das ist nicht nötig,
d.h. alle Sorgen sind wie für Mädchen: was soll man berechnen, wann soll man füttern, was soll man mit was vergleichen = eine Art Pfründe,
Ich habe mich entschieden, es getestet und meine Hände in die Hose gesteckt (um mit Bällen zu spielen))), in Erwartung der Ergebnisse.
Computer funktioniert - Trader rests)))) nichts Persönliches.
 
Nein, wenn Sie genug Fleiß und Wissen haben, um einen theoretischen Rahmen für die auf dem Kotir gefundene Regelmäßigkeit zu finden, dann bitte - nutzen Sie das zu Ihrem Vorteil! Doch wie lange wird dieses Muster anhalten? Dies sind keine Gesetze der Mechanik, die ewig sind. Morgen wird sich der Markttrend ändern und Sie müssen ein Blatt Papier nehmen und zählen... Lassen Sie den TS mit NS das machen. Dumm, aber stichhaltig.
 
Neutron >> :

...

verwendet die Backpropagation-Methode, die deutlich schneller ist als der genetische Algorithmus des Testers, ganz zu schweigen von der stummen Parameteraufzählung.

Die Backpropagation-Methode bietet KEINE Garantie für das Auffinden des globalen Minimums der Fehlerfunktion, und für 10-100 Eingaben

am Eingang des Netzes... Eigentlich hat noch niemand die Verkleinerung des Netzes rückgängig gemacht; zwei Eingänge reichen aus, wenn die Hauptkomponenten vorher analysiert werden, aber das Problem ist, dass diese Analyse, ebenso wie das Training, auch in der Vergangenheit durchgeführt wird.

 
Seien Sie nicht so streng mit sich. Schließlich wird das Netz manchmal neu trainiert (und ich mache das bei jedem analysierten BP) und die Durchschnittsmethode findet ein Minimum. Was die Dimensionalitätsreduktion betrifft, so funktioniert sie bei GPs wie Preis-GPs leider nicht in dem von Ihnen dargestellten Umfang.
Grund der Beschwerde: