Wie arbeiten Sie mit neuronalen Netzen? - Seite 7

 
Swetten:

Ich möchte Sie an die ursprüngliche Aussage erinnern: NS und GA sind völlig unterschiedliche Dinge, die in keiner Weise miteinander verbunden sind.

Das eine geht in keinster Weise in das andere über.


Warum nicht: ORO <-> GA ;).

Viel Glück!

 

VladislavVG:

Warum nicht: ORO <-> GA ;).

Wenn Sie ORO entfernen - funktioniert GA dann noch ohne es?

Darf ich fragen, was genau das GA sein soll?

Ja, ja. Das ist ein harter Kurs, den sie dir da anbieten.

Viel Glück! :)

 
LeoV:

Es geht nicht um Dynamik. Die Dynamik kann beliebig sein - solange die Muster, die das Netz während der Trainingszeit gefunden hat, auch in Zukunft funktionieren. Das ist das Problem .....)))

ich meinte die dinamika, solange man das gleiche Paar ins Netz stellt... was die anderen Regelmäßigkeiten angeht - ich stimme zu... aber woher nehmen, dass sie immer funktionieren ))))
 
Swetten:

Und wenn Sie den ORO entfernen, bedeutet das, dass der GA auch ohne ihn funktioniert?

Sieh an, sieh an, sieh an. Sie bringen dir dort viel bei.

Viel Glück dabei. :)

Erklären Sie genau, was Sie mit "ORO entfernt" und "GA funktioniert auch ohne" meinen?

Wenn Sie meinen, dass der ORO-Lernalgorithmus durch GA ersetzt/erweitert wird, was ich meinte, dann wird er das, wenn nicht, dann habe ich das wohl missverstanden. In vielen Fällen funktioniert auch die konjugierte Gradientenmethode, die wesentlich effizienter ist als ORO. Es kommt auf die Funktion an, die minimiert werden soll.

Und was die "harte Lehre" angeht, so kann ich nur sagen: Sie sind offenbar stark untergebildet ;).

Viel Glück!

ZZY Können Sie Artikel über die Modifizierung von Lernalgorithmen mit GA finden? Es gibt auch welche auf Russisch ;).

 
VladislavVG:

Erläutern Sie genau, was Sie mit "ORO entfernt" und "GA funktioniert auch ohne ORO" meinen.

Sie sollten diejenige sein, die fragt, was es ist. Und Reschetow. Oder wie ist Ihr "Nun, warum: GRO <-> GA" zu verstehen?

Was ich persönlich verstehe: GA ist nur ein Optimierungsmechanismus. Optimierung von allem. GA ermöglicht es, sich von der Brute-Force-Optimierung zu befreien.

Das hat nichts mit neuronalen Netzen zu tun. Eigentlich schon, aber nur als Mechanismus für die Suche nach optimalen Gewichten.

Deshalb ist die GA kein NS und wird es auch nie sein.

 

VladislavVG:

Wenn Sie damit meinen, den ORO-Lernalgorithmus durch GA zu ersetzen/erweitern, wie ich sagte, wird er das tun, wenn nicht, habe ich das wohl missverstanden. In vielen Fällen funktioniert auch die konjugierte Gradientenmethode, die wesentlich effizienter ist als ORO. Es kommt auf die Funktion an, die minimiert werden soll.

Und auf die Frage nach "streng gelehrt" kann ich mit dem gleichen Satz antworten: Es scheint, dass Sie stark untergebildet sind ;).

Ich zerbreche mir den Kopf, um Ihren ersten Satz zu verstehen.

Nach den von Ihnen aufgelisteten Optionen zu urteilen, könnte es wie folgt strukturiert sein: "Wenn Sie meinen, dass der ORO-Lernalgorithmus durch den Einsatz von GA ersetzt werden soll, wovon ich gesprochen habe, dann wird es das geben".

Wird was? Arbeit statt NS?

 
Swetten:

Sie sind derjenige, der fragen sollte, was es ist. Oder wie ist Ihr "Nun, warum: ORO <-> GA" zu verstehen?

Was ich persönlich verstehe: GA ist nur ein Optimierungsmechanismus. Optimierung von allem. GA ermöglicht es, sich von der Brute-Force-Optimierung zu befreien.

Das hat nichts mit neuronalen Netzen zu tun. Eigentlich schon, aber nur als Mechanismus für die Suche nach optimalen Gewichten.

Daher ist die GA kein NS und wird auch nie einer sein.

Was meinen Sie mit "Optimierung"? Wenn es sich nur um eine Suche nach Varianten handelt, ist das nicht ganz dasselbe. Es ist MT, das dich verwirrt.

Nun zu GA: Es handelt sich um eine Suchmethode, bei der wir für das Training eines Netzwerks ein Minimum an Funktionalität suchen. Oft werden Fehler gemacht. Beim Training des Netzes versuchen sowohl ORO und GA als auch Gradienten und Annealing (es gibt eine solche Methode - ähnlich wie GA), ein Extremum zu finden. Welche Methode effektiver ist, hängt vom Funktions- und Qualitätskriterium ab (d.h. dem Kriterium, nach dem die besten Varianten ausgewählt werden). GA ist die universellste aller Methoden. Keiner von ihnen garantiert das Auffinden des globalen Extremwerts.

Bei der Verwendung von GA ist es z.B. möglich, gleichzeitig die Netzarchitektur zu wählen, d.h. sie (Architektur) in die optimierten Parameter einzubeziehen und ein Qualitätskriterium (Fitnessfunktion im Sinne von GA) festzulegen. Es gibt noch mehr Möglichkeiten. Und wenn nötig, können Sie ORO auch zusammen mit GA verwenden.

Viel Glück!

 
Swetten:

Wird was? Arbeit statt NS?

Die Trainingsmethode wird nicht "stattdessen" funktionieren. Schließlich arbeitet die ERO nicht "anstelle von NS". Diese Frage wurde weiter oben ausführlicher beantwortet.

Viel Glück!

 
VladislavVG:

Was verstehen Sie unter "Optimierung"? Wenn es nur darum geht, Optionen durchzugehen, dann ist es nicht wirklich das, was es ist. Es ist MT, der dich verwirrt.

Nun zu GA: Es handelt sich um eine Suchmethode, im Falle des Lernens eines Netzwerks suchen wir nach einem Minimum an Funktionalität. Oft gibt es Fehler. Beim Training des Netzes, sei es mit ORO oder GA, sei es mit Gradienten oder Annealing (es gibt eine solche Methode - ähnlich wie bei GA), versucht man, ein Extremum zu finden. Welche Methode effektiver ist, hängt vom Funktions- und Qualitätskriterium ab (d.h. dem Kriterium, nach dem die besten Varianten ausgewählt werden). GA ist die universellste aller Methoden. Keiner von ihnen garantiert das Auffinden des globalen Extremwerts.

Bei der Verwendung von GA ist es z.B. möglich, gleichzeitig die Netzarchitektur zu wählen, d.h. sie (Architektur) in die optimierten Parameter einzubeziehen und ein Qualitätskriterium (Fitnessfunktion im Sinne von GA) festzulegen. Es gibt noch mehr Möglichkeiten. Und wenn nötig, können Sie ORO auch zusammen mit GA verwenden.

Viel Glück!

Igitt! Sie sind völlig verwirrt!

Sie sollten diesen Thread noch einmal lesen.

Reshetov behauptet: "Da wir es mit einer Blackbox zu tun haben, ist es durchaus möglich, dass anstelle eines neuronalen Netzes in einem Firmware-Paket ein genetischer Algorithmus verwendet wird, und vielleicht eine Regression oder eine andere Extrapolationsmethode".

https://www.mql5.com/ru/forum/108709/page4

Das versuche ich herauszufinden, was es war. Und die ORO verwechselte sie mit GRNN.

 

VladislavVG:

Die Trainingsmethode wird nicht "stattdessen" funktionieren. Schließlich funktioniert EDC nicht "anstelle von NS".

Das ist es, was ich versucht habe, Ihnen zu sagen. :)

Und jemand anderes.

Es ist nur so, dass Ihre ursprüngliche Nachricht falsch war.

Grund der Beschwerde: