Wie arbeiten Sie mit neuronalen Netzen? - Seite 8

 
VladislavVG:

Was meinen Sie mit "Optimierung"? Wenn es nur darum geht, die Optionen durchzugehen, ist das nicht wirklich das, was es ist. Es ist MT, das Sie verwirrt.

Nun zu GA: Es handelt sich um eine Suchmethode, bei der wir im Falle eines Trainingsnetzwerks nach dem Minimum einiger Funktionen suchen. Oft werden Fehler gemacht. Beim Training des Netzes versuchen sowohl ORO und GA als auch Gradienten und Annealing (es gibt eine solche Methode - ähnlich wie GA), ein Extremum zu finden. Welche Methode effektiver ist, hängt vom Funktions- und Qualitätskriterium ab (d.h. dem Kriterium, nach dem die besten Varianten ausgewählt werden). GA ist die universellste aller Methoden. Keiner von ihnen garantiert das Auffinden des globalen Extremwerts.

Bei der Verwendung von GA ist es z.B. möglich, gleichzeitig die Netzarchitektur zu wählen, d.h. sie (Architektur) in die optimierten Parameter einzubeziehen und ein Qualitätskriterium (Fitnessfunktion im Sinne von GA) festzulegen. Es gibt noch mehr Möglichkeiten. Und falls erforderlich, können Sie ORO auch zusammen mit GA verwenden.

Viel Glück!


Sie haben bereits selbst geantwortet, dass GA kein neuronales Netz ist. Es könnte ebenso gut eine Gradientenmethode wie eine NS sein. Es gibt ein Auto und einen Fahrer. Und es gibt eine Reihe von Möglichkeiten, einem Fahrer das Autofahren beizubringen, aber jede dieser Möglichkeiten ist kein Auto.

Dies ist auch die Behauptung von Swetten. Ich verstehe nicht ganz, worüber Sie sich streiten?

 
Farnsworth:

Sie haben selbst geantwortet, dass GA kein neuronales Netz ist. Die Gradientenmethode könnte ebenso gut eine einfache NS sein. Es gibt ein Auto und einen Fahrer. Und es gibt viele Möglichkeiten, dem Fahrer das Fahren eines Autos beizubringen, aber jede dieser Möglichkeiten ist kein Auto.

Dies ist auch die Behauptung von Swetten. Ich verstehe nicht ganz, was Sie damit bezwecken wollen?

Ich habe also nicht behauptet, dass GA NS ist. Als Antwort auf Swetlanas Satz habe ich gezeigt, wie NS und GA miteinander verbunden werden können,

Напомню изначальное утверждение: НС и ГА -- совершенно разные вещи, между собой никак не связанные.

Dass es keinen solchen Zusammenhang gibt.


Viel Glück!
 
VladislavVG:

Ich habe also nicht behauptet, dass GA NS ist. Ich habe gezeigt, wie NS und GA zusammenhängen könnten, um auf Swetlanas Satz zu antworten, dass es so etwas nicht gibt.

1. Sie haben das Thema nicht sorgfältig gelesen und nicht verstanden, worauf sich der Satz bezog;

2. Das Lustigste daran ist, dass sie wirklich nichts damit zu tun haben. Wenn man GA hinzufügt, ist es eine Sache; wenn man ORO hinzufügt, ist es eine andere Sache; wenn man etwas anderes hinzufügt, ist es eine andere Sache.

3. GA ist nur ein Optimierungsmechanismus. Es handelt sich um einen universellen Mechanismus, das muss ich betonen. Ich meine, es ist eine universelle, auch für die NS-Optimierung.

Was die Punkte 2 und 3 betrifft, so komme ich zu dem Schluss, dass NS und GA nichts miteinander zu tun haben.

 

NS - Transformationsmethode (wie auch immer: Annäherung, Klassifizierung, Filterung, logische Transformation)

GA - Optimierungsverfahren.

Das eine ist nicht das andere und kann sich nicht gegenseitig ersetzen. Und basta.

In vielen Artikeln und Büchern über NS, in denen von künstlichen neuronalen Netzen die Rede ist, wird impliziert, dass diese von ORO trainiert werden, was die Leser in die Irre führt. Nicht nur das, ich bin auch schon auf Aussagen gestoßen, dass "solche Netze nicht funktionieren, weil....", während ein Netz, das mit einem anderen Optimierungsalgorithmus trainiert wurde, bereits ein völlig anderes Netz ist, das diesen "anderen" Netzen völlig andere Qualitäten zuschreibt - ein Schafspelz. Ein Netzwerk ist ein Netzwerk, es wird seine Eigenschaften nicht ändern, wenn wir es mit irgendeiner Optimierungsmethode trainieren. Es kann die Qualität der Ausbildung verändern, das ist alles.

Grund der Beschwerde: