Hybride neuronale Netze. - Seite 7

 
joo >> :

Eigentlich habe ich ihn erfunden, als ich in der 3. oder 4. Klasse war. Wann werden die Wurzeln gezogen? Hier habe ich Quadratwurzeln, Kubikwurzeln... Aber auf einem Notizbuchpapier mit Quadraten darin.

Ich habe es getestet. Die Ergebnisse sind wirklich beeindruckend.


Stimme (Prahlerei).
 
IlyaA >> :

Hat Sie die von mir beschriebene Aufgabe nicht berührt? Es ist irgendwie alles durcheinander. Niemals. Die meisten funkelektronischen Geräte sind nach diesem Prinzip aufgebaut.

Wir extrapolieren nicht oder bilden einen Durchschnitt, wir isolieren. Die Geräuschintegration funktioniert hier.

Der Sinn des Lernens besteht nicht darin, einige der auftretenden Besonderheiten herauszufiltern und sich diese dann zu merken. Und es ist nicht einmal so, dass wir die Merkmale nicht herausfiltern können.

Ich habe das Prinzip des Lernens in einem der Threads umrissen:

Lernen ist der Prozess des Erwerbs der Fähigkeit, zu verallgemeinern, zu klassifizieren, zu abstrahieren und Schlussfolgerungen zu ziehen.

Mit welchen Mitteln, ist eine andere Frage.

IlyaA schrieb(a) >>.

Wie lernen die Menschen? :) Sie lesen ein Thema, dann ein anderes. Jedes Thema wird einzeln behandelt. Dann verallgemeinern sie. Auf diese Weise wird Ihr Raster das Bild auswendig lernen und nichts verallgemeinern. Sie wird hoch spezialisiert sein.

Lesen Sie oben.

IlyaA schrieb(a) >>.

Lesen Sie nicht zu viele Bücher. Was empfehlen Sie? Fernsehen und den Kopf gegen die Wand schlagen?

Die Bedeutung ist tiefer, als es scheint, oder vielmehr scheint es, dass diese Worte überhaupt keine Bedeutung haben. Es geht darum, zu denken, zu argumentieren und Schlussfolgerungen zu ziehen, nicht darum, auswendig zu lernen.

IlyaA schrieb(a) >>.

Sagen Sie es laut (Prahlerei).

Ich brauche es nicht. Es gab eine Frage, es gab eine Antwort.

 
IlyaA >> :


Oh ja, das Netz ist in den ersten Phasen vollverknüpft, oder wie Faltungsnetze, aber es gibt viele Schichten). Und all dieses Glück wird mit 10 multipliziert und beginnt sich zu paaren. Jeder von ihnen muss verarbeitet werden, d.h. wir haben 10x. Und wenn man eine Idee hat, wie man einen gewinnbringenden Trick beibringen kann, dann muss ich das gesamte Zeitintervall für jede Generation berechnen und es durch alle Nachkommen laufen lassen. Dieser Vorgang war sehr ressourcenintensiv, weshalb ich auf meine ursprüngliche Frage zurückkomme.

Warum nicht RProp verwenden? Im Falle der Genetik führt dies zu einer erheblichen Beschleunigung der Berechnungen.

 
joo >> :

Der Sinn des Lernens besteht nicht darin, einige besondere Merkmale herauszufiltern und sich diese dann zu merken. Es ist nicht einmal so, dass wir die Merkmale nicht herausfiltern können.

Ich habe das Prinzip des Lernens in einem der Threads umrissen:

Lernen ist der Prozess des Erwerbs der Fähigkeit, zu verallgemeinern, zu klassifizieren, zu abstrahieren und Schlussfolgerungen zu ziehen.

Mit welchen Mitteln - das ist eine andere Frage.


Mir scheint, wir haben begonnen zu philosophieren, und ich schlage vor, die Diskussion über dieses Thema mit einem "Wir bleiben bei unseren Waffen" zu beenden.
 
rip >> :

Warum nicht RProp verwenden? Im Falle der Genetik führt dies zu einer erheblichen Beschleunigung der Berechnungen.


Ich stimme zu, dass sie schneller ist, ebenso wie der Gradientenabstieg. Der Unterschied ist nicht groß. Der Sinn des Einsatzes der Genetik besteht darin, dass die Wahrscheinlichkeit, ein GLOBALES Extremum zu finden, gegen 1 geht. Kein Farbverlauf wird dies zeigen (korrigieren Sie mich, wenn ich falsch liege). Außerdem ist die Oberfläche einer optimierten Hyperebene mit einer unendlichen Anzahl lokaler Extrema mit signifikanten Amplituden gespickt. Doch immer mehr Neuronen gießen Öl ins Feuer - die Hyperebene wird immer komplizierter. Unter solchen Bedingungen konvergieren die Gradienten, aber wie ich oben schrieb, liegt die Wahrscheinlichkeit, ein globales Extremum zu finden, bei 50-80 %.
 
IlyaA писал(а) >>

Ich stimme zu, dass sie schneller ist, ebenso wie der Gradientenabstieg. Der Unterschied ist nicht groß. Der Sinn des Einsatzes der Genetik ist, dass die Wahrscheinlichkeit, ein GLOBALES Extremum zu finden, nahe bei 1 liegt. Kein Farbverlauf wird dies zeigen (korrigieren Sie mich, wenn ich falsch liege). Außerdem ist die Oberfläche einer optimierten Hyperebene mit einer unendlichen Anzahl lokaler Extrema mit signifikanten Amplituden gespickt. Doch immer mehr Neuronen gießen Öl ins Feuer - die Hyperebene wird immer komplizierter. Unter solchen Bedingungen konvergieren die Gradienten, aber wie ich oben schrieb, liegt die Wahrscheinlichkeit, ein globales Extremum zu finden, bei 50-80 %.

Haben Sie konkrete Ergebnisse aus dem Handel mit diesem System? >> Ist es die Mühe wert?

 
IlyaA >> :


Ich stimme zu, dass sie schneller ist, ebenso wie der Gradientenabstieg. Der Unterschied ist nicht groß. Der Sinn des Einsatzes der Genetik ist, dass die Wahrscheinlichkeit, ein GLOBALES Extremum zu finden, nahe bei 1 liegt. Kein Farbverlauf wird dies zeigen (korrigieren Sie mich, wenn ich falsch liege). Außerdem ist die Oberfläche einer optimierten Hyperebene mit einer unendlichen Anzahl lokaler Extrema mit signifikanten Amplituden gespickt. Doch immer mehr Neuronen gießen Öl ins Feuer - die Hyperebene wird immer komplizierter. Unter solchen Bedingungen konvergieren die Gradienten, aber wie ich oben schrieb, liegt die Wahrscheinlichkeit, ein globales Extremum zu finden, bei 50-80 %.

Ich stimme zu, dass der Gradient keine 100%ige Konvergenz des Lernalgorithmus gewährleistet.

Ich verwende GAs nur, um eine neue Netztopologie zu erhalten. Im Durchschnitt erreicht RProp ein lokales Minimum in 100-200 Epochen.

Danach werden die produktivsten Individuen gefunden und eine neue Population wird gebildet. Mutation. RProp.

 
rip >> :

Ich stimme zu, dass der Gradient keine 100%ige Konvergenz des Lernalgorithmus gewährleistet.

Ich verwende GAs nur, um eine neue Netztopologie zu erhalten. Im Durchschnitt erreicht RProp ein lokales Minimum in 100-200 Epochen.

Danach werden die leistungsstärksten Individuen gefunden und eine neue Population gebildet. Mutation. RProp.


Die Kombination bedeutet. Meine Herren, lassen Sie mich allen gratulieren! Wir haben gerade den Namen der Niederlassung gerechtfertigt. Das ist eine Idee! Dazu fällt mir Folgendes ein. Mutationen in der Genetik verändern 20-40 % der Skalen in kleinen Schritten. Besteht eine hohe Wahrscheinlichkeit, dass die Nachkommen in den Lebensraum ihrer Eltern zurückkehren?
 
FION >> :

Haben Sie konkrete Ergebnisse aus dem Handel mit diesem System? >> Ist es die Mühe wert?


Es liegen keine konkreten Ergebnisse vor. Nur Ideen und Vorhersagen. Alle Wahrnehmungen, die ich gemacht habe, haben nicht bis zum Indikatorstadium überlebt. Ich habe sie abgelehnt. :( Die beste Idee, die derzeit besteht, überwindet die Ressourcenintensität des Algorithmus. Aber Vera lebt weiter (auch Nadya und Lyuba :).
 

Frage.

Wer hat die Takagi-Sugeno-Kanga Fuzzy-Netze entwickelt?

Grund der Beschwerde: