"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 35
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Idealerweise sollte es mit dem Logo von metaqvot übereinstimmen (freundlich sein).
MetaPerzeptiv ;) (Wahrnehmende Wahrnehmung)
es gibt sogar eine Idee für das Logo :) -- Der Name des Roboters, der an einer Blume schnüffelt, ist eine Anspielung auf die Doppeldeutigkeit des Wortes Perceptive. Je ungewöhnlicher der Roboter ist, desto besser :)
________
einfach und geschmackvoll Neural. oder TheNeural :)
________
Neuronale Netze eXtension (NNX).
________
Neuronale Netze Xpert (NNXpert) :))))
________
Werkzeugsatz für neuronale Netze (NNToolkit)
________
Neuronale Netze Werkzeuge (NNTools)
Ich bin sehr für Neuronale Netze eXtension (NNX).
insbesondere diesen Teil von Neural NetseXtension (NNX), denn werden wir ordentlich versauen.
Ist es nicht besser, in Neural Universal eXtension (NUX) fast LINUX umzuwandeln?
Falls die Frage an mich gerichtet ist: In der Literatur werden die von mir beschriebenen Netze als hierarchische neuronale Netze bezeichnet.
EMNIP, das Cognitron ist etwas Ähnliches.
Ich warte auf die Fortsetzung :)
Ja, wir sollten entweder eine Abstimmung durchführen oder Metakvotam anschließend Optionen vorschlagen.
Warum die Eile, im Prinzip sollten wir auch in den Namen des Produkts die Möglichkeit des Austauschs mit anderen Neuro-Packs und die Erzeugung einer endgültigen fertige Berater berücksichtigen.
Das Produkt ist mehr als NN. Im Laufe des Prozesses kann sich daraus etwas anderes Nützliches entwickeln.
Das Produkt ist größer als NN.
Verstanden. Aber speziell auf NN bezogen. Wird genauer gebunden.
Ich fürchte, wir werden so etwas wie "AWVREMGVTWNN" bekommen :) Die Hauptsache ist, das Wesentliche zu vermitteln, die Nuancen sind nicht so wichtig.
Informationen über
-konjugierter Gradientenabstieg
-BFGS
Konjugierte Gradientenmethode (wiki)
-BFGS (wiki)
Vorlesung 3. Das HMAX-Modell
Um die Einzelheiten der biologischen Umwandlung visueller Informationen zu verstehen, werden wir uns das populäre Objekterkennungsmodell HMAX ("Hierarchical Model and X") ansehen. Dieses Modell wurde von MIT-Forschern unter der Leitung von Tomaso Poggio in den späten 1990er Jahren entwickelt. Die Beschreibung und der Code des Modells sind hier zu finden
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
Mit einigen leichten Modifikationen leistet HMAX bei der Gesichtserkennung wesentlich bessere Arbeit als klassische neuronale Netze. Dieses Bild beschreibt das Modell recht gut:
Die erste Schicht des Modells (S1) besteht aus Filtern aus kurzen, geraden Abschnitten mit vier verschiedenen Neigungen (vertikal, horizontal, 45-Grad-Neigung und 135-Grad-Neigung - dargestellt in rot, gelb, grün und blau), jeweils 16 groß, so dass jeder Abschnitt des Eingangsbildes von 4 x 16 Filtern "abgedeckt" wird. Jeder Filter ist ein Neuron mit einem Ausgang, der der Summe der Bildpixel in einem bestimmten Bereich des Bildes multipliziert mit den Eingangsgewichten dieses Neurons entspricht. Diese Eingangsgewichte werden durch die Gabor-Funktion beschrieben. Hier ist ein Beispiel für diese Filter (Gewichte):
Die zweite Schicht des Modells (C1) besteht aus komplexen Neuronen. Jedes komplexe Neuron wählt die maximale Aktivierung (Ausgabe) von S1-Neuronen aus, die Abschnitte mit derselben Steigung in verschiedenen Teilen des Bildes und zwei angrenzenden Dimensionen filtern. Somit ist dieses komplexe Neuron invariant gegenüber der Position und Größe der Elementarsegmente, was im Folgenden erläutert wird:
Neuronen in der dritten Schicht des Modells (S2) erhalten Eingaben von C1-Neuronen. Als Ergebnis erhält man Filter mit komplexeren Formen (bezeichnet als P1, P2,...), die aus elementaren Segmenten zusammengesetzt sind. Für jede Figur gibt es 4 Sätze von Filtern in verschiedenen Größen. Die Filter innerhalb jedes Satzes unterscheiden sich durch ihre räumliche Position ("Blick" auf verschiedene Teile des Bildes).
Neuronen der vierten Schicht des Modells (C2) wählen die maximale Aktivierung von S2-Neuronen, die dieselbe Figur filtern, aber von unterschiedlicher Größe und räumlicher Anordnung sind. Das Ergebnis sind Filter mit komplexeren Formen, die in Bezug auf ihre Position und Größe unveränderlich sind.
Referenzen:
T. Serre, "Robuste Objekterkennung mit kortexähnlichen Mechanismen", IEEE Trans. zu Muster, August 2006.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf