"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 22

 
Wer hat mit SLTM zu tun?
Long short term memory - Wikipedia, the free encyclopedia
Long short term memory - Wikipedia, the free encyclopedia
  • en.wikipedia.org
Long short term memory (LSTM) is a recurrent neural network (RNN) architecture (an artificial neural network) published1 in 1997 by Sepp Hochreiter and Jürgen Schmidhuber. Like most RNNs, an LSTM network is universal in the sense that given enough network units it can compute anything a conventional computer can compute, provided it has the...
 
gpwr:

Sie mit den Links auf einmal. Ich verstehe Sie nicht ganz. Oder ohne die Abkürzungen :) .

Und imho kann jedes Modellierungsnetz ein Klassifikator sein.

 
TheXpert:
Wer hatte mit SLTM zu tun?

Hier wollte ich gerade fragen, ob alle Neuronen eine funktionierende Strichstruktur haben:

in*wg
  +
 ...

Jetzt sehe ich, dass nicht alle von ihnen, müssen wir dies berücksichtigen und eine Vielzahl von Algorithmen nicht nur durch Aktivator-Typ, sondern auch durch Neuron-Typ zu machen.

 
Mischek:
Sie versuchen zunächst, eine allgemeine oder fast allgemeine Meinung über die Anforderungen an einen Spezialisten zu formulieren
Nein, nein. Das ist nicht einmal die zweite Stufe der Dämmerung, es ist die dritte.
 
Mischek:
Sie versuchen zunächst, eine allgemeine oder fast allgemeine Meinung über die Anforderungen an einen Spezialisten zu formulieren

Vladimir gpwr ist mir persönlich sympathisch, vielleicht kommen noch ein paar andere hinzu, so dass noch keine Einladungen nötig sind.

Die andere Sache ist, dass die Leute an Dinge gewöhnt sind, die sich mit einem Stundentakt bewegen sollten, aber das ist OpenSourse, solche Projekte können viel länger dauern, weil die Leute arbeiten, wenn sie Zeit haben.

 
TheXpert:
Wer hat mit SLTM zu tun?
Warum genau sind Sie daran interessiert?
 
Urain:
Warum genau sind Sie daran interessiert?
Ich bin mit dem Prinzip überhaupt nicht vertraut. Sie ist nicht die Einzige, ich kann noch mehr Fragen stellen :)
 
TheXpert:

Sie mit den Links auf einmal. Ich verstehe Sie nicht ganz. Oder ohne die Abkürzungen :) .

Und imho kann jedes Simulationsnetz ein Klassifikator sein.

SVM = Support-Vektor-Maschine

RBN = Radiales Basis-Netzwerk

Hier sind einige Links:

Т. Serre, "Robust Object Recognition with Cortex-Like Mechanisms", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE

Bell, A. J., Sejnowski, T. J. (1997).
Die unabhängigen Komponenten der natürlichen Szenen sind Kantenfilter.
Vis. Res., 37, 3327-3338, In.

Olshausen, B. A., Feld, D. J. (1996).
Entstehung von Eigenschaften des rezeptiven Feldes einfacher Zellen durch Lernen eines spärlichen Codes für natürliche Bilder.
Natur, 381(6583), 607-609.

http://www.gatsby.ucl.ac.uk/~ahrens/tnii/lewicki2002.pdf

 
TheXpert: SLTM
Ich bin mit dem Prinzip überhaupt nicht vertraut. Es ist nicht die einzige, ich kann mehr Fragen stellen :)

Wiki sagt, dass zusätzlich zu den üblichen Schaltungen.

in*wg
  +
 ...

Das Neuron verwendet auch Eingänge Multiplikation, und Feedback-Signal (offenbar von Verzögerung), schwört auch, dass die wichtigsten BeckProP Methode oft stecken bleibt, wenn ein Fehler Zyklen in Rückkopplungen, so ist es wünschenswert, Hybride des Lernens mit GA zu machen. Die Aktivatoren befinden sich nur auf der ersten Schicht, dann ist alles linear, das erste Neuron (oder der Ausschuss, den ich nicht wirklich verstehe) wandelt die Eingaben um, die anderen spielen die Rolle von Filtern (lassen das Signal durch oder nicht).

Man kann es einen neuronalen Block nennen oder ein einzelnes Neuron, das eine komplexe Funktion weitergibt - je nachdem, wie man es betrachtet, wird ein Netzwerk aus solchen Blöcken aufgebaut.

 
TheXpert:
Ich bin mit dem Prinzip überhaupt nicht vertraut. Sie ist nicht die Einzige, ich kann noch mehr Fragen stellen :)
Sie sind nicht der Einzige, dem es so geht.