Wie arbeiten Sie mit neuronalen Netzen? - Seite 3

 
Soweit ich weiß, gibt es keine öffentlich zugänglichen Quellen. Sind sie nur von Fall zu Fall verfügbar? Wenn es Ihnen nichts ausmacht, schicken Sie sie bitte an die oben genannte E-Mail-Adresse.
 

"Selig ist, der da glaubt, ihm wird warm in der Welt"...

 

"Блажен, кто верует, тепло тому на свете"...

Mann, drei Seiten in diesem Thread und ich habe noch keine einzige Antwort auf meine Fragen bekommen. Wie schwer kann es sein, zu helfen. Ich bitte und bitte um das Richtige. Vielen Dank, Gemeinde.

 
sayfuji:

"Selig ist, der da glaubt, ihm wird warm in der Welt"...

Mann, drei Seiten in diesem Thread und ich habe immer noch keine einzige Antwort auf meine Fragen bekommen. Wie schwer kann es sein, zu helfen? Ich bitte und bitte um das Richtige. Vielen Dank, Gemeinde.

Sie können es nicht leugnen - wissen Sie, wie Sie das Thema unterstützen können, ohne ein Wort zur Sache zu sagen.

 

Sayfuji, du solltest wenigstens etwas recherchieren. Hier gibt es viele Threads über neuronale Netze.

Sie können auch hier nachsehen, er ist auch ein sehr bekannter und geschätzter Besucher dieses Forums

http://fxreal.ru/forums/index.php

 

Ich habe mich der Frage verantwortungsbewusst genähert, aber der geschätzte LeoV hat das Gespräch in Gang gehalten, aber nicht auf den Kern der Frage geantwortet. Er lebte auf der Alp...ri Forum für einige Zeit, so in seinem Wissen und Fähigkeiten, die ich nicht bezweifeln, so wartete ich für seine Antwort, aber es war nicht da.

PS Prival ist eine wirklich gute Website, ich benutze sie jetzt seit einigen Monaten. klot gut gemacht.

 
Vielleicht wurde ich missverstanden. In der Sache selbst (im Folgenden meine rein private Meinung);

1) Es ist die Idee, nicht die Art und Weise ihrer softwaretechnischen Umsetzung, die am wichtigsten ist. Die Idee ist in dem obigen Auszug aus St. Lem gut beschrieben;
2) Wahrscheinlich wird niemand die Quellen eines wirklich funktionierenden Netzes umsonst zur Verfügung stellen;
3) über vorgefertigte Programme für neuronale Netze: Es ist unmöglich, eine "universelle Theorie von allem" zu schaffen, so dass niemand von der unabhängigen Umsetzung der eigenen Ideen befreit ist, wenn das Ziel darin besteht, etwas Praktikables zu entwickeln. Aus diesem Grund hat mich zum Beispiel auch Matlab mit seinem mächtigen Toolkit nicht zufrieden gestellt. NSDT ist natürlich weit davon entfernt, das Niveau von Matlab zu erreichen.

Beispiel.

Ich sollte gleich sagen, dass ich alle Arten von Preisprognosen, insbesondere solche bis zur dritten oder vierten Dezimalstelle, für eine absichtlich sinnlose Übung halte. Solche Konstruktionen sind meiner Meinung nach nichts anderes als Selbstbetrug. Stattdessen, wie jemand in einem der lokalen Threads vorgeschlagen, können Sie versuchen, eine frühzeitige Erkennung der Preisbewegung zu machen, wenn es nicht weniger als eine vorbestimmte Anzahl von Punkten passieren wird. Diese Zahl kann auf der Grundlage einer Analyse des bisherigen Kursverhaltens bestimmt werden (ich glaube, Composter hat dieses Problem gelöst, als er einen Trend/Flot definierte).

Eine Arbeitshypothese: Einige starke Kursbewegungen haben reproduzierbare "Vorläufer". Wir können versuchen, dem Netz beizubringen, diese "Vorläufer" zu erkennen, während wir "vom Markt aus" arbeiten.

Der Entwurf eines Netzes ("Kristall" in der Terminologie von St. Lem als grundlegende Struktureinheit eines großen Netzes, d. h. "Wolke") in allgemeiner Form:


- Ein mehrschichtiges, selbstanpassendes Kompressions-Oya-Netz mit einem einzigen Ausgang, bei dem die Art und die Parameter der Übertragungsfunktion der Eingangs-, Zwischen- und Ausgangsschicht ausgewählt werden können. Ein solches Netz kann die Funktionen des adaptiven Speichers und der Klassifizierung von Eingangsvektoren gleichzeitig erfüllen;

- die Anzahl der Schichten wird durch die Dimensionalität des Eingabevektors bestimmt, d.h. das Netz wird automatisch durch Definition und Initialisierung/Lesen von Arbeitsfeldern erzeugt;

- Die Anzahl der Neuronen in der verborgenen Schicht nimmt mit zunehmender Schichtanzahl N nach dem Gesetz 1/(2^N) ("lösende Kristalle") oder 1/N ("erinnernde Kristalle") progressiv ab;

- der Nichtlinearitätsparameter in der verborgenen Schicht kann von der Anzahl der Schichten abhängen;

- Es gibt einen schaltbaren internen Rückkopplungsmodus und einen schaltbaren externen Eingang zur Kommunikation mit anderen "Kristallen", um eine "Wolke" zu bilden.

Einer der wichtigsten und subtilsten Punkte ist die Bildung des Eingangsvektors. Bislang wird es nur zum Testen und zur Kontrolle des Funktionierens des Netzes auf die herkömmliche Weise gebildet: y[] = (x[] - mean(x[])) / sigma(x[]). (Dieser Teil des Problems ist noch nicht vollständig gelöst.)

Das "Lernen" des Netzes erfolgt post factum durch die heuristische Regel: Nachdem der Preis die festgelegte Anzahl von Punkten überschritten hat, wird der Befehl zur Anpassung der Gewichte durch den zurückversetzten, d.h. "vorherigen" Eingangsvektor gegeben; so "erinnert" sich das Netz unter Berücksichtigung der zuvor angesammelten Informationen. Es wird davon ausgegangen, dass das auf diese Weise trainierte Netz Vorläufer erkennt und somit in der Lage ist, Handelssignale in Echtzeit zu geben. In der Zwischenzeit "flog der einzelne Kristall weniger, als dass er hüpfte..." (vgl. ebd.).

Die Interpretation des Outputs und die automatische Bildung der "Wolke" selbst, d.h. des Neuro-Komitees, ist noch nicht realisiert. Es gibt auch noch keine besonders schönen Bilder.

Ich persönlich finde diesen Ansatz vielversprechend. Noch einmal - all das ist meine rein private Meinung.
 
sayfuji:

Ich habe mich der Frage verantwortungsbewusst genähert, aber der geschätzte LeoV hat das Gespräch in Gang gehalten, aber nicht auf den Kern der Frage geantwortet. Er lebt seit einiger Zeit auf dem alp...ri-Forum, also zweifle ich nicht an seinen Kenntnissen und Fähigkeiten, also habe ich auf seine Antwort gewartet, aber es ist nicht so gekommen.

PS Prival, das ist ein wirklich guter Faden, ich benutze ihn schon seit ein paar Monaten. klot gut gemacht.

Und womit sind Sie eigentlich unzufrieden? Leov hat Ihre ursprüngliche subgraphische Frage tatsächlich beantwortet, obwohl Sie versuchen, das Gegenteil zu behaupten. Und die Tatsache, dass er seine Quellen nicht mitgeteilt und andere Details nicht präzisiert hat, gehört nicht zu seinen Aufgaben.


Stellen Sie eine freche Frage, wie es einige Forumsnutzer tun, z. B: "Zeigen Sie mir den Quellcode eines superprofilierten neuronalen Netzes", und Sie werden angemessene Antworten erhalten.

 
Yuri, leider (oder zum Glück?) bin ich nicht sehr gut in Steuerfragen. Aber das macht nichts. Vielen Dank, alexjou, für die ausgefeilte Antwort. Ich habe keine Illusionen, aber ich interessiere mich für Oya. Ich möchte Sie fragen, wo Sie ihn lesen können.
 
"Oya net" ist nur eine Abkürzung für "Oya-adjusted weights net". Die Oya-Regel selbst ist eine Abwandlung der Hebb-Regel, die ein unendliches Wachstum der Gewichte durch deren Autonormalisierung im Anpassungsprozess ausschließt; in diesem Fall liegen die Enden der Gewichtsvektoren annähernd innerhalb einer Einheitshypersphäre. Siehe zum Beispiel hier: A.A. Ezhov, S.V. Shumsky. "Neuroinformatik und ihre Anwendungen in Wirtschaft und Handel". Moskau, 1998 (die Vorträge finden Sie im Internet im pdf-Format). Auch ein sehr gutes Buch, wenn auch etwas schwierig für einen Anfänger: Stanislav Osovsky. "Neuronale Netze für die Informationsverarbeitung. Finanzen und Statistik, 2002 (im Internet im djvu-Format verfügbar). Im Internet gibt es eine Menge weiterer Literatur über Netzwerke.
Grund der Beschwerde: