"New Neural" ist ein Open-Source-Projekt für neuronale Netzwerke für die MetaTrader 5-Plattform. - Seite 80

 
Urain:

In Bezug auf die Sparsamkeit (ich schrieb oben), können Sie einen Index-Array für jedes Neuron auf der Grundlage der Maske, die nach der Zählung wird angeben, wo die Ausgänge zu platzieren erstellen.

Es scheint logischer zu sein, den Input von woher auch immer zu nehmen und den Output demjenigen zu überlassen, der ihn haben will.
 

Ja!!! das Thema ist sehr interessant. Ich möchte das Thema der Optimierung neuronaler Netze mit natürlichen Algorithmen am Beispiel eines Bienenschwarms oder eines Partikelschwarms behandeln. Als ich den Artikel über diese Methode las, hatte ich einen Gedanken, wie es aussieht, es ist nichts wie OpenCL, aber direkt anwendbar auf Neuronc, warum also nicht versuchen, es mit zusätzlichen grafischen DDL OpenGL zum Beispiel zu implementieren, vor allem als Tester erlaubt. Wenn jemand Interesse hat, kann ich einen Link zu einem interessanten Artikel geben, es gibt auch einen Link zum Quellcode.

 
MetaDriver:
Aber: Dieser Ansatz enthält nicht einmal den Keim für den Versuch, Topologien genetisch zu kreuzen.

Ich habe noch nie von so etwas gehört. Würde die Kreuzung verschiedener Topologien zu etwas Besserem führen als die Entwicklung derselben Topologie?

 
gpwr:

Ich habe noch nie von so etwas gehört. Würde die Kreuzung verschiedener Topologien zu etwas Besserem führen als die Entwicklung derselben Topologie?

Maultiere und Pferde sind für manche Tätigkeiten besser geeignet als Esel und Pferde. Das ist nur ein Gedanke, die Idee ist noch nicht ausgereift.
 
gpwr:

Ich habe noch nie von so etwas gehört. Würde die Kreuzung verschiedener Topologien zu etwas Besserem führen als die Entwicklung derselben Topologie?

Das kommt vor. Cochonen mit einem Perseptron, zum Beispiel.
 
her.human:
Es scheint logischer zu sein, den Input von woher auch immer zu nehmen und den Output demjenigen zu überlassen, der ihn haben will.

Man kann es so machen, aber es ändert nichts am Wesen des Modells. Es ist jedoch zu prüfen, welche Option schneller ist.

gpwr:
Schichten werden benötigt, weil in einigen Netzwerken verschiedene Schichten unterschiedliche Verarbeitungen von Eingaben und unterschiedliche Verbindungen der Neuronen untereinander innerhalb einer Schicht haben. Eigentlich verstehe ich nicht, wie praktisch das Ziel ist, ein universelles Netzwerk aufzubauen. Es gibt viele Netze mit ihren Nuancen (Funktionen der Neuronen in verschiedenen Schichten, ihre Verbindung, Training der Gewichte usw.). Sie alle in einem Modell zu beschreiben, erscheint mir unmöglich oder ineffizient. Warum nicht eine Bibliothek mit verschiedenen Netzen anlegen?

Jedes Neuron kann durch seinen eigenen Typ definiert werden (ganz zu schweigen von der Schicht), der durch die erweiterbare Funktionalität der Nachkommen der CProcessing-Basisklasse festgelegt wird. Die Idee habe ich übrigens schon, aber an der Umsetzung habe ich selbst gearbeitet. Ich wollte darüber diskutieren und dann etwas bereits Gedachtes umsetzen. Ich dachte, es wäre klar, dass es in CProcessing eine Funktion Trening geben sollte, und für jede Art von Neuron kann sie anders sein, abhängig von der Ableitung und Gott weiß, was noch. Und es kann sowohl eine Vorwärts- als auch eine Rückwärtsausbreitung des Trenings geben.

Zusammen mit der universellen Topologie erhalten wir ein universelles Lernschema. Was mit einem Neuron geschehen muss, damit es lernt, wird im Neuron selbst beschrieben, und die Lernverarbeitung ist eine einzige standardisierte Progression durch das Netz.

Haben Sie irgendwo gesehen, dass z.B. in MLP radial basierte Neuronen eingebettet sind, und alles normal gelernt wurde? Es ist hier realisierbar.

 

Die Idee einer universellen Beschreibung (einschließlich einer erschöpfenden Beschreibung der Topologie) ist zumindest vielversprechend, weil es (endlich!) möglich sein wird, vom "Gittertyp" zu abstrahieren - ein ziemlich künstliches Konzept, wenn man es versteht.

Ich habe nichts dagegen, einigen speziellen Topologien spezielle Namen zu geben (nur der Einfachheit halber). Aber nur so lange, wie diese Namen nicht anfangen zu hypnotisieren und Barrieren in der Wahrnehmung des Wesentlichen zu schaffen und die Kreuzung von Ideen miteinander zu behindern. Und das wird auf jedem Schritt in allen Bereichen der Lebensaktivität beobachtet.

 

Lesen Sie Ihre Kommentare zum Thema kam zu dem Schluss - Ich möchte die Beta-Projekt zu sehen, wenn es sein wird? und einen Artikel mit einer detaillierten Beschreibung.

 
Urain:
...
Es könnte also irgendwo eine Rückkopplungsschleife geben?
 
GKS:

Das Lesen Ihrer Kommentare zum Thema hat zu dem Schluss kommen - Ich möchte eine Beta des Projekts zu sehen, wenn es sein wird? und einen Artikel mit einer detaillierten Beschreibung.

Die Zeit wird zeigen, ob die Diskussion funktioniert.

MetaDriver:

Die Idee einer universellen Beschreibung (einschließlich einer umfassenden Beschreibung der Topologie) ist zumindest deshalb vielversprechend, weil es (endlich!) möglich sein wird, von der "Art des Gitters" zu abstrahieren - ein ziemlich künstliches Konzept, wenn man es versteht.

Ich habe nichts dagegen, einigen speziellen Topologien spezielle Namen zu geben (nur der Einfachheit halber). Aber nur, solange diese Namen nicht anfangen zu hypnotisieren und Barrieren für die Wahrnehmung der Essenz zu schaffen und die Überkreuzung von Ideen miteinander behindern. Und dies wird auf jeder Stufe in allen Lebensbereichen beobachtet.

Es wäre möglich, Bootstrap-Vorlagen nach Namen zu erstellen, z. B. die "MLP"-Vorlage buchstabiert die Typen aller Neuronen mit "perseptrons".