Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1838

 
Mihail Marchukajtes:

Ich dupliziere das Video hier, nur für den Fall, dass jemand daran interessiert ist. Und ich bin ein Einheimischer in diesem Thread, also was soll's... Vielleicht wird ein Magier dort argumentieren wollen, usw.. :-)

https://youtu.be/TlNk3fKkUxo

Starke und schwache künstliche Intelligenz

 
Mihail Marchukajtes:

Ich vervielfältige das Video hier, nur für den Fall, dass jemand daran interessiert ist. Und ich bin ein Einheimischer in diesem Thread, also was soll's... Vielleicht wird ein Magier dort argumentieren wollen, usw.. :-)

https://youtu.be/TlNk3fKkUxo

Mischa versprach einen Gral, verfiel aber in Populismus 😄.
 
Mihail Marchukajtes:

Ich dupliziere das Video hier, nur für den Fall, dass jemand daran interessiert ist. Und ich bin ein Einheimischer in diesem Thread, also was soll's... Vielleicht wird ein Magier dort argumentieren wollen, usw.. :-)

https://youtu.be/TlNk3fKkUxo

Was gibt es da zu bestreiten?

Das ist nur die Meinung eines Durchschnittsmenschen, der glaubt zu wissen, was die IT-Giganten in diesem Bereich tun ))))

 
Mihail Marchukajtes:

Ich dupliziere das Video hier, nur für den Fall, dass jemand daran interessiert ist. Und ich bin ein Einheimischer in diesem Thread, also was soll's... Vielleicht wird ein Magier dort argumentieren wollen, usw.. :-)

https://youtu.be/TlNk3fKkUxo

Mihail Marchukajtes: 1) Prof. Seveliev sagt, dass es nicht 100 Tausend Verbindungen pro Tag sind, die in jedem Neuron unterbrochen werden, sondern es gibt nur etwa 100 Tausend davon, und es werden durchschnittlich 3 Verbindungen pro Tag geschaffen und unterbrochen.
2) Das System mit Re-Learning ist dafür gut geeignet. Wenn wir beispielsweise einen neuen Stapel von Umschulungsdaten einspeisen (die den zuvor gespeicherten Informationen widersprechen), wird der Verbindungskoeffizient zwischen einigen Neuronen neu berechnet und auf Null gesetzt. Dies könnte als Analogie zum physischen Zusammenbruch der Verbindungen in einem echten Neuron betrachtet werden. Und ein anderes Neuron rechnete von 0 auf einen Wert >0 um - dies ist ein Analogon zur Schaffung einer neuen Verbindung.
 
Igor Makanu:

Es gibt einen guten Artikel über den Hubra

Wie Sie verstehen, dass ein neuronales Netz Ihr Problem lösen wird. Ein pragmatischer Leitfaden

Es kamen theoretische Fragen auf: Ist es möglich, NS zu trainieren?

1. als Zufallsfolgengenerator - analog zur Funktion rand()

2. als Funktion zur Konvertierung von ulong in datetime, d.h. bei der Eingabe geben wir eine ulong-Zahl an und bei der Ausgabe erhalten wir Jahr/Monat/Tag/Stunde/Minute (mit einer bestimmten Genauigkeit)

1) Unwahrscheinlich. Das Verteidigungsministerium kann Informationen nur aufzeichnen und gegebenenfalls zusammenfassen.

2) Ok - erzeugen Sie einfach Trainingsdaten für 10000 Jahre im Voraus und lernen Sie das Modell. Es gibt jedoch ein Problem - neben der Korrektur um 1 Tag alle 4 Jahre (Schaltjahre) gibt es eine Korrektur um 1 Tag alle 100 Jahre oder so, um die astronomische Position des Planeten anzupassen. Der Unterschied zum julianischen Kalender von 13 Tagen ist darauf zurückzuführen, dass man eine Zeit lang nicht wusste, dass diese Korrekturen notwendig sind. Im Allgemeinen wird es in 10000 Jahren viele Korrekturen geben.

 
Maxim Dmitrievsky:
Mischa versprach einen Gral und wurde populistisch 😄
Nun, ich verspreche keinen Gral, so..... die übliche Erklärung und das ist es nicht.... es ist nur ein wunden Punkt und es hat gekotzt :-)
 
elibrarius:
1) Prof. Seveliev sagt, dass es nicht 100 Tausend Verbindungen pro Tag und Neuron sind, die unterbrochen werden, sondern dass es nur etwa 100 Tausend Verbindungen pro Neuron gibt und durchschnittlich 3 Verbindungen pro Tag entstehen und unterbrochen werden.
2) Das System mit Re-Learning ist dafür gut geeignet. Wenn wir beispielsweise einen neuen Stapel von Umschulungsdaten einspeisen (die den zuvor gespeicherten Informationen widersprechen), wird der Verbindungskoeffizient zwischen einigen Neuronen neu berechnet und auf Null gesetzt. Dies könnte als Analogie zum physischen Zusammenbruch der Verbindungen in einem echten Neuron betrachtet werden. Und das andere Neuron rechnete von 0 auf einen Wert >0 um - dies ist ein Analogon zur Schaffung einer neuen Verbindung.

1. Nun, ich habe mich hier falsch ausgedrückt. Ich habe allgemein über die Anzahl der Verbindungen zwischen Neuronen gesprochen, nicht über eine....

2) Die Verbindung ist nicht vollständig unterbrochen. Es werden immer noch keine Daten übertragen. Obwohl eine gewisse Annäherung an diesen Effekt vorhanden ist. Gut gemacht!!!!

 
Und ja, ich hoffe, ALLE haben bemerkt, dass ich nicht gerade wie Reshetov Yura aussehe? Ich meine, ganz und gar nicht, wenn Sie in..... sind.
 
Igor Makanu:
als Zufallsfolgengenerator - analog zu rand()

Wenn rand() in die Eingabe eingespeist wird, reichen die "Gehirne" höchstwahrscheinlich nicht aus. Ich habe lstm schon eine Weile mit Zufallsdaten laufen lassen und habe nichts dergleichen bemerkt. Aber wenn man es Schritt für Schritt lernt - Umrechnung der Zahlensysteme, Algorithmus - dann sollte es funktionieren.

Im Allgemeinen ist es interessant, eine sehr leistungsfähige Hardware zu überprüfen.

 
Mihail Marchukajtes:

Ich dupliziere das Video hier, nur für den Fall, dass jemand daran interessiert ist. Und ich bin ein Einheimischer in diesem Thread, also was soll's... Vielleicht wird ein Magier dort argumentieren wollen, usw.. :-)

https://youtu.be/TlNk3fKkUxo

Ahahahaha )))) KAMPF!!!

Grund der Beschwerde: