Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3231

 
Forester #:
Warum brauchen Sie sie? Als ich mit R experimentiert habe, habe ich die von SanSanych bestellte dll-ku verwendet. Sie funktioniert gut und hat mehr Möglichkeiten, da sie alle Daten in beide Richtungen überträgt, nicht nur Anführungszeichen (wie es in der ersten R-Portierung der Fall war). Außerdem ist es mir sogar gelungen, eine Multithreading-Optimierung darüber laufen zu lassen.

Offizielle Unterstützung, so scheint es mir, kann sowohl für R als auch für MKL einen guten Push / Hype geben ....

Neue Artikel zu allen Ländern, neue Ideen, neue Gesprächspartner, neue Algorithmen....

 

Es gibt eine Seite , die die Veröffentlichung von neuen R-Paketen aufzeichnet....

Ich war schon immer daran interessiert, diese Daten herunterzuladen und sie nach Zeit zu aggregieren (wie viele neue Pakete werden pro Tag heruntergeladen), um zu verstehen, was mit der Sprache passiert....

Aber ich habe es immer aufgeschoben, weil ich nicht wusste, wie man es macht, und weil ich dachte, es sei lang und kompliziert....

Heute habe ich beschlossen, es zu tun, ich verbrachte etwa 5 Minuten, um zu erkennen, wie es zu tun und 30 Sekunden auf den Code selbst)))

Hier ist der Code

library(rvest)
library(xts)
url <- "https://cran.r-project.org/web/packages/available_packages_by_date.html"

tb <- url |> read_html() |> html_table() |> _[[1]] |> {\(.) .[nrow(.):1,]}()

tb$Date |> rle() |> _$lengths |> xts(as.POSIXct(r$values)) |> plot(main="количество новых пакетов",col=4)

Herunterladen von Daten von der Website + Aggregation nach Tagen + Visualisierung.


2008-09-08                                           1
2008-10-28                                           1
2010-06-25                                           1
2010-07-07                                           1
2011-08-18                                           1
2011-09-07                                           1
2011-12-01                                           1
2011-12-28                                           1
2012-01-28                                           1
2012-03-01                                           1
       ...                                            
2023-09-01                                          44
2023-09-02                                          35
2023-09-03                                          37
2023-09-04                                          32
2023-09-05                                          72
2023-09-06                                          84
2023-09-07                                          58
2023-09-08                                          45
2023-09-09                                          26
2023-09-10                                          27

Ich erhalte durchschnittlich 40-50 neue Pakete pro Tag.

=========================================================================


Und hier ist derselbe Code in dem gepriesenen Python, das für das Parsen und allgemein am besten geeignet ist

import pandas as pd
import requests
from bs4 import BeautifulSoup
import matplotlib.pyplot as plt

url = "https://cran.r-project.org/web/packages/available_packages_by_date.html"

response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
table = soup.find_all('table')[0] 
df = pd.read_html(str(table))[0]
df = df.iloc[::-1]

df['Date'] = pd.to_datetime(df['Date'])
df_grouped = df.groupby('Date').size()

df_grouped.plot(title="количество новых пакетов")
plt.show()

Date
2008-09-08     1
2008-10-28     1
2010-06-25     1
2010-07-07     1
2011-08-18     1
              ..
2023-09-06    84
2023-09-07    58
2023-09-08    45
2023-09-09    26
2023-09-10    29
Length: 2807, dtype: int64

===========================================================


7 Codezeilen in R, 18 Codezeilen in Python...

 
Renat Fatkhullin #:

Im Wesentlichen wird alles so sein, wie wir die Bedingungen für den Wettbewerb ausarbeiten - es ist eine riesige Menge Arbeit.

Wir werden auf die detaillierten Bedingungen warten.

Allerdings haben die meisten Leute ihre eigenen Entwicklungen, die sich nicht an Standards/Schablonen für alle anpassen lassen. Und das Wertvollste sind nicht die Modelle, sondern die Prädiktoren.

Wenn es sich bei den Prädiktoren um einen festen Satz handelt, reduziert sich die Aufgabe des Trainings auf die Auswahl der signifikanten Prädiktoren. Aber wenn es möglich ist, die Einstellungen dieser Prädiktoren anzupassen, macht es mehr Spaß.

 
Andrey Dik #:

ZZY**. "der Abend hört auf, träge zu sein" - sehr interessant, was dabei herauskommen wird, schließlich interessiert es dich doch, fxsaber, oder? - und ich auch))))))))))))))))))))))))))

Wahrscheinlich ist es eines der dümmsten Dinge, zu versuchen, die Meinung eines anderen Menschen zu ändern. Kein noch so gutes Argument funktioniert. Daher auch das andere "P"-Wort - bygones.

 
fxsaber #:

Eines der dümmsten Dinge ist wohl der Versuch, die Meinung eines anderen Menschen zu ändern. Kein noch so gutes Argument hilft. Deshalb ist das andere "P"-Wort "bygones".

ihr Wettbewerb == ihre Bedingungen.

Das ist eine dumme Sache, über die man streiten kann.

 

Ich werde den Aufwand erhöhen müssen, um Pakete mit Beschleunigung installieren zu können

import requests, pandas as pd, matplotlib.pyplot as plt
from bs4 import BeautifulSoup

df = pd.read_html(requests.get("https://cran.r-project.org/web/packages/available_packages_by_date.html").text, flavor='bs4')[0].iloc[::-1]
df.groupby('Date').size().plot(title="количество новых пакетов")
plt.show()
Wieder einmal bist du auf den Leim gegangen, hast einfach Linien über den Bildschirm geschmiert und sie als Wahrheit ausgegeben.
 
Maxim Dmitrievsky #:

Ich muss den Aufwand erhöhen, um die Pakete schneller installieren zu können

Wieder einmal bin ich am Arsch, ich habe einfach die Zeilen auf dem Bildschirm verschmiert und als Wahrheit ausgegeben.
Wenn ich es so sinnlos komprimiere, wie du es getan hast, dann habe ich 2 Zeilen zusammen mit der Bibliothekserklärung....

Also hast du auch hier Pech gehabt.
 
mytarmailS #:
Wenn ich so unbrauchbar komprimiere, wie Sie es getan haben, dann habe ich insgesamt 2 Zeilen zusammen mit der Bibliotheksdeklaration...

Sie haben also auch hier Pech.

Absolut brauchbare Weise und perfekt verständliche Syntax, und du lernst das Alphabet des Raubtiers, um Code in Schnörkeln zu schreiben, die nicht einmal auf der Tastatur sind )).

Das führt dazu, dass man in anderen Sprachen nicht einmal eine Schleife fehlerfrei schreiben kann, weil man an Hieroglyphen gewöhnt ist.

 

Man kann die Organisation der Meisterschaft mit dem Ziel der Popularisierung des MoD nur begrüßen.

So scheint es.

Allerdings lässt der technische Rahmen der Meisterschaft, der aus Python und Onnx besteht, die wahre Vielfalt der in MO verfügbaren Modelle außen vor.

Hunderte von Modellen werden nicht berücksichtigt. Es sind diese Modelle, die die Bedeutung des Wortes "maschinelles Lernen" definieren, und die verschiedenen neuronalen Netze sind ein kleiner und nicht der interessanteste Teil von MO für den Handel.

Ich füge eine ziemlich alte Liste (2015) der Modelle bei, die in der Caret-Shell verfügbar sind, d.h. die im Train-Operator verfügbar sind. Die Zusammensetzung einiger Gruppen von Modellen wird nicht offengelegt, da die Liste meinen Geschmack widerspiegelt.

 
Es ist eine Barriere gegen eine Sekte von Verrückten.
Grund der Beschwerde: