Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3338

 
Maxim Dmitrievsky #:
Interessanterweise kommt man zu ähnlichen Schlussfolgerungen, wenn man selbst seit mehr oder weniger langer Zeit mit MO arbeitet. Das ist ein natürlicher Prozess der Evolution des Ansatzes. So bin ich zu Kozul, statistischem Lernen und zuverlässiger KI gekommen. Wenn Sie diese Begriffe googeln, finden Sie nützliche Informationen.

Ja, das ist ein normaler Prozess - ein allgemeines Informationsfeld. Die Geschichte kennt Entdeckungen im Abstand von ein paar Jahren, und Arbeiten, die sie beschreiben, werden erst spät veröffentlicht - nach Überprüfung, Durchsicht und im Allgemeinen nach der Übersetzung in eine verständliche Sprache.

 
Aleksey Vyazmikin #:

Über die Klassifizierung ist hier etwas geschrieben. Allerdings hat CatBoost eine etwas andere Formel, aber vielleicht ist es die Kosten der mathematischen Transformationen....

Und ein Link zu einem Video von der gleichen Stelle, glaube ich.


Kein Code. Und den Bildern nach zu urteilen, sind die nachfolgenden Bäume nicht genau 0 und 1 trainiert, abs. Fehlerwerte wie 0.21, 1.08, -0.47 ..... wie bei der Regression.
 
Aleksey Vyazmikin #:

Sie können sich ein Video zu diesem Thema ansehen

Das ist ein ziemliches Durcheinander. Der Logloss wächst, wenn man schlechte Proben entfernt, er fällt nicht. Wenn Sie gute Proben entfernen, nimmt er ebenfalls zu.

Wenn Sie es nicht selbst tun, wird es niemand für Sie tun.
 
СанСаныч Фоменко #:

Ein gutes Buch mit einer Menge Code. Ich gebe den Link an. Leider ist die .PDF-Datei zu groß

//---------------------------------------


Perdon .ging das Thema1 Softwarefür dieModellierung durch. Es war ausreichend.

Habe keine großen Mengen an Code gefunden. Ich glaube, Sie haben einen Fehler gemacht. Man hat Sie geschickt getäuscht.

Es ist einfach nur ein schönes Buch, mit vielen klugen Worten.

P.Z..

Aus anderen Büchern kopiert.

Ohne jedes System.

1 Software for modeling | Tidy Modeling with R
1 Software for modeling | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Lorarica #:

Perdon hat sich das Thema1 Softwarefür dieModellierung angesehen. Das war genug.

Ich habe keine großen Mengen an Code gefunden. Ich glaube, Sie haben einen Fehler gemacht. Man hat Sie geschickt getäuscht.

Es ist nur ein schönes Buch mit vielen klugen Worten.

P.Z..

Von anderen Büchern kopiert.

Ohne jedes System.

Gewöhnen Sie sich ab, nur die Titel zu lesen: Ein Buch ist kein Twitter-Post.

Ich habe mehr als die Hälfte des Buches gelesen, so dass ich den Inhalt selbst beurteilen kann; es gibt Abschnitte, die zu 80 % aus Code bestehen.

Hier ist eine Liste der Pakete, die zum Schreiben des Codes im Buch verwendet wurden.

This version of the book was built with: R version 4.1.3 (2022-03-10), pandoc version
2.17.1.1, and the following packages:
• applicable (0.0.1.2, CRAN)
• av (0.7.0, CRAN)
• baguette (0.2.0, CRAN)
• beans (0.1.0, CRAN)
• bestNormalize (1.8.2, CRAN)
• bookdown (0.25, CRAN)
• broom (0.7.12, CRAN)
• censored (0.0.0.9000, GitHub)
• corrplot (0.92, CRAN)
• corrr (0.4.3, CRAN)
• Cubist (0.4.0, CRAN)
• DALEXtra (2.1.1, CRAN)
• dials (0.1.1, CRAN)
• dimRed (0.2.5, CRAN)
• discrim (0.2.0, CRAN)
• doMC (1.3.8, CRAN)
• dplyr (1.0.8, CRAN)
• earth (5.3.1, CRAN)
• embed (0.1.5, CRAN)
• fastICA (1.2-3, CRAN)
• finetune (0.2.0, CRAN)
• forcats (0.5.1, CRAN)
• ggforce (0.3.3, CRAN)
• ggplot2 (3.3.5, CRAN)
• glmnet (4.1-3, CRAN)
• gridExtra (2.3, CRAN)
• infer (1.0.0, CRAN)
• kableExtra (1.3.4, CRAN)
• kernlab (0.9-30, CRAN)
• kknn (1.3.1, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• klaR (1.7-0, CRAN)
• knitr (1.38, CRAN)
• learntidymodels (0.0.0.9001, GitHub)
• lime (0.5.2, CRAN)
• lme4 (1.1-29, CRAN)
• lubridate (1.8.0, CRAN)
• mda (0.5-2, CRAN)
• mixOmics (6.18.1, Bioconductor)
• modeldata (0.1.1, CRAN)
• multilevelmod (0.1.0, CRAN)
• nlme (3.1-157, CRAN)
• nnet (7.3-17, CRAN)
• parsnip (0.2.1.9001, GitHub)
• patchwork (1.1.1, CRAN)
• pillar (1.7.0, CRAN)
• poissonreg (0.2.0, CRAN)
• prettyunits (1.1.1, CRAN)
• probably (0.0.6, CRAN)
• pscl (1.5.5, CRAN)
• purrr (0.3.4, CRAN)
• ranger (0.13.1, CRAN)
• recipes (0.2.0, CRAN)
• rlang (1.0.2, CRAN)
• rmarkdown (2.13, CRAN)
• rpart (4.1.16, CRAN)
• rsample (0.1.1, CRAN)
• rstanarm (2.21.3, CRAN)
• rules (0.2.0, CRAN)
• sessioninfo (1.2.2, CRAN)
• stacks (0.2.2, CRAN)
• stringr (1.4.0, CRAN)
• svglite (2.1.0, CRAN)
• text2vec (0.6, CRAN)
• textrecipes (0.5.1.9000, GitHub)
• themis (0.2.0, CRAN)
• tibble (3.1.6, CRAN)
• tidymodels (0.2.0, CRAN)
• tidyposterior (0.1.0, CRAN)
• tidyverse (1.3.1, CRAN)
• tune (0.2.0, CRAN)
• uwot (0.1.11, CRAN)
• workflows (0.2.6, CRAN)
• workflowsets (0.2.1, CRAN)
• xgboost (1.5.2.1, CRAN)
• yardstick (0.0.9, CRAN
Inhaltlich ist das Buch eine systematische Darstellung der Probleme und Lösungen des so genannten "maschinellen Lernens", was an dieser Stelle sehr nützlich ist, da unter "maschinellem Lernen" meist nur ein Modell verstanden wird.
 
Lorarica #:

Perdon hat sich mit dem Thema1 Softwarefür dieModellierung beschäftigt. Das war genug.

Ich habe keine großen Mengen an Code gefunden. Ich glaube, Sie haben einen Fehler gemacht. Man hat Sie geschickt getäuscht.

Es ist nur ein schönes Buch mit vielen klugen Worten.

P.Z..

Von anderen Büchern kopiert.

Ohne jedes System.

Im Software-Teil suchte sie nach viel Code...))))

Und viele "schlaue Wörter" und Bilder sind ein Nachteil für sie. ..))))

Clownin
 
СанСаныч Фоменко #:
Es ist ein großartiges Buch, aber es ist niemand da, der es liest.
 
Wo befindet sich die Statistikausgabe nach Resampling und CV? Und die Konstruktion des endgültigen Klassifikators. Nehmen Sie dieses Thema und entwickeln Sie es. Es ist die Basis von kozul.

Tuls für die Erstellung von effizienten Modellen, den Vergleich mehrerer Modelle gegenüber Resampling. Dann sollte es so etwas wie statistische Inferenz und unbiased model building geben.

Wir brauchen statistische Inferenz. Sie liefert einige Ergebnisse im Vergleich zu denselben RL- und anderen Methoden.

Schauen Sie in R nach: Statistisches Lernen, schwach überwachtes Lernen, funktionales Augmentationslernen.
 
Es gibt eine snorkel lib in python. Sie haben irgendwo auf ihrer Website einen Vergleich zwischen dem Lernen mit einem Lehrer und dem Lernen mit schwacher Kontrolle. Letzteres schneidet besser ab als Ersteres. Auch das ist nützlich zu wissen.

Grund der Beschwerde: