L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2315

 
Maxim Dmitrievsky:
lo spiega davvero in modo tale che è più facile chiedere a Napoleone in un manicomio

Nella fisica quantistica non ci sono previsioni, ci sono calcoli di incertezze, o probabilità)))

 
Valeriy Yastremskiy:

Nella fisica quantistica non ci sono previsioni, ci sono calcoli di incertezze, o bene, probabilità).

Il campo di applicazione sembra essere stato toccato, ma non rivelato del tutto. Al suo posto è iniziato del porridge di babushkas

 
Maxim Dmitrievsky:

il campo di applicazione sembrava essere toccato, ma non rivelato del tutto. Invece, una specie di poltiglia balbettante ha iniziato

Del ghiribizzo di oggi sull'IA e la quasi IA nella scienza meno di un centesimo di percentuale....

D'accordo?

 
Valeriy Yastremskiy:

Delle sciocchezze di oggi su e intorno all'IA, meno di un centesimo di percentuale andrà in scienza....

D'accordo?

dipende da quale scienza)

ci sono trucchi interessanti dalla riqualificazione, ma non li hanno rivelati, e dove altro leggere su di esso non ho ancora trovato
 
Maxim Dmitrievsky:

dipende da quale scienza )

ci sono caratteristiche interessanti dalla riqualificazione, ma non le hanno divulgate, e dove altro leggere su di esso non ho potuto trovare

La scienza è una conoscenza che viene utilizzata. qualunque sia il nome della scienza))))

 
Maxim Dmitrievsky:

prevedere l'incertezza è una cosa interessante


Hanno un link a un articolo lì - a prima vista solo le solite distribuzioni bayesiane più normali.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
Aleksey Nikolayev:

Hanno un link a un articolo lì - a prima vista sembra solo la normale Bayes più le distribuzioni normali.

solo non ho capito quale pulsante premere per ottenere risultati migliori per la classificazione

per la regressione solo un esempio

Ho capito che il campionamento per gradiente massimo è usato di default (come una nuova funzione)

o è solo predefinito e non ho bisogno di fare nulla

A proposito, il catbust è molto figo in termini di riqualificazione... è molto difficile farlo riqualificare. Se il set di dati è una merda... ...imparerà male e non ricorderà tutte le opzioni.
 

Per ora sto guardando un altro video.


 
Valeriy Yastremskiy:

La scienza è una conoscenza che viene utilizzata. non importa quale sia il nome della scienza ))))

Tutto è a posto lì con la conoscenza, sono solo i campi di applicazione che devono essere guardati.

L'algoritmo di boosting in sé è ancora molto bello. Se solo ci fossero dei buoni altoparlanti in studio.
 
Maxim Dmitrievsky:

non c'è niente di male nella conoscenza, bisogna solo guardare le aree di applicazione

L'algoritmo di boosting in sé è ancora molto bello. Se solo ci fossero più altoparlanti normali nello studio

(per esempio, se sei un uomo d'affari e sai qualcosa (per esempio, se sei un uomo d'affari e sai qualcosa)))) Senza conoscenza, non c'è conoscenza)) Nella fase intermedia, tutto può succedere, i tempi di cambiamento sono di solito come il SB))

Motivazione: