Diskussion zum Artikel "Quantisierung beim maschinellen Lernen (Teil 1): Theorie, Beispielcode, Analyse der Implementierung in CatBoost"

 

Neuer Artikel Quantisierung beim maschinellen Lernen (Teil 1): Theorie, Beispielcode, Analyse der Implementierung in CatBoost :

Der Artikel befasst sich mit der theoretischen Anwendung der Quantisierung bei der Konstruktion von Baummodellen und stellt die in CatBoost implementierten Quantisierungsmethoden vor. Es werden keine komplexen mathematischen Gleichungen verwendet.

Was also ist Quantisierung und warum wird sie verwendet? Lassen Sie es uns herausfinden!

Lassen Sie uns zunächst ein wenig über die Daten sprechen. Um also Modelle zu erstellen (zu trainieren), benötigen wir Daten, die gewissenhaft in der Tabelle gesammelt werden. Die Quelle solcher Daten kann jede Information sein, die das (vom Modell ermittelte) Ziel erklären kann, z. B. ein Handelssignal. Die Datenquellen werden unterschiedlich bezeichnet - Prädiktoren, Merkmale, Attribute oder Faktoren. Die Häufigkeit des Auftretens einer Datenzeile wird durch das Auftreten einer vergleichbaren Prozessbeobachtung des Phänomens bestimmt, über das Informationen gesammelt werden und das mit Hilfe des maschinellen Lernens untersucht werden soll. Die Gesamtheit der gewonnenen Daten wird als Stichprobe bezeichnet.

Eine Stichprobe kann repräsentativ sein - das heißt, die in ihr aufgezeichneten Beobachtungen beschreiben den gesamten Prozess des untersuchten Phänomens - oder sie kann nicht repräsentativ sein, wenn sie so viele Daten enthält, wie gesammelt werden konnten, was nur eine teilweise Beschreibung des Prozesses des untersuchten Phänomens ermöglicht. Wenn wir uns mit Finanzmärkten beschäftigen, haben wir es in der Regel mit nicht repräsentativen Stichproben zu tun, da alles, was passieren könnte, noch nicht geschehen ist. Aus diesem Grund wissen wir nicht, wie sich das Finanzinstrument bei neuen (bisher nicht eingetretenen) Ereignissen verhalten wird. Doch jeder kennt die Weisheit „Geschichte wiederholt sich“. Auf diese Beobachtung stützt sich der algorithmische Händler bei seinen Recherchen, in der Hoffnung, dass unter den neuen Ereignissen auch solche sind, die den vorherigen ähnlich sind und deren Ergebnis mit der ermittelten Wahrscheinlichkeit übereinstimmt.

Autor: Aleksey Vyazmikin

 

Tippfehler:

3. Сохранение таблиц квантования в указанный файл – ключ "--input-borders-file"

4. Laden von Quantisierungstabellen aus der angegebenen Datei - Schlüssel "--output-borders-file"

Umgekehrt.

 
Die Quantisierung beim maschinellen Lernen ist kein quantenneuronales Netz (und auch nicht das Training eines quantenneuronalen Netzes).
 
Stanislav Korotky #:

Tippfehler:

Gegenüberliegend.

Dankeschön!

 
Sergey Pavlov Lernen eines quantenneuronalen Netzes).

Wo wird dies behauptet? Scheint das Wort "Quantisierung" die Erwartungen in die Irre zu führen und zu verzerren?

 
Danke für den Artikel, interessant!
 
Andrey Dik #:
Danke für den Artikel, interessant!

Sehr aufgeregt über sie!

 
Sehr interessanter Artikel! Darf ich Sie als Freund hinzufügen? Ich bin neu in ML. Ich versuche, Modelle zu kodieren und sie in ONNX zu speichern, aber ich erhalte Pflaumenunsinn oder nur elementare Erinnerungen an historische Daten.
 
Yevgeniy Koshtenko #:
Sehr interessanter Artikel!

Ich danke Ihnen!

Yevgeniy Koshtenko #:
Kann ich Sie als Freund hinzufügen? Ich bin neu in ML. Ich versuche, Modelle zu kodieren und sie in ONNX zu speichern, aber ich erhalte Pflaumenunsinn oder nur eine elementare Erinnerung an historische Daten(

Ich habe Sie hinzugefügt, obwohl mir jeder schreiben kann - es gibt keine Programmbeschränkung.