Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2251

 
Maxim Dmitrievsky:

Abbildung der Reihe in einem anderen Raum (Verteilung?)

Ja, in einen anderen Raum, ich weiß nicht, wie es mit der Verteilung aussieht...

Warum Klassenetiketten? Warum Codierer?

 
mytarmailS:

Ja, in einen anderen Raum, ich weiß nicht, wie es mit der Verteilung aussieht...

Warum Klassenetiketten? Warum Codierer?

man braucht gute Verkaufs- und Kaufmuster, deshalb die Etiketten

das ist die Verteilung der Punkte in diesem Raum, normalerweise wird die multivariate Normalverteilung gewählt.

Es wird wahrscheinlich nicht funktionieren, aber es macht Spaß.

Was tun Sie, wenn sich das Muster im nächsten Jahr ändert? Nichts, Sie können es nicht aus dem laufenden Jahr herausholen.

Man muss die gesamte Historie nehmen, sie in Cluster aufteilen, die Anzahl der Stichproben in jedem Cluster angleichen, dann Beispiele aus ihnen generieren und sie trainieren. Theoretisch wird dies +- gleichmäßig sein.

 
Maxim Dmitrievsky:

Sie brauchen gute Kauf- und Verkaufsbeispiele, damit die Marken

sind die Verteilung der Punkte in diesem Raum, in der Regel ..............

Nun ja, ich stimme zu, dass die spezifische Idee so ist... ....

========================

Was ist Ihr Roboter bei den Ausschüttungen?

 
mytarmailS:

Nun ja, ich stimme zu, dass die spezifische Idee so ist... ....

========================

Was ist Ihr Roboter bei den Verteilungen?

Das ist eine coole Idee, mit normalen Daten, nicht mit Zufallsdaten.

Es funktioniert nur bei Euro, nicht so sehr bei anderen.

Ich verwende Coder anstelle von Gmm, ich habe es noch nicht getan.

 

Kak prikrepiti instrument BTC/USD?

 

coder anstelle von gmm. Ausbildung 2 Monate, Prüfung 5 Jahre.

Es ist ein bisschen schwieriger, die Architektur zu erfassen. Einzelne Schicht funktionierte nicht gut, fügte eine 2. Schicht hinzu, wurde besser

normale Feedforward-Schichten.

 
Maxim Dmitrievsky:

coder anstelle von gmm. Ausbildung 2 Monate, Prüfung 5 Jahre.

Es ist ein bisschen schwieriger, die Architektur zu erfassen. Einzelne Schicht funktionierte nicht gut, fügte eine 2. Schicht hinzu, wurde besser

Die üblichen Feedforward-Schichten.

Ich habe das Gefühl, dass die Grafik mit gmm glatter ist...

Warum gibt es überhaupt ein Neuron? Können Sie das anhand eines Blockdiagramms erklären?


eine einzelne Ebene kann nur lineare Probleme lösen

 
mytarmailS:

Mir scheint, dass das gmm-Diagramm glatter ist ...

Warum gibt es überhaupt ein Neuron, können Sie das Blockdiagramm erklären?


Eine Ebene kann nur lineare Probleme lösen

Ich hatte mehr von ihnen erwartet

der Encoder ist ein neuronales System

Sie werden sowieso nichts verstehen, aber hier ist die Struktur des Textes

class Encoder(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.linear = nn.Linear(input_dim + n_classes, hidden_dim)
        self.mu = nn.Linear(hidden_dim, latent_dim)
        self.var = nn.Linear(hidden_dim, latent_dim)

    def forward(self, x):
        #  x is of shape [batch_size, input_dim + n_classes]

        hidden = torch.sigmoid(self.linear(x))
        #  hidden is of shape [batch_size, hidden_dim]

        #  latent parameters
        mean = self.mu(hidden)
        #  mean is of shape [batch_size, latent_dim]
        log_var = self.var(hidden)
        #  log_var is of shape [batch_size, latent_dim]

        return mean, log_var


class Decoder(nn.Module):
    def __init__(self, latent_dim, hidden_dim, output_dim, n_classes):
        super().__init__()

        self.latent_to_hidden = nn.Linear(latent_dim + n_classes, hidden_dim)
        self.hidden_to_out = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
        #  x is of shape [batch_size, latent_dim + num_classes]
        x = torch.sigmoid(self.latent_to_hidden(x))
        #  x is of shape [batch_size, hidden_dim]
        generated_x = torch.sigmoid(self.hidden_to_out(x))
        #  x is of shape [batch_size, output_dim]

        return generated_x


class CVAE(nn.Module):
    def __init__(self, input_dim, hidden_dim, latent_dim, n_classes):
        super().__init__()

        self.encoder = Encoder(input_dim, hidden_dim, latent_dim, 1)
        self.decoder = Decoder(latent_dim, hidden_dim, input_dim, 1)

    def forward(self, x, y):

        x = torch.cat((x, y), dim=1)

        #  encode
        z_mu, z_var = self.encoder(x)

        #  sample from the distribution having latent parameters z_mu, z_var
        #  reparameterize
        std = torch.exp(z_var / 2)
        eps = torch.randn_like(std)
        x_sample = eps.mul(std).add_(z_mu)

        z = torch.cat((x_sample, y), dim=1)

        #  decode
        generated_x = self.decoder(z)

        return generated_x, z_mu, z_var
 
Maxim Dmitrievsky:

der Codierer ist ein Neuron.

Ernsthaft? ))))) willst du mich verarschen oder was? ))

Maxim Dmitrievsky:

Sie würden es nicht verstehen.

Deshalb sage ich Ihnen, sagen Sie mir einfach, was Sie erwartet haben, warum Sie dachten, es würde funktionieren, das Blockdiagramm ist perfekt...

Und der Code ist nicht vertraut mit der Bibel in einer Sprache, die nicht vertraut ist, natürlich, schwer zu verstehen.

 
mytarmailS:

Ernsthaft? ))))) willst du mich verarschen oder was? ))

Deshalb sage ich Ihnen einfach, was Sie erwartet haben, warum Sie dachten, es würde funktionieren, die Schaltung ist perfekt...

Es ist schwer, den Code in einer Sprache zu verstehen, mit der man nicht vertraut ist.

Willst du mich verarschen?