트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2268

 
mytarmailS :

방법을 모르겠습니다((

5천 기차

40k 테스트

적용하려면 내 기준을 흠으로 시도하십시오. 이론적으로 작동하는 모델을 찾는 것이 더 좋습니다.

나는 등등 R ^ 2 나는 선택

동일한 krivulki가 얻어지며 더 좋습니다)

 
막심 드미트리예프스키 :

모든 것이 평소와 같으며 평균을 고려한 표시만 있습니다. 흥미롭게도 완전히 다른 마크업이 있습니다.

나는 최근에 고전적인 방법에 따라 네트워크의 가중치를 설정한 다음 훈련으로 미세 조정하는 흥미로운 아이디어가 있는 책을 게시했습니다. 흥미롭게도 지도 학습과 강화를 결합하는 방법이 있습니다.

 
로르샤흐 :

나는 최근에 고전적인 방법에 따라 네트워크의 가중치를 설정한 다음 훈련으로 미세 조정하는 흥미로운 아이디어가 있는 책을 게시했습니다. 흥미롭게도 지도 학습과 강화를 결합하는 방법이 있습니다.

이것들은 모두 Mashka의 멋진 아날로그입니다.

 
막심 드미트리예프스키 :

이것들은 모두 Mashka의 멋진 아날로그입니다.

그리드는 동일한 필터뿐만 아니라 비선형성과 매개변수 선택 방법에 이점이 있습니다.

강화 학습 에 대한 부정적인 의견이 많습니다. 자동차에서는 교사와의 네트워크가 더 나은 결과를 보여주지만 게임에서도 마찬가지입니다. 우리는 심지어 시작에 더 가깝게 스폰을 훈련하고 재정렬하기 위해 레벨 끝에서 그리드를 생각해 냈습니다. 또한 흥미롭습니다. 데이터 과학자의 경험이 결정합니다. Unity는 ML 전용 게임을 만들어 챔피언십을 개최했습니다. 평균적인 사람은 레벨 20에 도달합니다. 우리는 그리드에서 2개의 최신 방법을 사용했으며 평균적으로 레벨 4에 도달했습니다. 그리고 챔피언십의 전문가들은 인간 수준에서 결과를 보여줄 수있었습니다.

 
로르샤흐 :

그리드는 동일한 필터뿐만 아니라 비선형성과 매개변수 선택 방법에 이점이 있습니다.

강화 학습에 대한 부정적인 의견이 많습니다. 자동차에서는 교사와의 네트워크가 더 나은 결과를 보여주지만 게임에서도 마찬가지입니다. 우리는 심지어 시작에 더 가깝게 스폰을 훈련하고 재정렬하기 위해 레벨 끝에서 그리드를 생각해 냈습니다. 또한 흥미롭습니다. 데이터 과학자의 경험이 결정합니다. Unity는 ML 전용 게임을 만들어 챔피언십을 개최했습니다. 평균적인 사람은 레벨 20에 도달합니다. 우리는 그리드에서 2개의 최신 방법을 사용했으며 평균적으로 레벨 4에 도달했습니다. 그리고 챔피언십의 전문가들은 인간 수준에서 결과를 보여줄 수있었습니다.

HYIP RL이 있었고 이미 통과했습니다. 이제 변압기와 GAN이 추세입니다.

 
막심 드미트리예프스키 :

HYIP RL이 있었고 이미 통과했습니다. 이제 변압기와 GAN이 추세입니다.

두뇌가 대세! 모든 알고리즘을 알고 특정 작업에 특정 알고리즘을 적용하는 방법을 알고 트렌드를 쫓지 않는 사람 ....

GO에서 이겨야 한다면 아니요. 너 거기 이 갱들? 그리고 만약 홍채가 분류된다면, 아니요. RL이 있습니까?

모든 것이 제자리를 가지고 있습니다!

 
mytarmailS :

두뇌가 대세! 모든 알고리즘을 알고 특정 작업에 특정 알고리즘을 적용하는 방법을 알고 트렌드를 쫓지 않는 사람 ....

GO에서 이겨야 한다면 아니요. 너 거기 이 갱들? 그리고 만약 홍채가 분류된다면, 아니요. RL이 있습니까?

모든 것이 제자리를 가지고 있습니다!

여기 당신의 제한된 지평이 있으며 어디에서 무엇을, 왜 상상할 수 없습니다

 
막심 드미트리예프스키 :

HYIP RL이 있었고 이미 통과했습니다. 이제 변압기와 GAN이 추세입니다.

가나는 시도하기 위해 인공 데이터를 생성하는 데 흥미가 있습니다.

프레임워크를 마스터하는 것이 좋습니다. 그러면 모든 것이 훨씬 더 빨라질 것입니다.
 
로르샤흐 :

가나는 시도하기 위해 인공 데이터를 생성하는 데 흥미가 있습니다.

프레임워크를 마스터하는 것이 좋습니다. 그러면 모든 것이 훨씬 더 빨라질 것입니다.

나는 내 총을 썼습니다. 복잡한 것은 없습니다. 진실은 되풀이되지 않으며 그것을 다시 실행해야 합니다.

토치의 예

 декларация

# creating cGAN
class Discriminator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 500 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 500 , 250 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 250 , 1 ),
            nn.Sigmoid()
        )

    def forward(self, x):
         return self.model(x)


class Generator(nn.Module):
    def __init__(self, input_vector):
        super().__init__()
        self.model = nn.Sequential(
            nn.Linear(input_vector, 250 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 250 , 500 ),
            nn.ReLU(),
            nn.Dropout( 0.2 ),
            nn.Linear( 500 , input_vector)
        )

    def forward(self, x):
         return self.model(x)

обучение

tens = torch.FloatTensor(pr[pr.columns[ 1 :]].values)
train_iterator = torch.utils.data.DataLoader(
    tens, batch_size=BATCH_SIZE, shuffle=True,)

discriminator = Discriminator(INPUT_VECTOR+ 1 )
generator = Generator(INPUT_VECTOR+ 1 )
optimizer_discriminator = torch.optim.Adam(discriminator.parameters(), lr=lr)
optimizer_generator = torch.optim.Adam(generator.parameters(), lr=lr)

for epoch in range(NUM_EPOCHS):
     for n, real_samples in enumerate(train_iterator):
         if real_samples.shape[ 0 ] != BATCH_SIZE:
             continue
         # Data for training the discriminator
        real_samples_labels = torch.ones((BATCH_SIZE, 1 ))
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+ 1 ))
        generated_samples = generator(latent_space_samples)
        generated_samples_labels = torch.zeros((BATCH_SIZE, 1 ))
        all_samples = torch.cat((real_samples, generated_samples))
        all_samples_labels = torch.cat(
            (real_samples_labels, generated_samples_labels)
        )

         # Training the discriminator
        discriminator.zero_grad()
        output_discriminator = discriminator(all_samples)
        loss_discriminator = loss_function(
            output_discriminator, all_samples_labels)
        loss_discriminator.backward()
        optimizer_discriminator.step()

         # Data for training the generator
        latent_space_samples = torch.randn((BATCH_SIZE, INPUT_VECTOR+ 1 ))

         # Training the generator
        generator.zero_grad()
        generated_samples = generator(latent_space_samples)
        output_discriminator_generated = discriminator(generated_samples)
        loss_generator = loss_function(
            output_discriminator_generated, real_samples_labels
        )
        loss_generator.backward()
        optimizer_generator.step()

         # Show loss
         if epoch % 10 == 0 and n == BATCH_SIZE - 1 :
            print(f "Epoch: {epoch} Loss D.: {loss_discriminator}" )
            print(f "Epoch: {epoch} Loss G.: {loss_generator}" )
여기 또 다른 예가 있습니다
 
아무 것도 쓰고 싶지 않다면 준비 하십시오.
The Synthetic Data Vault | Open Source tools for Synthetic Data Generation
  • sdv.dev
The Synthetic Data Vault (SDV) enables end users to easily generate synthetic data for different data modalities, including single table, relational and time series data. With this ecosystem, we are releasing several years of our work building, testing and evaluating algorithms and models geared towards synthetic data generation.
사유: