트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1547

 
막심 드미트리예프스키 :

그래서 난 몰라, 항상 다른

흠, 어떻게 알 수 있을까요?

그건 그렇고, 나는 당신의 데이터에 따라 R로 모델을 만들 수 있습니다. 왜냐하면 저는 방법의 효율성을 비교하는 데 관심이 있기 때문입니다.
 
알렉세이 비아즈미킨 :

흠, 어떻게 알 수 있을까요?

그건 그렇고, 나는 당신의 데이터에 따라 R로 모델을 만들 수 있습니다. 왜냐하면 저는 방법의 효율성을 비교하는 데 관심이 있기 때문입니다.

더 나은 것을 할 수는 없습니다. 모델은 완벽하고 kotir의 무작위 특성을 확인합니다.

추가 개선은 위에서 설명한 임의의 프로세스로 작업하는 다양한 방법으로 인해서만 가능합니다.

 
막심 드미트리예프스키 :

더 나은 것을 할 수는 없습니다. 모델은 완벽하고 kotir의 무작위 특성을 확인합니다.

추가 개선은 위에서 설명한 임의의 프로세스로 작업하는 다양한 방법으로 인해서만 가능합니다.

무작위 프로세스를 위한 무작위 솔루션 - 저에게 이것은 이데올로기적으로 너무 위험한 방법입니다...

 
막심 드미트리예프스키 :

Z.Y. 오랫동안 하고 싶었던 일을 되찾기 - MO + stoch

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

주제는 흥미롭습니다 - 특히 점프 또는 일부 변형이 있는 Merton 모델. 일반 확산과 달리 (시간에 따른 이산화에 의해) 자기회귀로 축소되지 않거나 어떻게든 사소하지 않게 수행되는 것 같습니다. 포트폴리오에 대한 슬라이딩 창의 계산은 참을 수 없는 것으로 판명될 수 있습니다.

 

랜덤 포레스트는 조정 가능성이 없는 역사에 적합합니다. 1년 전, 나는 SL에서 모든 옵션을 짜냈습니다.

선형 회귀 는 이익을 줄 가능성이 훨씬 높습니다. 훈련할 때 실제 가격이 아니라 상대적 가격을 제공해야 합니다.

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

 
로프필드 :

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

어떤 메쉬 구성이 마음에 드시나요? 생성자가 있다

 

생성자는 굉장하다!

예를 들어, 많은 사람들이 필요하지 않은 경우에도 "활성화 기능"을 무심코 사용합니다. "활성화 함수" = 정보가 부분적으로 또는 완전히 손실된 상태에서 데이터를 특정 범위의 값 으로 변환하는 것 - 이는 파일에 대한 해시 함수와 같습니다.

입력이 이미 정규화된 데이터인 경우 레이어 간의 "활성화 기능"이 필요하지 않습니다. 같은 Alglib에서는 "활성화 기능"을 없앨 수 없습니다.

Jenkins + MLFlow 형태의 전체 변경 제어 시스템이 있어 옵션을 반복하고 결과를 저장합니다.

이제 구성은 다음과 같습니다.

Sequential(
  ( input ): Linear(in_features= 2836 , out_features= 1000 , bias=True)
  (hidden1): Linear(in_features= 1000 , out_features= 100 , bias=True)
  (hidden2): Linear(in_features= 100 , out_features= 2 , bias=True)
  (output_activ): Softmax()
)

물론 데이터 전송 지연으로 인해 비디오 카드에서 네트워크를 훈련시키는 방법을 즉시 이해하지 못했습니다. 이제 내 코드는 비디오 카드로 다운로드되는 데이터 수를 줄여 원래 버전보다 100배 더 빠르게 최적화되고 학습합니다.

 
로프필드 :

생성자는 굉장하다!

예를 들어, 많은 사람들이 필요하지 않은 경우에도 "활성화 기능"을 무심코 사용합니다. "활성화 함수" = 정보가 부분적으로 또는 완전히 손실된 상태에서 데이터를 특정 범위의 값 으로 변환하는 것 - 이는 파일에 대한 해시 함수와 같습니다.

입력이 이미 정규화된 데이터인 경우 레이어 간의 "활성화 기능"이 필요하지 않습니다. 같은 Alglib에서는 "활성화 기능"을 없앨 수 없습니다.

Jenkins + MLFlow 형태의 전체 변경 제어 시스템이 있어 옵션을 반복하고 결과를 저장합니다.

이제 구성은 다음과 같습니다.

물론 데이터 전송 지연으로 인해 비디오 카드에서 네트워크를 훈련시키는 방법을 즉시 이해하지 못했습니다. 이제 내 코드는 비디오 카드로 다운로드되는 데이터 수를 줄여 원래 버전보다 100배 더 빠르게 최적화되고 학습합니다.

그러나 반복 레이어는 어떻습니까? lstm 또는 gru

 
로프필드 :

생성자는 굉장하다!

예를 들어, 많은 사람들이 필요하지 않은 경우에도 "활성화 기능"을 무심코 사용합니다. "활성화 함수" = 정보가 부분적으로 또는 완전히 손실된 상태에서 데이터를 특정 범위의 값 으로 변환하는 것 - 이는 파일에 대한 해시 함수와 같습니다.

입력이 이미 정규화된 데이터인 경우 레이어 간의 "활성화 기능"이 필요하지 않습니다. 같은 Alglib에서는 "활성화 기능"을 없앨 수 없습니다.

Jenkins + MLFlow 형태의 전체 변경 제어 시스템이 있어 옵션을 반복하고 결과를 저장합니다.

이제 구성은 다음과 같습니다.

물론 데이터 전송 지연으로 인해 비디오 카드에서 네트워크를 훈련시키는 방법을 즉시 이해하지 못했습니다. 이제 내 코드는 비디오 카드로 다운로드되는 데이터 수를 줄여 원래 버전보다 100배 더 빠르게 최적화되고 학습합니다.

속도는 시원하지만 부차적입니다.
NN이 전방을 성공적으로 예측합니까? 그렇다면 신호 또는 적어도 포워드를 가진 테스터의 결과를 보는 것이 흥미 롭습니다.
 
막심 드미트리예프스키 :

그러나 반복 레이어는 어떻습니까? lstm 또는 gru

추가할 수도 있지만 지금은 내 버전을 완전히 테스트하고 싶습니다. 네트워크 구조를 변경하려면 코드에 한 줄만 추가하면 됩니다. 우리는 텍스트의 번역을 가지고 있지 않지만 역사적 사건에 대한 인식을 가지고 있습니다.

https://pytorch.org/docs/stable/nn.html - 원하는 레이어를 선택하고 한 줄에 추가합니다.

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...
사유: