트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1910

 
로르샤흐 :

고맙게도, 흥미롭게도 이전 신호를 주는 일은 발생하지 않았을 것입니다. 이것은 아마도 네트워크가 일반적으로 추가 링크일 수 있다는 질문을 던집니다.

표지판을 선택하지 않기 위해 네트워크는 나에게 흥미 롭습니다. 그렇지 않으면 고전적인 시스템을 만드는 것이 더 쉽습니다.

나는 실험을 땜질해야 할 것이고, 기계의 시스템에서 매우 많은 수의 예를 취할 것이므로 훈련 중에 단일 반복이없고 한 시대 내에 유지할 수 있습니다.

불행히도, 자동차는 당신을 돕지 않을 것입니다. 어디 오셨어요? 이곳을 무엇이라고 하나요?
 
막심 드미트리예프스키 :

Adabust는 79 대 79를 주었습니다.

글쎄, 맥심, 찡그린거야? 고퀄리티 모델로 워밍업 하셨고 이제 좌우로 전리품을 자르시죠???? 우리가 하얀 보좌에 앉을 때 여기에서 우리 모두가 중요하다는 것이 그것뿐입니다. 저는 지금 팀을 구성할 계획이며 지금은 그 자리에서 누구에게도 전화하지 않기로 확실히 결정했습니다. 그들은 잘못된 것을 공격했습니다 ... :-)
 
마이클 마르쿠카이테스 :
글쎄, 맥심, 찡그린거야? 고퀄리티 모델로 워밍업 하셨고 이제 좌우로 전리품을 자르시죠???? 우리가 하얀 보좌에 앉을 때 여기에서 우리 모두가 중요하다는 것이 그것뿐입니다. 저는 지금 팀을 구성할 계획이며 지금은 그 자리에서 누구에게도 전화하지 않기로 확실히 결정했습니다. 그들은 잘못된 것을 공격했습니다 .... :-)

작동하지 않습니다. 다른 x-nya

하지만 재미있었다

 
막심 드미트리예프스키 :

작동하지 않습니다, 다른 x-nya

하지만 재미있었다

왜 그런지 아세요??? 내가 가서 비디오를 녹화하고 거기에 있는 모든 것을 설명하겠습니다. 거기에 서문과 함께 원하는 OOS를 거래하고 결과를 게시하십시오. 초조해???
 
마이클 마르쿠카이테스 :
불행히도, 자동차는 당신을 돕지 않을 것입니다. 어디 오셨어요? 이 곳의 이름은 무엇입니까?

롤링 머신.

패턴이 있으면 어떤 방법으로든 쉽게 뽑힐 수 있다는 의견을 두 번 이상 만났습니다.

 
로르샤흐 :

롤링 머신.

패턴이 있으면 어떤 방법으로든 쉽게 뽑힐 수 있다는 의견을 두 번 이상 만났습니다.

동의하지만 마스크에는 없습니다 ... 그리고 논쟁하지 마십시오 .... 의사 규칙성, 예, 그러나 이것은 경우의 수준이며 시장에서 가장 중요한 것은 안정성입니다.
 

내가 약속했듯이. 일시 중지와 끔찍한 소리가있는 일부 장소. 헤드폰으로 시청하는 것을 추천합니다. Maxim에 대한 맞춤형 어필. 비판을 건설적으로 받아들인다면 아마도 이 비디오에서 답을 찾을 수 있을 것입니다.

부끄럽지 않게 시청하세요 :-)

Обучающий набор
Обучающий набор
  • 2020.07.23
  • www.youtube.com
Важные моменты при формировании обучающего набора, ну и несколько слов о рынке в целом.
 
마이클 마르쿠카이테스 :

내가 약속했듯이. 일시 중지와 끔찍한 소리가있는 일부 장소. 헤드폰으로 시청하는 것을 추천합니다. Maxim에 대한 맞춤형 어필. 비판을 건설적으로 받아들인다면 아마도 이 비디오에서 답을 찾을 수 있을 것입니다.

부끄러워하지 마시고 시청하세요 :-)

))))

좋아 했어요)

 
마이클 마르쿠카이테스 :

내가 약속했듯이. 일시 중지와 끔찍한 소리가있는 일부 장소. 헤드폰으로 시청하는 것을 추천합니다. Maxim에 대한 맞춤형 어필. 비판을 건설적으로 받아들인다면 아마도 이 비디오에서 답을 찾을 수 있을 것입니다.

부끄러워하지 마시고 시청하세요 :-)

이동 중에 작성) 100개가 아닌 24개 열. 파일을 직접 요청했습니다. 오류가 없습니다(설명). 300개의 홀수 줄은 내가 당신에게 1년을 주었으므로 당신의 '발전기'가 셀 수 없도록 하기 위함입니다))) 하지만 계속하십시오. 끝내지는 못했지만 희망찬 시작입니다. 나중에 전체 리뷰를 올리겠습니다. 동영상 형식으로 답변해야 할 것 같습니다
 
막심 드미트리예프스키 :
하지만 계속

그래, 보는 것보다 읽는 게 훨씬 재미있어..


그건 그렇고, Vtree 리소스를 저장 하기 전(또는 저장 후)에도 동일한 PCA로 거의 품질 손실 없이 기능 수를 압축할 수 있습니다.

다음은 정보 손실 없이 1000개 변수 중 10개를 만드는 방법의 예입니다. 이는 1000개 기능과 완전히 동일합니다.

 # data set Х
X <- matrix(rnorm( 10000 ) , ncol = 1000 ,nrow = 1000 )
colnames(X) <- paste0( "V" , 1 :ncol(X))
head(X)

library (caret)
pcm <- preProcess( X[ 1 : 500 ,] , method = "pca" ,thresh = 1 )
PCs <- predict(pcm , X)
head(PCs)


thresh = 1

정보의 100%를 유지하기를 원한다는 것을 의미합니다.

thresh = 0,7 

70% 등


==================================================

영상에서 고유한 값만 선택하게 하고 싶다고 하셨는데 방법을 모르시네요 -

샘플의 값을 클러스터링하고 중복 클러스터를 제거하십시오.

행, 열 또는 각 값으로 클러스터링할 수 있습니다.

사유: