트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 979

 

분류(softmax)를 위해 alglib의 NN 앙상블과 함께 NN 및 kfold와 함께 연주, 첫인상:

1. LBFGS는 LM보다 훨씬 빠르게 학습합니다(두 번째를 기다리는 것은 일반적으로 비현실적임). 앙상블 없이 하나의 NS를 위해

2. kfold는 항상 큰 학습 오류를 보여 10은 말할 것도 없고 2개의 폴드로도 작동하지 않습니다. 제 작업에는 그다지 적합하지 않지만 다시 시도하겠습니다.

3. 배깅 및 LBFGS 알고리즘을 기반으로 하는 NN 앙상블은 품질 면에서 숲의 앙상블과 유사하지만 더 느리게 학습합니다.

3. 검증 세트가 있는 얼리 스톱 기반 앙상블(제 생각에는 LM이 사용됨): 학습할 때까지 기다릴 수 없습니다.

4. 조정 매개변수(단계, 재시작 횟수)는 가시적인 개선을 제공하지 않습니다. 뉴런 수가 2-3배 증가하면 약간의 개선이 이루어집니다.

5. 일반적으로 NS가 Forest와 같은 방식으로 재훈련된다는 인상이 있었는데, NS의 앙상블은 Forest의 위원회보다 약간 적게 재훈련한다.

이 모든 것은 예를 들어 나중에 탐색할 xgboost와 나중에 비교하기 위해 수행되었습니다.

++ 스태킹 모델은 나에게 더 많은 안정성을 제공하지 않았습니다. 동일한 방식으로 학습합니다. 때때로 모델이 단순히 더 많이 학습한다는 사실 때문에 기차에서 결과를 개선할 수 있습니다.

 
막심 드미트리예프스키 :

안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))

 
예브게니 라스파에프 :

안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))

내 생각에는 내가 아니었다) 기억나지 않는다

 
막심 드미트리예프스키 :

내 생각에는 내가 아니었다) 기억나지 않는다

미안해요, 미안해요))))

 
예브게니 라스파에프 :

미안해요, 미안해요))))

도움말 및 수동 시도.
 
드미트리 스쿠브 :
도움말 및 수동 시도.

ATP가 필요한 것에 대해

 

안녕하세요 ))


여기에서 검색하는 동안 우리는 이미 러시아의 획기적인 요소인 RPE를 만들었습니다.

이것은 "다섯 번째 요소"입니다. 성배, 철학자의 돌, 진사, 기 시스템, 알고리즘화 분야에서 우리 과학 전문가의 성과입니다.

이제 모든 경제 및 금융 프로젝트 는 RPE에 대한 심층 신경 분석을 통해 최적화됩니다.

저것들. 미래에는 경제적 돌파구를 통해 1루블이 1달러와 같을 것입니다.


우리는 함께 밝은 미래를 향해 나아가고 있습니다!

 
알렉산더 이바노프 :

안녕하세요 ))

....

그리고 당신은 아마도 이 천재 팀 출신인가요? 내부자 유출? 잠깐, 보통, 강하지 않은 마음은 이해하지 못할 수도 있습니다)

 
막심 드미트리예프스키 :

분류(softmax)를 위해 alglib의 NN 앙상블과 함께 NN 및 kfold와 함께 연주, 첫인상:

1. LBFGS는 LM보다 훨씬 빠르게 학습합니다(두 번째를 기다리는 것은 일반적으로 비현실적임). 앙상블 없이 하나의 NS를 위해

2. kfold는 항상 큰 학습 오류를 보여 10은 말할 것도 없고 2개의 폴드로도 작동하지 않습니다. 제 작업에는 그다지 적합하지 않지만 다시 시도하겠습니다.

3. 배깅 및 LBFGS 알고리즘을 기반으로 하는 NN 앙상블은 품질 면에서 숲의 앙상블과 유사하지만 더 느리게 학습합니다.

3. 검증 세트가 있는 얼리 스톱 기반 앙상블(제 생각에는 LM이 사용됨): 학습할 때까지 기다릴 수 없습니다.

4. 조정 매개변수(단계, 재시작 횟수)는 가시적인 개선을 제공하지 않습니다. 뉴런 수가 2-3배 증가하면 약간의 개선이 이루어집니다.

5. 일반적으로 NS가 Forest와 같은 방식으로 재훈련된다는 인상이 있었는데, NS의 앙상블은 Forest의 위원회보다 약간 적게 재훈련한다.

이 모든 것은 예를 들어 나중에 탐색할 xgboost와 비교하기 위해 수행되었습니다.

++ 스태킹 모델은 나에게 더 많은 안정성을 제공하지 않았습니다. 동일한 방식으로 학습합니다. 때때로 모델이 단순히 더 많이 학습한다는 사실 때문에 기차에서 결과를 개선할 수 있습니다.

나는 또한 당신이 가지고 노는 장난감의 이름을 알고 싶습니다.

 
블라디미르 페레르벤코 :

나는 또한 당신이 가지고 노는 장난감의 이름을 알고 싶습니다.

MT5로 이식된 alglib 수치 분석 라이브러리입니다. Zayuzal은 이미 널리 퍼져 있고 일반적으로 잼이없고 좋습니다. 그러나 시각화 및 최신 현대 모델 없이는. lib가 더 이상 개발되지 않는 것 같고 사이트가 조용합니다.

사유: