This article is a continuation of previous articles on deep neural network and predictor selection. Here we will cover features of a neural network initiated by Stacked RBM, and its implementation in the "darch" package.
1번과 2번의 데이터 세트가 동일하다면 데이터 세트에 대한 일종의 과잉 적응으로 이어지지 않을까요?
"다시 모델이 악화될 때까지 약 5주 동안 수익성 있는 단계가 있습니다."가 정확히 그런 것을 나타내지 않나요?
a) 테스터가 여러 지표를 모두 최적화했다고 가정하고 b) 테스터가 두 번째 최적화를 실행하여 어떤 최적화 지표가 필요한지 확인하고(*) c) 최적화 지표의 수를 줄여서 d) NN이 필요한 이유는 무엇인가요?
입력, 레이어 및 퍼셉트론의 수에 따라 NN을 위해 데이터 세트가 얼마나 커야 하는지에 대한 추정치를 알고 있나요?
(*) 안타깝게도 유전 모드에서 mt4의 최적화 프로그램을 실행하고 특정 파라미터 세트(예: "지표-A"가 '켜짐'인지 테스트하지 않음)를 우회하려는 경우 OnInit()에서"INIT_PARAMETERS_INCORRECT" 로 반환하면유전 알고리즘은 여전히 이를 유효한 패스로 계산하고 종료 기준 중 하나인 패스 횟수로 인해 이 알고리즘이 중지되기 전에 실제로 실행된 패스 수를 줄이게 됩니다.
코드를 올바르게 입력하세요. 수정했습니다.
안녕하세요.
어떤 대본에 대해 이야기하고 있나요?
스크립트에 어떤 내용이 있는지 좀 더 자세히 설명해 주시겠어요?
테스터에서 R 프로세스로 스크립트를 실행할 수 있었다고 이해했나요?
그렇다면 흥미롭군요.
시간을 갖고 가능한 한 자세히 설명해 주세요. R 프로세스가 클라이언트-서버 번들에서 실행되나요, 아니면 단일 R터럼에서 실행되나요?
예. 클라이언트-서버 바인딩으로 실행됩니다.
가능한 한 간단하게 설명할 수 있나요?
온타이머() 함수의 코드를 온틱() 및 온타이머()의 공통 함수로 가져왔습니다. 제가 추가한 것은 사용자 지정 모드 스위치와 틱 카운터뿐입니다.
다른 모든 시작 절차는 동일하게 유지됩니다. 조금 후에 포럼에 첨부된 스크립트에서 함수를 구현하여 게시하겠습니다.
추신: MQL4 문서에 따르면 OnTimer() 함수는 테스터에서 작동하지 않는다고 합니다.
네. 클라이언트-서버입니다.
가능한 한 간단하게 설명할 수 있을까요?
온타이머() 함수의 코드를 온틱() 및 온타이머()의 공통 함수로 가져왔습니다. 제가 추가한 것은 사용자 지정 모드 스위치와 틱 카운터뿐입니다.
다른 모든 시작 절차는 동일하게 유지됩니다. 조금 후에 포럼에 첨부된 스크립트에서 함수를 구현하여 게시하겠습니다.
추신: MQL4 문서에 따르면 OnTimer() 함수가 테스터에서 작동하지 않는다고 합니다.
OnTimer()를 이해합니다.
클라이언트-서버 연결에 대해 추가 조치를 취하셨나요?
아직 작동하지 않습니다. 그리고 영어를 사용하는 스레드의 게시물로 판단하면 저뿐만 아니라.
행운을 빕니다.
약속한 대로 전략 테스터에서 작동하도록 로컬 SAE를 MQL4에 첨부했습니다.
i_SAE
e_SAE
원본을 바꾸고 *.ex를 다시 컴파일합니다.
테스터를 시작하고, e_SAE를 선택하고, 타이머 활성화 = false, 틱 수 = 120으로 설정합니다(저에게는 최적이었습니다). 시작.
속도를 추가하고 왼쪽에 "OPP = CLOSE...."라는 마법 메시지가 나타날 때까지 기다렸다가 속도를 줄입니다. 그런 다음 서버로 보내기 = true로 그래프에 i_SAE를 추가합니다. 약간의 속도를 추가합니다. 결과가 확정될 때까지 기다립니다.
제 R은 3.2.2 버전입니다. 두 파일에서 버전을 꼭 비교하세요!
실험에 행운을 빕니다!
안녕하세요, 업데이트된 전문가 도움말을 문서에 첨부했습니다.
업데이트된 전문가가 기사에첨부되었습니다 .
거기서 나와요.
거기서 나와요.
블라디미르
안녕하세요.
그거 좋네요. 감사합니다.
이제 테스터에서 어떻게 작동하는지 확인해 보겠습니다. 향후 R을 사용한 예제에서는 이 기능을 포함할 예정입니다.
새 DNRBM 문서에 자가 학습 기능이 있지만 서버가 없는 이 DNSAE EA의 재설계된 버전이 첨부되어 있습니다.
테스트해 보세요.
행운을 빕니다.
스택형 RBM (DN_SRBM) https://www.mql5.com/ko/articles/1628
인간이 작업에 몰입하면 인간은 개선되는 반면
기계가 같은 작업을 하면 로컬 최적값에 머물 수 있습니다.
어쩌면 알고리즘 몰입은 '학습' 패러다임에서 '실행' 패러다임으로 진화할 수 있습니다.
훌륭한 기사.Props
다시 말하지만 모델이 악화될 때까지 약 5주 동안 수익성 있는 단계가 있습니다.
이는 정상입니다. 모델은 주기적으로 다시 학습할 수 있고 또 그래야 합니다.
테스트 데이터와 학습 데이터로 나누는 것은 불필요하다고 생각합니다. 모든 데이터를 학습에 사용할 수 있습니다.
할 수 있습니다. 몇 가지 중요한 사항을 기억하는 것이 중요합니다:1. 학습 세트와 테스트 세트는 교차해서는 안 됩니다.
2. 훈련 세트는 혼합되어야 합니다.
3. 균형의 클래스 비율 - 조정하는 경우 .
R을 사용하는 동료가 있어서기쁩니다.
안부 인사
블라디미르
안녕하세요,
신경망(NN)에 대한 저의 부정적인 편견을 명확히 할 수 있도록 도와주세요.
b) 테스터가 두 번째 최적화를 실행하여 어떤 최적화 지표가 필요한지 확인하고(*)
c) 최적화 지표의 수를 줄여서
d) NN이 필요한 이유는 무엇인가요?
(*) 안타깝게도 유전 모드에서 mt4의 최적화 프로그램을 실행하고 특정 파라미터 세트(예: "지표-A"가 '켜짐'인지 테스트하지 않음)를 우회하려는 경우 OnInit()에서"INIT_PARAMETERS_INCORRECT" 로 반환하면유전 알고리즘은 여전히 이를 유효한 패스로 계산하고 종료 기준 중 하나인 패스 횟수로 인해 이 알고리즘이 중지되기 전에 실제로 실행된 패스 수를 줄이게 됩니다.