기고글 토론 "3세대 신경망: 심층 신경망" - 페이지 14

 
Rashid Umarov:
코드를 올바르게 입력하세요. 수정했습니다.
고마워요. 어떤 버튼인지 한 번에 깨닫지 못했습니다.
 
Vladimir Perervenko:

안녕하세요.

어떤 대본에 대해 이야기하고 있나요?

스크립트에 어떤 내용이 있는지 좀 더 자세히 설명해 주시겠어요?

테스터에서 R 프로세스로 스크립트를 실행할 수 있었다고 이해했나요?

그렇다면 흥미롭군요.

시간을 갖고 가능한 한 자세히 설명해 주세요. R 프로세스가 클라이언트-서버 번들에서 실행되나요, 아니면 단일 R터럼에서 실행되나요?

예. 클라이언트-서버 바인딩으로 실행됩니다.

가능한 한 간단하게 설명할 수 있나요?

온타이머() 함수의 코드를 온틱() 및 온타이머()의 공통 함수로 가져왔습니다. 제가 추가한 것은 사용자 지정 모드 스위치와 틱 카운터뿐입니다.

다른 모든 시작 절차는 동일하게 유지됩니다. 조금 후에 포럼에 첨부된 스크립트에서 함수를 구현하여 게시하겠습니다.

추신: MQL4 문서에 따르면 OnTimer() 함수는 테스터에서 작동하지 않는다고 합니다.

 
kimkarus:

네. 클라이언트-서버입니다.

가능한 한 간단하게 설명할 수 있을까요?

온타이머() 함수의 코드를 온틱() 및 온타이머()의 공통 함수로 가져왔습니다. 제가 추가한 것은 사용자 지정 모드 스위치와 틱 카운터뿐입니다.

다른 모든 시작 절차는 동일하게 유지됩니다. 조금 후에 포럼에 첨부된 스크립트에서 함수를 구현하여 게시하겠습니다.

추신: MQL4 문서에 따르면 OnTimer() 함수가 테스터에서 작동하지 않는다고 합니다.

OnTimer()를 이해합니다.

클라이언트-서버 연결에 대해 추가 조치를 취하셨나요?

아직 작동하지 않습니다. 그리고 영어를 사용하는 스레드의 게시물로 판단하면 저뿐만 아니라.

행운을 빕니다.

 

약속한 대로 전략 테스터에서 작동하도록 로컬 SAE를 MQL4에 첨부했습니다.

i_SAE

e_SAE

원본을 바꾸고 *.ex를 다시 컴파일합니다.

테스터를 시작하고, e_SAE를 선택하고, 타이머 활성화 = false, 틱 수 = 120으로 설정합니다(저에게는 최적이었습니다). 시작.

속도를 추가하고 왼쪽에 "OPP = CLOSE...."라는 마법 메시지가 나타날 때까지 기다렸다가 속도를 줄입니다. 그런 다음 서버로 보내기 = true로 그래프에 i_SAE를 추가합니다. 약간의 속도를 추가합니다. 결과가 확정될 때까지 기다립니다.

제 R은 3.2.2 버전입니다. 두 파일에서 버전을 꼭 비교하세요!

실험에 행운을 빕니다!

e_SAE

 
안녕하세요 서버 소켓 문제를 해결할 수 있는 방법을 찾았나요?
 

안녕하세요, 업데이트된 전문가 도움말을 문서에 첨부했습니다.

업데이트된 전문가가 기사에첨부되었습니다 .

거기서 나와요.

거기서 나와요.

블라디미르

 

안녕하세요.

그거 좋네요. 감사합니다.

이제 테스터에서 어떻게 작동하는지 확인해 보겠습니다. 향후 R을 사용한 예제에서는 이 기능을 포함할 예정입니다.

새 DNRBM 문서에 자가 학습 기능이 있지만 서버가 없는 이 DNSAE EA의 재설계된 버전이 첨부되어 있습니다.

테스트해 보세요.

행운을 빕니다.

 
안녕하세요, 입력에 11 개의 오실레이터 표시기를 사용하신 것을보고 Mt4에 일부 표시기가 있는데 오실레이터가 아닌 경우 기사에서 이러한 표시기를 추가하거나 교체하려면 어떻게해야합니까?

스택형 RBM (DN_SRBM) https://www.mql5.com/ko/articles/1628

Deep neural network with Stacked RBM. Self-training, self-control
Deep neural network with Stacked RBM. Self-training, self-control
  • 2016.04.26
  • Vladimir Perervenko
  • www.mql5.com
This article is a continuation of previous articles on deep neural network and predictor selection. Here we will cover features of a neural network initiated by Stacked RBM, and its implementation in the "darch" package.
 
흥미롭네요.

인간이 작업에 몰입하면 인간은 개선되는 반면
기계가 같은 작업을 하면 로컬 최적값에 머물 수 있습니다.

어쩌면 알고리즘 몰입은 '학습' 패러다임에서 '실행' 패러다임으로 진화할 수 있습니다.

훌륭한 기사.Props
 
Vladimir Perervenko:


다시 말하지만 모델이 악화될 때까지 약 5주 동안 수익성 있는 단계가 있습니다.

이는 정상입니다. 모델은 주기적으로 다시 학습할 있고 또 그래야 합니다.

테스트 데이터와 학습 데이터로 나누는 것은 불필요하다고 생각합니다. 모든 데이터를 학습에 사용할 수 있습니다.

할 수 있습니다. 몇 가지 중요한 사항을 기억하는 것이 중요합니다:
1. 학습 세트와 테스트 세트는 교차해서는 안 됩니다.
2. 훈련 세트는 혼합되어야 합니다.

3. 균형의 클래스 비율 - 조정하는 경우 .

R을 사용하는 동료가 있어서기쁩니다.

안부 인사

블라디미르

안녕하세요,

신경망(NN)에 대한 저의 부정적인 편견을 명확히 할 수 있도록 도와주세요.

  1. 먼저 NN에 넣을 지표를 최적화해야 한다는 것이 맞나요?
  2. 그런 다음 NN의 매개 변수를 최적화하나요?
  3. 아니면 NN과 지표의 파라미터를 동시에 최적화하나요?
  4. 최적화해야 하는 변수가 많을수록 과잉 적응의 위험이 더 커지지 않나요?
  5. 1번과 2번의 데이터 세트가 동일하다면 데이터 세트에 대한 일종의 과잉 적응으로 이어지지 않을까요?
  6. "다시 모델이 악화될 때까지 약 5주 동안 수익성 있는 단계가 있습니다."가 정확히 그런 것을 나타내지 않나요?
  7. a) 테스터가 여러 지표를 모두 최적화했다고 가정하고
    b) 테스터가 두 번째 최적화를 실행하여 어떤 최적화 지표가 필요한지 확인하고(*)
    c) 최적화 지표의 수를 줄여서
    d) NN이 필요한 이유는 무엇인가요?
  8. 입력, 레이어 및 퍼셉트론의 수에 따라 NN을 위해 데이터 세트가 얼마나 커야 하는지에 대한 추정치를 알고 있나요?


(*) 안타깝게도 유전 모드에서 mt4의 최적화 프로그램을 실행하고 특정 파라미터 세트(예: "지표-A"가 '켜짐'인지 테스트하지 않음)를 우회하려는 경우 OnInit()에서"INIT_PARAMETERS_INCORRECT" 로 반환하면유전 알고리즘은 여전히 이를 유효한 패스로 계산하고 종료 기준 중 하나인 패스 횟수로 인해 이 알고리즘이 중지되기 전에 실제로 실행된 패스 수를 줄이게 됩니다.