NS + 지표. 실험. - 페이지 11

 
Figar0 >> :

가지를 올릴 때가 되었는데 결국 국회입구 전용이라 새로운 화두를 던지지 않겠습니다...

몇 가지 매우 간단한 이론적인 질문, 즉 성찰이 있었습니다.

*

에). 과장된 입력 옵션을 NN에 제출하면 다음과 같습니다.

a) 열기[0]-열기[1], 열기[0]-열기[2], 열기[0]-열기[3], 열기[0]-열기[4],..., 열기[0] -열기[N]

b) 열기[0]-열기[1], 열기[1]-열기[2], 열기[2]-열기[3], 열기[3]-열기[4],..., 열기[N- 1]-열기[N]

거의 같은 결과를 얻을 것으로 예상됩니다. 그래도 입력은 상당히 동어반복적입니다. 그러나 아니오, 결과는 훈련 현장과 외부 모두에서 항상 가까이 있는 것과는 거리가 멉니다. 나는 다른 네트워크 옵션, 다른 신경망 패키지를 시도했는데, 모든 곳에서 사진이 거의 똑같습니다... 왜요? 학습 메커니즘의 불완전성? 네트워크의 "약점"? 나는 그녀에게 얼마를 원합니까?

*

둘). 경험이 있거나 자칭하는 신경망 전문가의 의견을 듣고 싶습니다. 가격 VR 예측의 응용 문제에서 항목이 가격에서 얼마나 떨어져야 합니까? 내 경험에 따르면 가격의 "N 차 파생 상품"과 같은 모든 종류의 지표를 사용하면 기껏해야 아무 것도 제공되지 않습니다. 가격, 최대 평활화, 극단, 국회의 아편에서 다른 모든 .. 생각하지 않습니까?

아) 정보는 µl에 대한 당신, 저, 그리고 다른 많은 프로그래머들에게 "동어반복"입니다... 교차 상관 관계를 구축하고 입력이 얼마나 상관 관계가 있는지 확인하려고 시도한 적이 있습니까? 훈련 영역 밖에서는 개인적인 경험에 따르면 공급 된 장치의 비 고정성으로 인해 차이가 발생합니다 ...

2) "출품작은 가격에서 얼마나 떨어져야 하는가"에 대해 - 상대적으로 나는 반대인데, 파생상품을 사용하면 기준이 좋아진다... 개인적으로는 그렇게 생각하지 않는다. 어떤 입력이 있어야 하는지는 출력(작업)에 따라 달라지고 작업(출력)은 (대략적으로) 생각해내는 방법에 따라 달라집니다.

 
Figar0 >> :

에). 과장된 입력 옵션을 NN에 제출하면 다음과 같습니다.

a) 열기[0]-열기[1], 열기[0]-열기[2], 열기[0]-열기[3], 열기[0]-열기[4],..., 열기[0] -열기[N]

b) 열기[0]-열기[1], 열기[1]-열기[2], 열기[2]-열기[3], 열기[3]-열기[4],..., 열기[N- 1]-열기[N]

거의 동일한 결과를 얻을 것으로 예상됩니다. 그래도 입력은 상당히 동어반복적 입니다. 그러나 아니오, 결과는 훈련 현장과 외부 모두에서 항상 가까이 있는 것과는 거리가 멉니다. 나는 다른 네트워크 옵션, 다른 신경망 패키지를 시도했는데, 모든 곳에서 사진이 거의 똑같습니다... 왜요? 학습 메커니즘의 불완전성? 네트워크의 "약점"? 나는 그녀에게 얼마를 원합니까?

언뜻보기에 a) 및 b)의 경우 네트워크 입력에 제공된 정보는 실제로 동어반복입니다. 눈을 통해 뇌는 서면 공식의 형태로 그래픽 정보를 받습니다.

공식 기호 자체는 뇌에 유용한 정보를 전달하지 않으며 정보는 이러한 기호의 의미에 포함됩니다.

그는 처음에는 그 차이를 거의 느끼지 못합니다. 나는 보지 못했다. :)

그때까지 그는 공식의 기호 아래에 어떤 숫자가 숨겨져 있는지 이해하기 시작할 때까지 그 차이를 보지 못합니다. 차이점, 큰 차이가 무엇인지 즉시 명확해집니다.


다음은 그래프의 스크린샷입니다),

무한대에서 시작하여 Open[0]-Open[1] 간의 차이 값까지 거의 완벽한 선을 볼 수 있습니다.



이제 그래프 b)를 살펴보겠습니다.



그들이 얼굴에 말하는 것처럼 차이점! 두 번째 경우에 우리 함수의 값은 아주 특정한 경계 내에서 0 주위로 "점프"합니다.

모든 신경망에는 뉴런 활성화 함수와 가중치 제한에 의해 결정되는 입력 감도 제한이 있습니다. 학습 기능의 법칙과 민감도 내에서 학습하지 않은 것을 네트워크에서 요구할 수 없습니다. 이는 신경망이 훈련 샘플에 없는 경우에도 입력 데이터에서만 정확하게 계산할 수 있음을 의미하지만 동시에 입력에 제공된 값이 훈련 함수의 도메인에 속하고 거짓말을 하는 경우 네트워크의 감도 내에서. 이것은 NN이 올바르게 작동하는 두 가지 필수 조건입니다.

Figar0 >> :
둘). 경험이 있거나 자칭하는 신경망 전문가의 의견을 듣고 싶습니다. 가격 VR 예측의 응용 문제에서 항목이 가격에서 얼마나 떨어져야 합니까? 내 경험에 따르면 가격의 "N 차 파생 상품"과 같은 모든 종류의 지표를 사용하면 기껏해야 아무 것도 제공되지 않습니다. 가격, 최대 평활화, 극단, 국회의 아편에서 다른 모든 .. 생각하지 않습니까?

계산 원칙에서 근본적인 차이가 있는 가격 파생 지표를 사용할 수 있고 사용해야 합니다. 그 자체로는 개별 이웃 막대가 유용한 정보를 전달하지 않습니다. 유용한 정보는 막대의 "그룹", 즉 "창"의 상호 작용을 고려한 경우에만 추출될 수 있습니다.

 
joo писал(а) >>

언뜻보기에 a) 및 b)의 경우 네트워크 입력에 제공된 정보는 실제로 동어반복입니다.

다음은 그래프의 스크린샷입니다),

수식 a)를 그래픽으로 올바르게 해석하지 못했다는 메시지가 표시됩니다.

그래프는 다음과 같습니다.

f[0] = 열기[0]-열기[1] 알겠습니다.

f[1] = 열기[0]-열기[2] 미래를 내다보고 있습니까?

또는 Open[0]을 현재 값으로 바꿉니다.

f[1] = 열기[1]-열기[2] 공식 b)

아니면 에헴

f[1] = Open[1]-Open[3] 그러나 그것은 컨텍스트에서 따르지 않습니다.

내가 이해하는 것처럼(적어도 입력이 있는 "실험"에서 의미하는 바는 그렇습니다), 이 모든 것은 "포인트 0"에서 N-1 자리의 배열입니다. 즉, f[0][N-1]

f[1][N-1] 지점에서 Open[1]-Open[2], Open[1]-Open[3], ...

저것들. n-1차원 평면을 그려야 합니다.

결과가 다른 것은 당연합니다. 그러나 어떤 입력이 "더 정확한"(동일한 출력에 대해) 그는 아직 결정하지 않았습니다.

추신. "블랙박스"에서 오랫동안 검색했습니다.

 
SergNF >> :

수식 a)를 그래픽으로 올바르게 해석하지 못했다 는 메시지가 표시됩니다.

그리고 당신은이 "무언가"에 대해 헛된 컨설팅입니다.

지표를 만들고 참조하십시오.

SergNF >> :

결과가 다른 것은 당연합니다. 그러나 어떤 입력이 "더 정확한"(동일한 출력에 대해) 그는 아직 결정하지 않았습니다.

추신. "블랙박스"에서 오랫동안 검색했습니다.

결과는 무엇을 의미합니까? 어떤 입력과 출력이 있습니까! 그리고 그 중 어느 것이 "올바른지"는 위의 게시물에 설명되어 있습니다.

 
joo писал(а) >>

그리고 당신은이 "무언가"에 대해 헛된 컨설팅입니다.

아마도 당신이 맞을 것입니다 :)

지표를 만들고 참조하십시오.

입력 벡터의 상단 "플롯"!!!!! DBuffer[i]=닫기[i]-닫기[i+DPeriod];

입력 벡터의 하단 "플롯"!!!!! DBuffer[i]=닫기[i+DPeriod]-닫기[i+DPeriod+1];


그런 다음 원래 게시물의 언어학적 분석이 있을 것이며 ... 다시 TOR의 표현이 정확한지에 대한 질문이 있을 것입니다. ;)

 
SergNF >> :

아마도 당신이 맞을 것입니다 :)

입력 벡터의 상단 "플롯"!!!!! DBuffer[i]=닫기[i]-닫기[i+DPeriod];

입력 벡터의 하단 "플롯"!!!!! DBuffer[i]=닫기[i+DPeriod]-닫기[i+DPeriod+1];


그런 다음 원래 게시물의 언어학적 분석이 있을 것이며 ... 다시 TOR의 표현이 정확한지에 대한 질문이 있을 것입니다. ;)

예, 두 사람이 질문을 다르게 해석했기 때문에 질문자가 좋은 TK를 얻지 못했다는 의미입니다. :)

우리는 Figar0 이 그가 말하는 것을 볼 때까지 기다려야 할 것입니다.

 
StatBars писал(а) >>

어떤 입력이 있어야 하는지는 출력(작업)에 따라 달라지고 작업(출력)은 (대략적으로) 생각해내는 방법에 따라 달라집니다.

탈출구는 무엇입니까? 신호, 손실 없이 순조로운 형평성 증가를 기대하고 있음) 국회의 임무는 실제로 다른 방식으로 설정될 수 있지만....

작성 >>

예, 두 사람이 질문을 다르게 해석했기 때문에 질문자가 좋은 TK를 얻지 못했다는 의미입니다. :)

우리는 Figar0 이 그가 말하는 것을 볼 때까지 기다려야 할 것입니다.

솔직히 말해서, 나는 그러한 불일치가 발생할 수 있다고 생각하지 않았습니다 ... 우리의 작은 작은 세계에서 NS를 양조하는 비용. SergNF 는 내 "TK"를 올바르게 이해했습니다.) 두 개의 입력 벡터, 여기서 하나의 쿼리에서 다른 것을 얻을 수 있고 동시에 출력에서 다른 결과를 얻을 수 있습니다. 그리고 왜 그것들이 다른지 이해하기 시작한 것 같습니다. 내일 저는 몇 가지 실험을 하고 이 이해를 편지로 쓰려고 노력할 것입니다...

 
Figar0 >> :

탈출구는 무엇입니까? 신호, 손실 없이 순조로운 형평성 증가를 기대하고 있음) 국회의 임무는 실제로 다른 방식으로 설정될 수 있지만....

우리가 순조롭게 성장하기를 희망하는 신호는 작업 유형 중 하나이며 많은 구성 원칙이 있을 수 있지만 대부분은 여전히 매우 유사합니다(적어도 상관 관계 측면에서). 그리고 탈출구는 이 맥락에서 의미했습니다.

이에 대해 스스로 어떻게 생각하십니까?

나는 우리가 헛된 경험을 공유하지 않는다는 데 동의합니다. 어쨌든 많은 일이 한편으로는 더 쉬울 것이고 프로젝트 및 개발에 대한 중요한 정보는 여전히 숨겨져 있을 것입니다. 예를 들어, 나는 다른 사람들의 삶을 더 쉽게 만들어 줄 공유할 것이 있지만 동시에 내 비밀을 결코 드러내지 않을 것입니다 :)

 
Figar0 писал(а) >>

그리고 왜 그것들이 다른지 이해하기 시작한 것 같습니다. 내일 저는 몇 가지 실험을 하고 이 이해를 편지로 쓰려고 노력할 것입니다...

글쎄, 어떤 이해가있는 것 같습니다. 결론 :

- 입력 a) 및 b)는 동일하지만 학습 메커니즘의 불완전성 및 데이터 변환 중 계산 오류로 인해 결과가 다릅니다. 저것들. 입력에 대해 증분을 사용하는 경우: 표시기, 가격, 0 보고서 또는 어쨌든 인접 지점에서 차이를 가져옵니다. 이것을 실험적으로만 이해하면 NN을 극한까지 단순화하고 가중치를 철저히 열거하여 학습할 수 있습니다. 결과는 센트와 일치합니다 ...

이 결론을 소화하고 나는 GA 연구에 몰두했다.

statbars 작성 >>

나는 우리가 헛된 경험을 공유하지 않는다는 데 동의합니다. 어쨌든 많은 일이 한편으로는 더 쉬울 것이고 프로젝트 및 개발에 대한 중요한 정보는 여전히 숨겨져 있을 것입니다. 예를 들어, 나는 다른 사람들의 삶을 더 쉽게 만들어 줄 공유할 것이 있지만 동시에 내 비밀을 결코 드러내지 않을 것입니다 :)

확실히, 헛된 ... 적어도 때때로 시계를 비교하는 것이 좋을 것입니다)

나 자신부터 시작하겠습니다. 현재 저는 MQL에서만 네트워크를 준비하고 단말의 테스터/옵티마이저에서 독점적으로 훈련합니다. 그러나 Statistic'에서 입력의 일부 구성 요소를 연구합니다. 이 접근 방식에는 단점과 특정 장점이 있습니다. 가장 뚱뚱한 플러스는 어플리케이션 환경에서 직접 네트워크 교육을 하는 것이고 궁극적인 목표인 수익을 가르칠 수 있습니다. 아키텍처로서 나는 들어오는 레이어, 나가는 레이어 및 하나 또는 두 개의 숨겨진 레이어가 있는 MLP에 실험적으로 정착했습니다. 충분한 IMHO 근사치 이상. 이제 MLP에 피드백을 추가하는 방법을 생각하고 있습니다. 사용된 입력의 수는 ~ 50에서 200이며, 더 많이 사용하면 아키텍처와 교육이 복잡해지고 중복될 것 같습니다.

내가 설명한 것의 무언가가 이상할 수도 있고 아닐 수도 있습니다. 놀랄 일이 아니라면 독학으로 신경망을 터득한 사람입니다. 게다가 나는 모스크바를 먼지가 많은 문학에서 질투로 지킵니다.)

 

데이터 사전 처리, 필요한 형식으로 업로드, 네트워크 결과 분석에 MQL을 사용합니다. NS2에서만 네트워크를 훈련합니다. 당연히 MKL과 C++에도 네트워크가 있지만 NS2가 있으면 더 좋습니다...

그리드는 일반적으로 일반적인 3층(MLP)보다 많지 않으며 더 많은 것이 필요하지 않습니다.

그건 그렇고, 입력을 희생시키면서 최대값은 128이었고, 일부 실험에 의해 20-30개 이상의 입력이 이미 강력한 초과이며 중요하지 않은 입력을 제거하면 학습 기준이 크게 향상될 가능성이 높습니다. 40개 미만의 입력이 있는 경우 다른 질문이 무의미할 수 있지만 40개 이상의 입력은 100% 과잉입니다.

학습 기준은 NS2의 표준인 속도입니다.

네트워크 피팅을 피하기 위해 테스트 샘플을 사용하십시오. 또한 샘플의 분할은 순차적입니다. 샘플의 첫 번째 부분은 2005.01.01 - 2006.01.01 - 훈련 샘플, 테스트 - 2006.01.01 - 2006.04.01까지 유효합니다. 많은 사람들이 이 학습 방법이 네트워크의 재훈련을 제거한다고 의심할 수 있지만, 이것이 재훈련을 제거하는 것이라고 100% 확신합니다. 이것이 당신을 구하지 못한다면 문제는 다릅니다. 나는 샘플 분할을 변경하는 것을 강력히 권장하지 않습니다. 더 정확하게는 이러한 방식으로(샘플 2개 사용) 훈련합니다. 당신에게 더 중요한 것이 무엇인지 스스로 판단하십시오?: 처음에는 네트워크가 안정적이지만 더 많은 수익을 낼 수 있도록 개선해야 합니다. 즉. 먼저 이익을 본 다음 작업의 안정성을 처리합니다. 여기에서 작업의 안정성이란 순조로운 형평성 증가를 의미하는 것이 아니라 네트워크가 다른 순방향 테스트에서 다른 결과를 보여준다는 사실(디포를 병합하고 그 반대의 경우도 증가함)을 의미합니다.

저에게 개인적으로 첫 번째가 더 중요합니다. 이 방향으로 제가 발전하는 것입니다. 이제 나는 특정 결과를 얻었습니다. 예를 들어 (나는 이미 포럼에서 이것을 말했지만 반복합니다) "일반 샘플"이 있고 유전자의 약 20-30%만큼 네트워크를 훈련시킵니다. 샘플에서 훈련 후 네트워크는 전체 샘플에서 모든 곳에서 동일하게 작동하며 "일반 샘플"의 날짜는 2003년부터 현재 시간까지 입니다.

그리드의 수익성도 이미 솔루션에 매우 근접했습니다. 네트워크는 예제의 84%를 인식하고 87%는 안정적으로 원활하게 성장하기 위한 최소 임계값입니다.

형평성. 그리고 이 문제를 풀기 시작했을 때 인지도는 70% 수준이었습니다.

사유: