거래에서 신경망 사용. - 페이지 3

 
StatBars писал(а) >>

수치는 정규화되지 않은 데이터를 보여주며, 또한 다른 데이터에서 내가 한 일(결과적으로 어떻게 보이는지)의 예를 제시했습니다.

그리고 여기 스크립트가 있습니다. 당신은 그것을 사용하고 출력에서 어떤 일이 일어나는지 볼 수 있습니다(입력 데이터에 대해 불평만 하지 마십시오. 이 스크립트는 단지 예를 위한 것입니다 ...)

//유형 0 - 선형 정규화, 1 - 비선형

StatBars , 예, 불만이 없습니다!

글쎄, 그것은 잘 작동합니다. 나는 정규화 절차가 분포를 균등화하는 것과 같지 않으며 여기에는 상대적으로 더 복잡한 접근 방식이 필요하다는 점을 분명히 하고 싶습니다. 그러나 출력에서 최종 범위 +/-1의 입력 값과 선반 형태의 입력 값이 있습니다. 손가락을 핥을 것입니다. 당신은 또한 적절하게 입구를 희게하고 심미적 인 즐거움을 느낄 것입니다.

 
Neutron писал(а) >>

StatBars , 예, 불만이 없습니다!

글쎄, 그것은 잘 작동합니다. 나는 정규화 절차가 분포를 균등화하는 것과 같지 않으며 여기에는 상대적으로 더 복잡한 접근 방식이 필요하다는 점을 분명히 하고 싶습니다. 그러나 출력에서 최종 범위 +/-1의 입력 값과 선반 형태의 입력 값이 있습니다. 손가락을 핥을 것입니다. 또한 입구를 적절하게 하얗게 만들면 미적 쾌감만이 느껴질 것입니다.

)))

그건 그렇고, 나는 한 기사에서 설명한 방법을 구현했는데 정확히 어디에서 읽었는지 기억이 나지 않습니다 ... 일반적으로 분포 기능 영역을 사용하여 두 번째 그림은이 방법의 작업 일뿐입니다.

그런데 여기 간단한 정규화와 주파수 이퀄라이제이션이 포함된 파일이 있습니다. 가장 좋은 예는 아니지만 그럼에도 불구하고...

입구를 흰색으로 칠했습니까? 질문이 한두가지가 아닙니다...

파일:
 

했다.

다만 여기서 미백-미백은 다릅니다. 어리석게도 2개의 NS 입구에 2개의 스트로크를 주고 미백 목표를 설정하는 것이 가능합니다... 이것은 하나의 경우(임상)이거나 의 시가를 12개로 둘 수 있습니다. 이것은 또 다른 것입니다. 여기에 희게 할 것이 없으므로 모든 것이 흰색입니다.

 
가지를 읽어보니 남들보다 더 의미가 있지만 오늘은 GOOD DEED DAY라서 u-T-O-P-I-K-E로 올립니다... :-O)
 
Neutron >> :

레오니드, 네, 국회 재교육에는 문제가 없습니다. 아름다운 이름과 세 개의 못이 들어있는 이 상자 안에서 무슨 일이 일어나고 있는지 본질에 대한 오해에서 비롯된 것입니다. 최소값보다 짧은 훈련 샘플을 취하지 마십시오. 그러면 무작위 방법으로 결정할 필요가 없습니다. 어느 것이 더 좋고 더 나쁩니다!

"올바른"입력에 관해서는 이것이 성공의 열쇠라는 점에 100 % 동의합니다. NS-ku에서 해결할 수있는 모든 것은 스스로 결정해야합니다. 그녀는 떠나야합니다. 결정에 없거나 부당하게 어려운 것입니다. 예를 들어 지그재그를 입력으로 적용하는 것은 이치에 맞지 않습니다. 이 경우 국회의 행동은 명백합니다. 표면에 무엇이 있는지 배울 것입니다. ZZ의 팔의 부호 교대 및 이러한 입력 데이터에서 의미가 없습니다.

잘못된 항목이 없습니다. 잘못된 작업이 있습니다.

 

정규화에 대해. 모든 유형의 정규화를 해결 중인 문제의 맥락에서 적용할 수 있는 것은 아닙니다.

 
registred писал(а) >>

잘못된 항목이 없습니다. 잘못된 작업이 있습니다.

왜 안 돼? 있다. 객관적인 (올바른) 작업 외에도이 작업을 해결하는 데 도움이되는 데이터도 있습니다 ...

그리고 정규화를 희생하면서 - 어떤 설명이 가능합니까?

 
정규화 과정에서 한 가지 어려움이 발생합니다. 신경망을 설명할 때 모든 뉴런이 동일하고 뉴런을 한 번만 설명할 수 있는 경우 대조되는 연결을 제거한 후 뉴런은 일반적으로 다른 구조를 갖습니다.
 
StatBars >> :

왜 안 돼? 있다. 객관적인 (올바른) 작업 외에도이 작업을 해결하는 데 도움이되는 데이터도 있습니다 ...

그리고 정규화를 희생하면서 - 어떤 설명이 가능합니까?

음, 선형 정규화가 있고 비선형 정규화가 있습니다. 비선형은 새로운 데이터의 분산에 민감합니다. 선형은 간단하고 더 적은 수의 계산 작업을 수행할 필요가 있지만 비대칭은 말하자면 훈련 기간에 영향을 미칩니다. 그것으로 가치의 확산은 특정 조건에 따라 훈련의 결과로 무엇이든 될 수 있습니다. 그러나 훈련 자체 중에 0의 평균과 단위 분산으로 감소되지 않은 계열은 결과적으로 이러한 정규화를 수행한 경우보다 네트워크 훈련을 더 길게 만듭니다. 첫 번째 질문에 대해서는 개인적으로 이런 생각을 가지고 있습니다. MA를 취할 수 있고 행 자체의 증분을 취할 수 있습니다. 저에게는 차이가 없을 것입니다. 결론은 네트워크를 훈련시킨 후 훈련 결과가 내가 선택한 것(MA 또는 시리즈의 증분)에 따라 달라지면 이것은 잘못 설정된 작업에 대해서만 말하고 네트워크는 단순히 내가 시도한 것을 배웠다는 것입니다. 그것을 가르치기 위해.. 즉, 내가 그녀에게 가르친 행동을 수행하기만 하면 됩니다. 그러나 패턴을 찾는 것, 즉 네트워크를 일반화하는 것은 제대로 하지 않거나 하지 않을 것입니다. 결론은 신경망의 출력에 필요한 이러한 유형의 데이터의 일반화 오류를 줄이는 것입니다. 입력 데이터는 시계열 자체의 증분일 수 있으며 MA 또는 다른 형태의 평활 버전일 필요는 없습니다. 모두가 행을 매끄럽게 만드는 데 필요하다고 씁니다. 그러나 데이터의 객관적인 패턴이 보존되기 때문에 중요하지 않다고 생각합니다. 가장 중요한 것은 시리즈에 대해 올바른 증분 수를 선택하는 것입니다.

 
registred писал(а) >>

음, 선형 정규화가 있고 비선형 정규화가 있습니다. 비선형은 새로운 데이터의 분산에 민감합니다. 선형은 간단하고 더 적은 수의 계산 작업을 수행할 필요가 있지만 비대칭은 말하자면 훈련 기간에 영향을 미칩니다. 그것으로 가치의 확산은 특정 조건에 따라 훈련의 결과로 무엇이든 될 수 있습니다. 그러나 훈련 자체 중에 0의 평균과 단위 분산으로 감소되지 않은 계열은 결과적으로 이러한 정규화를 수행한 경우보다 네트워크 훈련을 더 길게 만듭니다. 첫 번째 질문에 대해서는 개인적으로 이런 생각을 가지고 있습니다. MA를 취할 수 있고 행 자체의 증분을 취할 수 있습니다. 저에게는 차이가 없을 것입니다. 결론은 네트워크를 훈련시킨 후 훈련 결과가 내가 선택한 것(MA 또는 시리즈의 증분)에 따라 달라지면 이것은 잘못 설정된 작업에 대해서만 말하고 네트워크는 단순히 내가 시도한 것을 배웠다는 것입니다. 그것을 가르치기 위해.. 즉, 단순히 내가 그녀에게 가르친 행동을 수행하십시오. 그러나 패턴을 찾는 것, 즉 네트워크를 일반화하는 것은 제대로 하지 않거나 하지 않을 것입니다. 결론은 신경망의 출력에 필요한 이러한 유형의 데이터의 일반화 오류를 줄이는 것입니다. 입력 데이터는 시계열 자체의 증분일 수 있으며 MA 또는 다른 형태의 평활 버전일 필요는 없습니다. 모든 사람들은 행을 매끄럽게 만드는 데 필요하다고 씁니다. 그러나 데이터의 객관적인 패턴이 보존되기 때문에 중요하지 않다고 생각합니다. 가장 중요한 것은 시리즈에 대해 올바른 증분 수를 선택하는 것입니다.

귀하의 게시물에서 제 생각에는 정규화가 보기에 있는 작업보다 데이터에 더 의존한다는 것도 따릅니다.

두 번째 부분은 MA 증분과 시리즈 증분을 고려하고 있습니까?

글쎄, 일반적인 의미에서 훈련된 네트워크가 입력 데이터(각 개별 입력에 대해)에 둔감해야 한다는 것을 의미합니까? 아니면 입력 데이터를 다른 것으로 변경하고 네트워크가 계속 예측해야 합니까?

사유: