신경망 - 페이지 2

 
xweblanser >> :

정말 감사합니다 댓글이 부족해서 죄송하지만 알아내도록 노력하겠습니다....

www.nnea.net/downloads 여기에서 재무 예측에 대한 연구와 함께 좋은 선택의 pdf가 있습니다. NS의 도움으로 시장. 등록이 필요합니다. 연구 섹션도 참조하십시오.

 
marketeer >> :

상인은 국회의 내부 구조를 이해할 필요가 없습니다. 그에게 그것은 입력과 출력이 있는 블랙박스 역할을 합니다. 이 사이트를 포함하여 공개 도메인에는 이미 기성 네트워크가 많이 있습니다. 검색 상자에 "신경망"을 입력하기만 하면 됩니다. 예를 들어 최신 간행물 중 하나 - 자가 학습 신경망 기반 예측기 . NN 사용의 주요 문제는 입력할 데이터와 학습할 데이터, 이 데이터를 준비하는 방법, 네트워크의 구조와 크기 등을 선택하는 것입니다. 예를 들어, 우리는 이미 언급한 네트워크를 사용하여 Yezhov와 Shumsky가 했던 방식으로 훈련하려고 합니다( Neurocomputing 및 경제 및 비즈니스에서의 적용 참조, 추천합니다) ... 그리고 우리는 배수를 얻습니다. 이유는 바다 일 수 있습니다. 이것은 상인의 작업이 그 이후로 변경되었을 수 있는 것(또는 작성자가 말하지 않은 것 ;-) )과 설정 및 입력 데이터에서 변경해야 할 사항을 직관하기 시작하는 곳입니다.

글쎄요, 저는 일종의 상인이지만 대부분은 프로그래머입니다... 그리고 나 자신을 위해 신경망을 작성하고 동시에 내가 할 수 있다는 것을 스스로에게 증명하고 싶었습니다....

 
njel >> :

www.nnea.net/downloads 여기에서 재무 예측에 대한 연구와 함께 좋은 선택의 pdf가 있습니다. NS의 도움으로 시장. 등록이 필요합니다. 연구 섹션도 참조하십시오.

오 감사합니다, 재료는 결코 불필요하지 않습니다 ..

 
xweblanser >> :

1. 내가 아는 한 네트워크의 각 뉴런은 동일한 기능을 ..하지만 동일한 데이터가 도착했을 때 동일한 기능이 어떻게 다른 값을 생성 할 수 있는지 이해하지 못합니다 ...

이러한 입력은 다른 가중치로 곱해집니다. 따라서 함수의 값이 달라집니다. 신경망에 대한 철저한 연구와 경사하강법에서 유전학에 이르기까지 다양한 학습 알고리즘을 사용한 결과, 신경망의 수학적 장치가 이상적이지 않다는 결론에 도달했습니다. 신경망은 비선형 함수를 근사하도록 설계되었습니다. Kolmogorov의 정리에 따르면 네트워크는 모든 연속 기능을 구현할 수 있습니다. 실제로 네트워크의 병렬 처리는 모델링된 기능의 많은 로컬 최소값과 구현으로 이어집니다. 아래에 표시된 네트워크를 예로 들어 보겠습니다. 네트워크에는 두 개의 뉴런을 포함하는 하나의 입력, 하나의 출력 및 하나의 은닉층이 있습니다. 각 숨겨진 뉴런은 입력 x에 가중치(w1 또는 w2)를 곱하고 결과를 활성화 함수(tanh라고 가정)를 통해 전달하고 결과 값은 네트워크 출력에서 합산됩니다. 단순화를 위해 오프셋 입력이 0이라고 가정해 보겠습니다. 출력 뉴런의 가중치는 동일하고 1과 같습니다.


이제 함수 근사 문제를 만들어 보겠습니다. 우리의 함수가 t = cos(x)(t는 목표를 의미함)라고 가정해 봅시다. 네트워크는 공식을 사용하여 값을 계산합니다.

y = tanh(w1*x) + tanh(w2*x)

네트워크의 훈련(또는 훈련)은 가중치 w1과 w2를 찾는 것으로 구성되며, 여기서 네트워크 y의 출력은 함수 t의 값에 가장 가깝습니다. 이것은 오차의 제곱합을 최소화함으로써 달성됩니다.

E(w1,w2) = 합((t[k]-y[k])^2,k=0..p-1)

여기서 합산은 다른 훈련 데이터에 대해 수행됩니다: x[k],t[k]. 측정 t[k] = cos(x[k])에 노이즈가 없을 때 최소화된 목적 함수 E(w1,w2)의 표면이 어떻게 보이는지 봅시다.


이 그래프는 목적 함수 E를 최소화하는 솔루션(w1,w2)이 무한하다는 것을 보여줍니다(평평한 계곡 참고). 이것은 이해하기 어렵지 않습니다. 네트워크는 w1 및 w2에 대해 대칭입니다. 네트워크 훈련 결과는 초기값 w1과 w2의 선택에 따라 달라집니다. 이러한 초기 값은 항상 무작위로 선택되기 때문에 동일한 훈련 데이터 x[k],t[k]에 대한 연속적인 네트워크 훈련은 최적화된 가중치 w1 및 w2의 다른 값으로 이어집니다. 여기에는 본질적으로 전역 최소값이 없습니다. 즉, 무한한 수의 극소값도 전역 극소값입니다.

이제 t[k] = cos(x[k]) + rnd 계열에 노이즈를 추가하여 작업을 복잡하게 만들어 보겠습니다. 이 노이즈 계열은 통계적 속성이 이상적인 코사인보다 가격 계열에 더 가깝습니다.


이제 최소화된 함수 E(w1,w2)의 표면은 다음과 같습니다.


봉우리와 계곡 모두에 많은 봉우리를 확인하십시오. 계곡 중 하나에 더 가까이 가자:


여기에서 많은 로컬 최소값을 더 명확하게 볼 수 있습니다. 이제 경사하강법으로 E(w1,w2)를 최적화한다고 상상해보십시오. w1 및 w2의 초기 값에 따라 이 하강은 다른 최소값으로 이어집니다. 게다가, 이 지역 최소값은 상단과 계곡 모두에 있을 수 있습니다. 여기서 유전적 최적화는 정상에서 계곡 중 하나로 떨어지는 데 도움이 될 뿐이며 로컬 최소값 중 하나에 갇히게 됩니다. w1과 w2 외에 이전 고려 사항에서 1과 동일하게 설정된 출력 뉴런의 가중치도 최적화하면 상황이 훨씬 더 복잡해집니다. 이 경우 좌표(w1,w2,w3,w4)가 있는 많은 수의 극소값을 갖는 4차원 공간이 있습니다.

신경망의 동작에 대한 이 모든 단순화된 설명을 통해 나는 네트워크의 병렬성(또는 동일한 계층의 뉴런 가중치에 대한 출력의 대칭성)이 훈련의 어려움을 초래한다는 것을 증명하고 싶었습니다( 특히 혼란스러운 가격 계열 유형 계열의 경우 무한한 수의 로컬 최소값이 존재하기 때문에 이러한 가중치의 최적화).

위의 계산이 완료된 MathCAD 파일을 첨부합니다.

파일:
nnrsimplea2.zip  699 kb
 
gpwr писал(а) >> 신경망의 동작에 대한 이 모든 단순화된 설명을 통해 네트워크의 병렬성(또는 동일한 계층의 뉴런 가중치에 대한 출력의 대칭성)이 어려움을 초래한다는 것을 증명하고 싶었습니다. 특히 일련의 가격과 같은 무질서한 계열의 경우 무한한 수의 로컬 최소값이 존재하기 때문에 훈련(이러한 가중치의 최적화)이 가능합니다.

한 가지 질문이 있습니다. 이것이 수익에 어떤 영향을 미칩니까?

 
LeoV >> :

한 가지 질문이 있습니다. 이것이 이익에 어떤 영향을 미칩니까?

안정적인 수익을 가져다주는 네트워크가 있나요?

 
LeoV >> :

한 가지 질문이 있습니다. 이것이 이익에 어떤 영향을 미칩니까?

그것은 절대적으로 이익에 영향을 미칩니다. 신경망을 기반으로 하는 TS의 수익성을 실현하는 데 충분한 필요하고 충분히 깊은 지역 최소값을 찾는 보장은 없습니다.

 
gpwr >> :

Mathcad 13에서도 계산이 열리지 않는 MatCad를 사용하세요.

 

목적 함수 E(w1,w2)의 최소화/최대화의 의미는 전역 극값을 찾는 것입니다. 그리고 이러한 전지구적 극단값이 여러 개라면 NN 중 어느 쪽이 해당하는지가 우리에게 어떤 차이를 만들까요?

설상가상으로 지역 최소값/최대값 중 하나에 갇히게 되는 경우입니다. 그러나 이것은 더 이상 NN의 문제가 아닙니다. 이것은 최적화 알고리즘 문제입니다.


LeoV >> :

한 가지 질문이 있습니다. 이것이 이익에 어떤 영향을 미칩니까?

설명된 gpwr - 방법이 없습니다.

 
Urain >> :

어떤 MatCad를 사용하십니까? Mathcad 13에서도 계산이 열리지 않습니다.

Mathcad 14. 첨부 파일은 버전 11과 동일한 파일입니다.

파일:
nnosimplem2.zip  14 kb
사유: