지뢰밭에서의 시장예절 또는 예의범절 - 페이지 15

 
Neutron >> :

공식에서 인터넷에 가득 찬 문헌을 직접 볼 수도 있습니다.

서두르지 맙시다. 그리고 "비선형 학습" 등과 같은 온갖 종류의 종소리와 휘파람으로 당신의 삶을 복잡하게 만들려고 하지 마십시오. 이것은 악에서 온 것입니다. 단순함과 조화의 아름다움과 신뢰성!

구원하시고 자비를 베푸소서...

 
:-)
 
Neutron >> :

서두르지 맙시다. 그리고 "비선형 학습" 등과 같은 온갖 종류의 종소리와 휘파람으로 당신의 삶을 복잡하게 만들려고 하지 마십시오. 이것은 악에서 온 것입니다. 단순함과 조화의 아름다움과 신뢰성!

에스? 클래식입니다. 어쨌든 난 당신을 귀찮게하지 않습니다.

 
Neutron >> :

길이가 n개의 샘플인 입력 신호 벡터(1차원으로 설정)가 있고 n + 1개의 샘플이 네트워크 교육 품질에 대한 테스트라고 가정합니다. 이 벡터(n개 샘플)를 입력에 놓고 이전에 확률 밀도의 균일한 분포로 모든 가중치를 +/-1 범위의 임의의 값과 동일시하고 그리드가 무엇을 낳았는지 살펴봅니다. 출력에서. 그녀가 +5.1을 주고 테스트 n + 1 카운트(훈련된 그리드가 이 훈련 벡터에 대해 노력해야 하는 값) +1.1을 주었다고 가정합니다. 그런 다음 수신된 값과 원하는 +4의 차이를 취하고 이 값을 더합니다. 출력 뉴런의 각 가중치에 대한 부호를 유지하거나(FA가 없는 경우) 이 값에서 FA의 도함수 값을 찾아 마지막 뉴런 입력의 가중치에 추가합니다(있는 경우 FA)입니다. 등.

이 부분을 소화하면 오류를 첫 번째(입력) 레이어의 입력 가중치로 더 푸시하는 방법을 알려 드리겠습니다.

1. 내가 이해하는 한 그리드에는 1 - 학습, 2 - 인식의 두 가지 작동 모드가 있어야 하며 이러한 모드는 호환되지 않습니다. 그리드는 언제든지 그 중 하나에 있습니다.


2. 길이가 n인 입력 신호의 벡터, 예를 들어 n개의 막대에 있는 RSI 값의 배열 V[n,3](3개의 입력이 있는 그리드의 경우) - 맞습니까? 그런 다음 n+1 판독값은 n+1 막대에서 동일한 RSI입니다. 이 경우 이전 동작을 기반으로 RSI의 미래 동작을 예측하도록 그리드를 훈련합니다.

그렇다면 비평활 함수 FA의 도함수를 취해야 하는 지점까지 가중치로 모든 것이 명확합니다.(RSI(i)) 음, 좋아, 이것은 기술적인 문제입니다. 해결되다.)

 
paralocus писал(а) >>

1. 내가 이해하는 한 그리드에는 1 - 학습, 2 - 인식의 두 가지 작동 모드가 있어야 하며 이러한 모드는 호환되지 않습니다. 그리드는 언제든지 그 중 하나에 있습니다.

2. 길이가 n인 입력 신호의 벡터, 예를 들어 n개의 막대에 있는 RSI 값의 배열 V[n,3](3개의 입력이 있는 그리드의 경우) - 맞습니까? 그런 다음 n+1 판독값은 n+1 막대에서 동일한 RSI입니다. 이 경우 이전 동작을 기반으로 RSI의 미래 동작을 예측하도록 그리드를 훈련합니다.

그렇다면 비평활 함수 FA의 도함수를 취해야 하는 지점까지 가중치로 모든 것이 명확합니다.(RSI(i)) 음, 좋아, 이것은 기술적인 문제입니다. 해결되다.)

F. Wasserman으로 아주 잘 그렸습니다. 신경 컴퓨터 기술 - 이론과 실습

 
Vinin >> :

F. Wasserman으로 아주 잘 그렸습니다. 신경 컴퓨터 기술 - 이론과 실습

네, 덕분에 하나 찾았습니다.

 
paralocus писал(а) >>

1. 내가 이해하는 한 그리드에는 1 - 학습, 2 - 인식의 두 가지 작동 모드가 있어야 하며 이러한 모드는 호환되지 않습니다. 그리드는 언제든지 그 중 하나에 있습니다.

2. 길이가 n인 입력 신호의 벡터, 예를 들어 n개의 막대에 있는 RSI 값의 배열 V[n,3](3개의 입력이 있는 그리드의 경우) - 맞습니까? 그런 다음 n+1 판독값은 n+1 막대에서 동일한 RSI입니다. 이 경우 이전 동작을 기반으로 RSI의 미래 동작을 예측하도록 그리드를 훈련합니다.

그렇다면 비평활 함수 FA의 도함수를 취해야 하는 지점까지 가중치로 모든 것이 명확합니다.(RSI(i)) 음, 좋아, 이것은 기술적인 문제입니다. 해결되다.)

1. 새로운 카운트가 도착하면 그리드는 새로운 훈련 벡터에 대해 훈련되고 훈련 직후에 1단계 전진 등에 대한 예측을 제공합니다. 무한대. 저것들. 우리는 각 단계에서 NN의 추가 훈련에 대해 이야기하고 있습니다.

2. 3개의 입력이 있는 그리드는 길이가 n + 1 + 3인 벡터의 마지막 3개 판독값을 읽고 n번 모두 한 단계씩 순차적으로 이동하여 이에 대해 학습합니다.

파생 상품에는 문제가 없습니다. 쌍곡선 탄젠트 FA=th(x)가 FA로 사용되면 도함수 dFA=1-th(x)^2를 찾는 데 문제가 없으며 이 뉴런의 입력에서 가중치 보정은 다음과 같습니다. dw=delta *(1-th(s )^2), 여기서 델타는 그리드 출력과 실제 샘플 값 사이의 오차이고 s는 그리드 출력입니다.

 
Neutron >> :

1. 새로운 카운트가 도착하면 그리드는 새로운 훈련 벡터에 대해 훈련되고 훈련 직후에 1단계 전진 등에 대한 예측을 제공합니다. 무한대. 저것들. 우리는 각 단계에서 NN의 추가 훈련에 대해 이야기하고 있습니다.

2. 3개의 입력이 있는 그리드는 길이가 n + 1 + 3인 벡터의 마지막 3개 판독값을 읽고 n번 모두 한 단계씩 순차적으로 이동하여 이에 대해 학습합니다.

파생 상품에는 문제가 없습니다. 쌍곡선 탄젠트 FA=th(x)가 FA로 사용되면 도함수 dFA=1-th(x)^2를 찾는 데 문제가 없으며 이 뉴런의 입력에서 가중치 보정은 다음과 같습니다. dw=delta *(1-th(s )^2), 여기서 델타는 그리드 출력과 실제 샘플 값 사이의 오차이고 s는 그리드 출력입니다.

그게 다야! 저것들. 다시 배울 필요가 없습니다. 감독자!

2. 3개의 입력이 있는 그리드는 길이가 n + 1 + 3인 벡터의 마지막 3개 판독값을 읽고 n번 모두 한 단계씩 순차적으로 이동하여 이에 대해 학습합니다.


여기에서 나는 아마도 나를 잘 표현하지 못했을 것입니다. 3개의 입력이 있는 그리드가 아니라 3개의 시냅스가 있는 뉴런이 있으며 각각은 입력 신호를 수신합니다.

1 시냅스 - th(RSI(i))

2시냅스 - th(RSI(i+dt))

3synapse - th(RSI(i+td*2))

1. 무작위 변수(-/+1)로 시냅스의 가중치를 초기화합니다. 다행히도 그 중 3개만 있습니다.

2. 그런 다음 입력 신호의 n 샘플을 각 입력에 적용해야 합니다. n개의 이전 막대에 대한 입력 신호 시퀀스.

3. 그런 다음 n 번째 막대에서 뉴런의 출력을 가져와 입력 신호의 n+1 값과 비교하고 뉴런의 출력에 FA가 없으면 각 가중치에 부호가 있는 차이(오차)를 더합니다. .

출구가 FA인 경우 가중치에 오차를 곱한 FA의 도함수를 더합니다(n번째 막대).

4. 한 막대 앞으로 이동(n+1이 n이 됨)하고 2~4단계를 반복합니다.


질문:

1. n = k*w*w/d?

2. 테스트 샘플은 항상 출력 그리드 값에서 빼서 오차 값을 계산합니까?

 

예!

그런 다음 학습의 시대로 넘어갑니다. 목표와 수단에 따라 10개에서 1000개까지 있으며 더 자세하게는 길이 n개의 샘플, 가중치 보정 벡터(실제로 한 에포크 내에서 누적됨)의 샘플을 형성하는 문제를 다룰 것입니다. ) 시냅스 수 w 와 같은 길이를 갖습니다.

요컨대, 아직 로드하지 마십시오.

 
Neutron >> :

예!

그런 다음 학습의 시대로 넘어갑니다. 목표와 수단에 따라 10개에서 1000개까지 있으며, 더 자세하게는 n개 샘플의 가중치 보정 벡터 형성에 대해 다룰 것입니다(실제로 한 에포크 내에서 누적됨). 길이는 시냅스 수 w와 같습니다.

요컨대, 아직 로드하지 마십시오.

뉴트론, 잠시 시간을 내겠습니다. 모든 것을 다시 생각하고 적어도 하나의 뉴런에 대한 코드로 변환해야 합니다. 일반적으로 날짜가 다르며 계속 진행합니다.

정말 감사합니다!