그리고 실제로 플랫은 같은 추세입니다. 단지 작습니다... 그래서, 귀하의 질문은 국회를 새로운/변화된 무역 지평에 적응시키는 문제로 귀결됩니다. 이것은 그녀의 직접적인 책임입니다. 추가 훈련 중에 이미 "새로운"시장에서 가중치의 "이전"값을 사용한다는 사실은 반대로 프로세스 자체를 망치지 않습니다. 사실은 추세의 변화(정확하게는 변화)의 과정이 준정적이어서 선택한 전술이 정당화된다는 것입니다.
Neutron , 진폭 예측에서 부호 예측으로 이동하면 그리드 출력의 오류가 부호의 오류인 것으로 나타났습니다. 저것들. 오류는 값 +1 또는 -1을 취합니다.
나는 이 점을 올바르게 이해하고 있는가? 그렇지 않다면 어떻게?
아니오, 옳지 않습니다.
네트워크 훈련 과정은 기존 버전과 다르지 않습니다. 차이점은 이진 신호를 뉴런의 은닉층 입력으로 보내고 출력에서 간격 [-1 ,1] (출력 뉴런 th( )의 활성화의 경우) 및 이벤트 발생의 비례 확률(예상 증가의 부호에 대한 네트워크의 신뢰도). 확률에 관심이 없고 예상되는 호가 움직임의 부호만 중요하다면 예측의 부호만 해석하고 그리드를 실수로 훈련합니다(즉, ODP 방법의 오류는 다음과 같아야 합니다. 실수). 이 방법의 학습률이 일반적인 경우에 비해 증가한다는 사실은 역설이 아닙니다. 사실은 이진 신호를 입력에 적용하여 NN이 훈련되어야 하는 입력 특징 공간의 차원을 크게 줄입니다. 비교: +/-1 또는 -1. 최대 1, 0.001 단계로 각 값은 동일한 NN을 사용하여 이전에 구축한 차원 d (입력 수)의 초표면에 배치되어야 합니다(훈련 과정에서 이 작업을 수행함).
그러한 "입력"의 무게 중심은 0.5(해당 MO)만큼 이동되고 모든 초기화는 MO=0을 갖습니다. 따라서 리소스의 일부는 명백한 것을 위해 뉴런의 단일 입력을 비어 있는 풀업(가중치 조정)에 사용해야 합니다. 일반적으로 AI의 참여 없이 독자적으로 수행할 수 있는 모든 작업을 수행해야 합니다. 이것은 NN 훈련 시간을 크게 절약합니다. 이를 위해 입구가 표준화되고 중앙에 있으며 희게됩니다. 이 모든 것은 AI의 진부함에 대한 관심을 산만하게 하지 않고 가장 중요하고 어려운 비선형 다차원 상관 및 자기 상관에 집중하기 위함입니다.
쉬겠습니다 :)
도서관에 가야하는데...
"모든 단계에서 재교육"이 무엇을 의미하는지 잘 이해하지 못하셨나요?
나는 NN을 사용하여 예측을 작성합니다. 또한 예측의 정확성을 잃지 않기 위해 새로운 입력 데이터 등을 사용하여 네트워크를 재학습합니다. 이 상황에서 그리드를 "처음부터" 다시 훈련시킬 수는 없지만 새 샘플에 있는 가중치의 이전 값을 시작 값으로 저장합니다.
그게 바로 내가 의미했던 것입니다.
Neutron , 진폭 예측에서 부호 예측으로 이동하면 그리드 출력의 오류가 부호의 오류인 것으로 나타났습니다. 저것들. 오류는 +1 또는 -1 값을 취합니다.
이 점을 제대로 이해하고 있습니까? 그렇지 않다면 어떻게?
나는 NN을 사용하여 예측을 작성합니다. 또한 예측의 정확성을 잃지 않기 위해 새로운 입력 데이터 등을 사용하여 네트워크를 재학습합니다. 이 상황에서 그리드를 "처음부터" 다시 훈련시킬 수는 없지만 새 샘플에 있는 가중치의 이전 값을 시작 값으로 저장합니다.
그게 바로 내가 의미했던 것입니다.
나는 그것이 평평하다면 네트워크가 예측에 대한 전망을 바꾸는지 궁금합니다.
나는 그것이 평평 하다면 네트워크가 예측에 대한 전망을 바꾸는지 궁금합니다.
글쎄, 자연스럽게! 또한 자연적으로 적응력이 있습니다.
그리고 실제로 플랫은 같은 추세입니다. 단지 작습니다... 그래서, 귀하의 질문은 국회를 새로운/변화된 무역 지평에 적응시키는 문제로 귀결됩니다. 이것은 그녀의 직접적인 책임입니다. 추가 훈련 중에 이미 "새로운"시장에서 가중치의 "이전"값을 사용한다는 사실은 반대로 프로세스 자체를 망치지 않습니다. 사실은 추세의 변화(정확하게는 변화)의 과정이 준정적이어서 선택한 전술이 정당화된다는 것입니다.
Neutron , 진폭 예측에서 부호 예측으로 이동하면 그리드 출력의 오류가 부호의 오류인 것으로 나타났습니다. 저것들. 오류는 값 +1 또는 -1을 취합니다.
나는 이 점을 올바르게 이해하고 있는가? 그렇지 않다면 어떻게?
아니오, 옳지 않습니다.
네트워크 훈련 과정은 기존 버전과 다르지 않습니다. 차이점은 이진 신호를 뉴런의 은닉층 입력으로 보내고 출력에서 간격 [-1 ,1] (출력 뉴런 th( )의 활성화의 경우) 및 이벤트 발생의 비례 확률(예상 증가의 부호에 대한 네트워크의 신뢰도). 확률에 관심이 없고 예상되는 호가 움직임의 부호만 중요하다면 예측의 부호만 해석하고 그리드를 실수로 훈련합니다(즉, ODP 방법의 오류는 다음과 같아야 합니다. 실수). 이 방법의 학습률이 일반적인 경우에 비해 증가한다는 사실은 역설이 아닙니다. 사실은 이진 신호를 입력에 적용하여 NN이 훈련되어야 하는 입력 특징 공간의 차원을 크게 줄입니다. 비교: +/-1 또는 -1. 최대 1, 0.001 단계로 각 값은 동일한 NN을 사용하여 이전에 구축한 차원 d (입력 수)의 초표면에 배치되어야 합니다(훈련 과정에서 이 작업을 수행함).
... 뉴런의 은닉층 입력에 이진 신호를 적용하고 출력에서 세그먼트 [-1,1]에 정의된 실제 값을 얻습니다.
그게 다야! 그것은 내 마음을 넘어 하지 않을 것 이다! 지금 해봐야겠어요 :-)
... 비교: +/-1 또는 -1부터. 최대 1, 0.001 단계로 각 값은 동일한 NN을 사용하여 이전에 구축한 차원 d (입력 수)의 초표면에 배치되어야 합니다(훈련 과정에서 이 작업을 수행함).
그리고 입력이 바이너리 신호라면 0/1로 하는게 좋지 않을까요?
당연히 아니지!
그러한 "입력"의 무게 중심은 0.5(해당 MO)만큼 이동되고 모든 초기화는 MO=0을 갖습니다. 따라서 리소스의 일부는 명백한 것을 위해 뉴런의 단일 입력을 비어 있는 풀업(가중치 조정)에 사용해야 합니다. 일반적으로 AI의 참여 없이 독자적으로 수행할 수 있는 모든 작업을 수행해야 합니다. 이것은 NN 훈련 시간을 크게 절약합니다. 이를 위해 입구가 표준화되고 중앙에 있으며 희게됩니다. 이 모든 것은 AI의 진부함에 대한 관심을 산만하게 하지 않고 가장 중요하고 어려운 비선형 다차원 상관 및 자기 상관에 집중하기 위함입니다.
예, 이미 이해했습니다.
이제 나는 내 2층 자가 학습 퍼셉트론을 생각합니다. 오늘 효과가 있기를 바랍니다.
오늘 효과가 있기를 바랍니다.
희망이 없어:-)
내 경험에 따르면 실제로 작동하기 전에 같은 말을 20-25번 더 할 수 있습니다.