트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2827

 
mytarmailS #:
h ttps:// youtu.be/4yrp71kAZxU
.

그렇다면 흥미로운 점은 무엇일까요?

 
뉴런을 훈련할 때 로컬 어딘가에 갇혀 있지 않다고 얼마나 확신할 수 있을까요?
 
Andrey Dik #:
뉴런을 훈련할 때 로컬 어딘가에 갇혀 있지 않다고 얼마나 확신할 수 있을까요?

뉴로닉스에서 배치로 분할하면 다음과 같은 문제를 방지하는 데 도움이 됩니다.

다른 최적화 알고리즘에서도 다음과 같이 여러 번 실행하거나 배치로 분할하는 것이 유용합니다.

기울기 단계 및 기타 트릭을 조정하는 것도 유용합니다.

그런 다음에도 하이퍼파라미터를 변경하여 최적값 근처를 탐색하여 시스템이 얼마나 생존 가능한지 확인해야 합니다.
 
배치로 나누기 위한 최적화 알고리즘????? )
 
Maxim Dmitrievsky #:

신경학에서 배치로 분할하면 다음을 피하는 데 도움이 됩니다.

을 피하는 데 도움이 됩니다. 다른 최적화 알고리즘에서도 다음과 같이 여러 번 실행하거나 배치로 분할하는 것이 유용합니다.

또한 그라데이션 단계 및 기타 트릭을 조정합니다.

그래도 시스템이 얼마나 생존 가능한지 확인하기 위해 하이퍼 파라미터를 변경하여 최적값의 이웃을 탐색해야합니다.

부끄러운 질문이지만 배치가 뭔가요?

아니, 뉴런이 어딘가에 걸리지 않는다고 어떻게 확신할 수 있나요? 전파 방해에 대한 저항성을 테스트하나요?

 
Andrey Dik #:

부끄러운 질문이지만 배치가 무엇인가요?

아니요, 뉴런이 어딘가에 끼지 않는다는 것을 어떻게 확신할 수 있나요? 끼는 것에 대한 저항성을 테스트하나요?

예를 들어, 새로운 데이터에 대해 조기 중지를 통해 테스트합니다.

훈련 데이터에서 오류가 줄어들고 새로운 데이터에서 오류가 증가하기 시작할 때 테스트합니다. 새로운 데이터에서 오류가 증가하기 시작하지 않는다면 아직 고착되지 않았다는 뜻입니다.

배치는 훈련용 데이터 패킷으로, 전체 데이터 세트를 한 번에 훈련할 필요 없이 데이터를 패킷으로 나누어 각 반복마다 훈련할 수 있습니다.

각 패킷의 최적값은 다를 수 있으므로 평균은 모든 패킷에 대해 최적값에 미치지 못하는 값이 될 것입니다.

원칙적으로 최적이 무엇인지 판단하기는 어렵습니다. 샘플이 이동하면 어떻게 해야 할까요? 이동된 하위 샘플에서 이 글로벌 최적값을 찾는 방법은 무엇일까요?

원칙적으로 최적화 알고리즘에 관한 질문이라면 당연히 그렇게 물어볼 수 있습니다. 하지만 샘플을 이동하기 시작하면 이 질문보다 더 많은 문제가 발생합니다.

이론에서 실습으로 조금만 넘어가면 :)

 
Maxim Dmitrievsky #:

는 조기 중단을 통해 새로운 데이터에 대해 테스트됩니다.

훈련 데이터에서 오류가 감소하고 새로운 데이터에서 증가하기 시작할 때를 말합니다. 새로운 데이터에서 오류가 증가하기 시작하지 않는 한, 아직 고착화되지 않았다는 의미입니다.

배치는 훈련용 데이터 패킷으로, 전체 데이터 세트를 한 번에 훈련할 필요 없이 데이터를 패킷으로 나누어 각 반복마다 훈련할 수 있습니다.

각 패킷의 최적값이 다를 수 있으므로 평균은 모든 패킷에 대해 최적값보다 낮은 값이 될 것입니다.

원칙적으로 최적이 무엇인지 판단하기는 어렵습니다. 샘플이 시프트되면 어떻게 해야 할까요? 시프트된 하위 샘플에서 이 글로벌 최적값을 찾는 방법은 무엇일까요?

원칙적으로 최적화 알고리즘에 관한 질문이라면 당연히 그렇게 물어볼 수 있습니다. 하지만 샘플을 이동하기 시작하면 이 질문보다 더 많은 문제가 발생합니다.

이론에서 실습으로 조금만 넘어가면 :)

아, 첫 번째 답변을 올바르게 이해했습니다. 잼 저항을 확인할 수있는 방법이 없습니다.

"훈련하는 것에서 오류가 떨어지고 새로운 것에서 증가하기 시작한다"고 말한 것은 재밍에 대한 테스트가 아니라 훈련을 중단하기위한 기준 일뿐입니다.

제 질문은 여기 사람들이 뉴런을 훈련하는 데 사용하는 최적화 알고리즘에 관한 것이지 두 번째 단계 인 새로운 데이터에 대한 뉴런의 안정성을 높이는 것에 관한 것이 아닙니다. 음, 첫 번째 단계는 아직 여기에서 전혀 논의되지 않았습니다))))

 
Andrey Dik #:

첫 번째 답변이 맞았군요. 전파 방해 저항을 테스트할 방법이 없습니다.

"훈련하는 사람에게는 오류가 줄어들고 새로운 사람에게는 오류가 커지기 시작한다"는 말은 전파 방해 테스트가 아니라 훈련 중지를 위한 기준일 뿐입니다.

내 질문은 여기 사람들이 뉴런을 훈련하는 데 사용하는 최적화 알고리즘에 관한 것이지 두 번째 단계 인 새로운 데이터에 대한 뉴런의 안정성을 높이는 것이 아닙니다. 음, 첫 번째 단계는 아직 여기에서 전혀 논의되지 않았습니다)))).

글쎄요, 예, 그것은 논의되지 않았습니다. 뉴런에서 가장 인기 있는 것은 아담 최적화 알고리즘입니다. 어쩌면 당신도 어떻게 든 테스트 할 수 있습니다.
 
Maxim Dmitrievsky #:
글쎄요, 일종의, 네, 논의되지 않았습니다. 뉴런에서 가장 많이 사용되는 것은 아담 최적화 알고리즘입니다. 어떻게든 테스트해볼 수 있을지도 모르겠네요.

그렇죠, 전혀 논의되지 않았습니다.

실제로 이것은 뉴런이 훈련되지 않았다는 것을 의미합니다. 즉, 새로운 데이터에 대한 오류가 더 잼에 강한 AO를 사용할 때보다 더 일찍 증가하기 시작할 것입니다.

사유: