트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3316

 
Maxim Dmitrievsky #:
내 마음속에 뭐가 있는지 모르겠어, 또 말도 안 되는 소리야
당신은 이미 다른 사람들로부터 당신이 전혀 생각하지 않고 있다는 것을 MO인 다른 사람들이 확인했습니다.
몇 번이나 빙글빙글 돌 수 있나요?

왜 안절부절못하고 안절부절못하나요?

녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하강에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법은 자동으로 최적화합니다.

 
Maxim Dmitrievsky #:
교사가 표시의 동의어라는 산치의 잘못된 해석을 모두가 인정하나요?

아니요, 둘은 같지 않으며 동의어가 아닙니다.

마크는 교사 역할을 할 수 있지만 작업에 따라 다릅니다. 그러나 그들 사이에 모호하지 않은 동등성을 두는 것은 불가능합니다.

[삭제]  
Andrey Dik #:

왜 안절부절못하고 안절부절못하나요?

녹색 선은 추적이고 빨간색 선은 유효성 검사입니다. 그리고 빨간색 원이 있는 마크는 유효성 검사 오류 그래프가 하락에서 상승으로 바뀌는 지점, 즉 글로벌 익스트림입니다! - 바로 이 지점이 훈련을 중단해야 하는 곳입니다. 제 질문에 대한 간단한 답이 보이시죠? 모든 학습은 글로벌 극한을 찾는 것이 최적화의 본질입니다. 모든 MO 방법은 바로 이것, 즉 어떤 평가 함수를 전역 극한으로 최적화하는 것(손실 함수의 최소화 또는 평가 함수의 최대화)으로 축소됩니다. 하지만 당신은 최적화 전문가가 아닌데 어떻게 그럴 수 있을까요? 의도적으로 하지 않더라도 MO 방법이 자동으로 해줍니다.

귀하의 경우 재학습된 모델의 그래프입니다.
그리고 중단점 이후에는 복잡성이 증가하면 오버트레이닝이 증가하게 되는데, 이것이 바로 우리가 이야기했던 것입니다.
[삭제]  
Valeriy Yastremskiy 데이터 구조 학습과 관련된 기타 작업에 사용됩니다.
  • 작업의 예

    • 교사와 함께 학습하기: 분류, 회귀, 예측, 사기 탐지, 객체 탐지, 기계 번역 등
    • 선생님 없이 학습하기: 클러스터링, 차원 축소(PCA, t-SNE), 연관 규칙, 데이터 시각화, 기타 여러 가지.
  • 모델 평가:

    • 교사와 함께 학습하기: 모델은 알려진 레이블과 비교하여 예측 또는 분류를 얼마나 잘 수행할 수 있는지에 따라 평가됩니다. 평가에는 정확도, F1 측정값, RMS 오류 및 기타 메트릭이 포함될 수 있습니다.
    • 교사 없이 학습: 비교할 수 있는 알려진 레이블이 없기 때문에 추정이 더 어렵습니다. 평가는 클러스터링 품질에 대한 육안 검사, 다른 알고리즘과의 비교 또는 전문가의 분석을 기반으로 할 수 있습니다.
  • 두 가지 유형의 학습 모두 머신 러닝에 적용되며, 두 가지 중 어떤 것을 선택할지는 특정 작업과 사용 가능한 데이터에 따라 달라집니다. 때로는 더 나은 결과를 얻기 위해 지도자가 있는 학습과 없는 학습을 결합하는 하이브리드 방법도 사용됩니다.

    분명 문제가 있습니다.

    정의로 돌아갑니다.

    P.Z.

    끝이 멀지 않았습니다.

    허. 누군가 깨달음을 얻었군요!

     
    Andrey Dik #:
    실제로 비슷하지만 MO에서는 이 그래프의 의미와 표시가 다릅니다.)))

    혹시 알고 계셨는지 궁금해서요.)

     
    Maxim Dmitrievsky #:
    이것은 귀하의 경우 재학습된 모델의 그래프입니다.
    왜 '제 사례'인가요? 모든 사람이 마찬가지입니다. 빨간색 원 이후에 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택하세요. 어떤 사람들은 그 전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만, 여전히 글로벌 극값을 찾아야 하기 때문에 본질은 변하지 않습니다.
    [삭제]  
    Andrey Dik #:
    왜 "내 것"인가요? 모두 다 그렇죠. 빨간색 원 이후에도 계속 훈련하면 과훈련된 모델을 얻게 됩니다. 따라서 몇 번의 반복을 통해 유효성이 증가하기 시작할 때까지 몇 번의 반복을 기다렸다가 훈련을 중단하고 빨간색 원이 전역 극한값인 결과를 선택합니다. 일부는 이전에 2, 3, 4, 그 이상의 반복에 대한 결과를 취할 수 있지만 본질은 변하지 않으며 여전히이 전역 극한값을 찾아야합니다.
    원 앞에 재훈련된 모델이 있습니다.
     
    Maxim Dmitrievsky #:
    ...
    그리고 어느 시점이 지나면 복잡성이 증가하면 과잉 훈련이 증가하게 되는데, 이것이 바로 우리가 이야기하던 것입니다.

    훈련 및 검증 그래프입니다. 복잡성은 그것과 아무 관련이 없습니다. 아무리 부인해도 MO에서 무엇을 하든 글로벌 극한을 찾고 있다면 당신은 최적화자라는 사실에 관한 것입니다.

     
    Maxim Dmitrievsky #:
    원 앞에 재훈련된 모델이 있습니다.
    이제 그만, 당신은 완전히 길을 잃었습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.
    [삭제]  
    Andrey Dik #:
    그만하세요, 완전히 망쳤습니다. 그 반대를 증명하되 한 단어로 된 문구가 아니라 그림, 설명으로 증명하세요.
    이것은 트레인과 샤프트의 각 반복에 대한 오류 그래프입니다. 각 반복/에포크마다 모델의 복잡성이 있습니다. Y축의 원 주위의 오차가 얼마인지, X축의 반복 횟수/에포크가 얼마인지 그려지지 않았습니다. 0.5이면 모델이 아무것도 학습하지 않은 것이고 재학습을 시작하는 것입니다. 그래프가 아무것도 없는 이유입니다.

    글로벌 최대/최소값은 오차가 0입니다.