트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3322

[삭제]  
아무도 논의하지 않던 모델 복잡성에 대한 대화에 뛰어들거나 게시물에 반응하여 최적화 전문가로 알려져 있습니다.
 
Maxim Dmitrievsky #:
아무도 논의하지 않았고, 모델 복잡성에 대한 대화에 간섭하거나 게시물에 반응하지 않았기 때문에 최적화 전문가로 알려져 있습니다.

그게 다예요, 맥심. 더 이상 논의 할 필요가 없으며 모두가 이미 모든 것을 알아 냈습니다. 내가 "어떤 종류의 글로벌에 따라"라고 대답 한 글로벌을 찾는 것이 해롭다는 것을 수세기 동안 저와 논쟁 해 온 Sanych가 여기에서 지켜보고 있으며, Sanych는 결국 그가 글로벌을 찾고 있다는 것을 아직 이해하지 못했습니다.

저는 토론을 차분하고 친절하며 건설적인 방향으로 되돌리고 싶습니다.

그리고이 스레드를 정기적으로 읽는 모든 사람들은 무의식을 포함하지 말고 누가, 무엇을, 언제 말했는지 기억하십시오. 오늘 실수를 했어요-차트를 잘못 그렸고 침착하게 실수를 인정하고 그렇게 말했습니다. 실수를 인정하는 것은 정상입니다, 맥심.

 
Andrey Dik #:

왜 안 되나요? 네, 다른 생각은 없고 그냥 많은 사람들이 어떤 이유에서인지 사물을 고유 이름으로 부르는 것을 좋아하지 않는 것뿐입니다.

정확히 언제 학습을 중단할지는 방법론 선택의 문제이지만, 저는 전 세계적인 극한을 감지하지 않고 학습을 중단하는 것은 불가능하다는 점을 강조한 것뿐입니다(실용적이지 않은 강제로 학습을 중단하는 것은 불가능합니다).

앞서 최적화에 대한 논의가 있었는데, 테스터의 과적합과 모델의 훈련은 다른 문제라는 반대자들의 오해가 있는 것 같습니다. 기계 학습에서 예측자 선택 프로세스는 일반적으로 별도의 작업 인 반면 터미널 테스터에서는 이러한 예측자의 판독 값을 변경할 수있는 경우가 많습니다. 간단한 예는 지표 설정 검색이지만 동시에 테스터에서 변수를 사용하여 이러한 지표의 값 (이동 임계 값, 비교 규칙, 다른 논리적 의미를 가진 계수)을 처리 할 수 있습니다.

따라서 전문가 조언자의 코드를 보지 않고는 최적화 프로세스가 어떤 것인지, 즉 규칙을 만들거나 고정 규칙으로 더 잘 작동하는 예측자를 검색하거나 다른 부분이 구현되는지 명확하게 말할 수 없습니다. 따라서 제 생각에는 그 주제에 대한 전체 논쟁이 있습니다.

모든 것에 대한 과잉 적합성이 일반적으로 적용된다는 점을 고려할 때 Maxim은 마크 업 로직이 누락되고 상황이 서로 유사하지 않아 학습 과정이 복잡해지기 때문에 이것은 교사와 함께 배우는 것이 아니라고 주장합니다. 본질적으로 우리는 호불호에 따라 그룹화되는 다양한 클래스를 가지고 있지만 서로의 속성이 비슷하지 않을 수 있습니다. 앞서 저는 점진적 학습을 통해 이러한 데이터를 점진적으로 제거하고, 훈련된 모델을 사용하여 초기 샘플에서 모순이 없는 것을 분리한 다음 나머지 데이터를 학습하는 방법을 제안한 바 있습니다. 이것이 유일한 해결책은 아닙니다. 이 주제는 정말 주목할 만한 가치가 있습니다.

중지 기준에 대해서는 물론 여기에서 모델 응답에서 우선 순위가 더 높은 항목에 따라 기준을 선택하고 최적의 값을 검색할 수 있습니다. 그러나 머신 러닝에서 반드시 기준이 될 필요는 없습니다. 때로는 고정된 반복 횟수만 설정할 수 있으며, 즉 이 기준 없이도 학습할 수 있습니다. 문제는 항상 새로운 데이터에서 작동할 모델을 선택하는 방법이라는 다른 문제입니다. 이 질문에 답할 수 있는 기준을 찾는 것이 좋습니다.

 
Andrey Dik #:


따라서 머신 러닝의 학습은 손실 함수를 최소화하고 최상의 모델 성능을 달성하는 모델 매개변수의 조합을 찾는 것이 목표인 최적화로 볼 수 있습니다.
저는 동의하지 않습니다. 이것은 MOE의 일부분에 불과합니다. 트랜스포머, MO의 인과 학습은 일반적으로 최적화가 아닙니다.
 
Andrey Dik #:

빙고!

이제 모든 학습은 글로벌 극값 검색을 통한 최적화에 불과하다는 사실을 마침내 깨달으셨을 것입니다. 아니면 아직 깨닫지 못했을 수도 있지만 곧 깨닫게 될 것입니다.

학습을 중단하려면 항상 명확한 기준이 필요하며 이 기준은 항상 글로벌 극한값이 되도록 설계됩니다. 일반적으로 통합 기준이 설계됩니다 (항상 그런 것은 아님). 적분 기준이라고 하셨죠.

저는 알고리즘을 개발하는 것을 최적화라고 할 수 있듯이 함수에서 극한을 찾는 것이 함수 분석이라고 항상 생각했습니다. 결국, 우리는 몇 가지 기준에 따라 가장 좋은 것을 선택합니다.)
 
오, 이 용어들과 그 해석))))))
무슨 신성한 사업 같네요)))))
 

파이썬에서 뉴런의 문제는 거시적 규모의 통계에 대한 아름다운 그림입니다. 구문 분석을 시작하자마자 뉴런이 이동 평균이되어 예측 가격에 가깝지만 방향을 추측하지 못한다는 것이 밝혀졌습니다. 방향은 50/50으로 추측되므로 이러한 뉴런에서 거래하는 것은 불가능합니다.

여기에서 기사를 시도했고 ChatGPT를 사용하여 3 개의 레이어에 10,000 개의 뉴런, 10 개의 레이어에 1000 개의 뉴런 또는 100,000 개의 뉴런 (내 RTX 3080이 완전히 막혔고 더 많이 가져 가면 파이썬이 메모리가 충분하지 않다고 썼습니다), RNN, LSTM, CNN, CNN-LSTM, CNN-BiLSTM, CNN-BiLSTM-MLP를 두 개의 규제 및 드롭 아웃 및 Q 학습을 사용하여 수집했습니다. DQN은 실패했고, Chat은 몇 페이지에 걸쳐 Actor-Critic을 작성했지만 코드에 저나 Chat 모두 고칠 수 없는 버그가 있는 것으로 밝혀졌습니다.

모두 작동하지 않습니다. 결과는 모든 곳에서 동일하게 이동 평균으로 바뀌었습니다. "신경망에 입력할 내용" 스레드에서 가능한 모든 것을 입력하고 다른 많은 것들을 입력했습니다.

그리고 여기서 저는 주방에서 양파를 썰고 있는데, 백그라운드에서 YouTube가 재생되고 가격을 예측하는 신경망을 구축하려는 곱슬머리 남자에게 추천이 제공되고 있습니다. 자, 해보자고 스스로에게 말했죠.

그리고 그는 Google-collab을 열고 거기서 Python 코드를 작성하기 시작합니다(파이썬인 것 같습니다). 제가 착각하지 않았다면 그날의 비트코인 종가를 거기에 던져 넣습니다. 훈련시킵니다. 확인합니다. 여기서 나는 활에서 눈을 닦고 결과를보기 시작했습니다.

결과는 다음과 같습니다 : 예측은 실제 가격 옆에 있지만 ... 방향성 추측입니다. 따라서 35000, 예측은 37500, 실제는 37100이라고 가정해 보겠습니다. 다음 단계: 예측 35700, 실제 35300. 예측 34000, 실제 - 35000. 이런 식으로 계속 반복됩니다. 그는 다음 가격이 아니라 한 번에 12 개의 다음 가격을 연속으로 예측하는 네트워크를 작성했습니다. 그리고 여기서 그들은 방향의 각 단계 후에 일치했습니다.


질문: 파이썬에서 작동하는 무언가를 작성하는 것이 정말 가능한가요?

 
Andrey Dik #:

그게 다입니다, 맥심. 더 이상의 토론은 의미가 없으며 모든 것이 이미 발견되었습니다. 여기 여기 근처에서 Sanych는 옛날부터 글로벌 검색이 해롭다는 것을 나와 함께 논쟁하고, 나는 "어떤 글로벌에 따라"라고 대답했고 , Sanych는 또한 결국 글로벌을 찾고 있다는 것을 아직 깨닫지 못했습니다.

저는 토론을 차분하고 친절하며 건설적인 방향으로 되돌리고 싶습니다.

그리고이 스레드를 정기적으로 읽는 모든 사람들은 무의식을 포함하지 말고 누가, 무엇을, 언제 말했는지 기억하고 쓸모가 없습니다. 오늘 실수를 했어요-차트를 잘못 그렸고 침착하게 실수를 인정하고 그렇게 말했습니다. 실수를 인정하는 것은 정상입니다, 맥심.

저를 위해 그러지 마세요.

우리는 MO가 아니라 테스터에 대해 논의하고 있었어요.

MO에서는 최적을 찾는 것이 아니라 훈련, 테스트 및 검증에서 우연의 일치를 찾습니다. 그런 다음 한 파일에 대해 단계별로 실행합니다. 모든 곳에서 거의 동일한 오류가 발생해야 합니다.

여기에는 최적화의 여지가 없습니다.

 
СанСаныч Фоменко #:

저를 위해 하지 마세요.

이 토론은 테스터에 관한 것이지 MO에 관한 것이 아닙니다.

MO에서는 최적을 찾는 것이 아니라 훈련, 테스트 및 유효성 검사에서 오류의 우연성을 찾고 있습니다. 그런 다음 한 파일에 대해 단계별로 실행합니다. 모든 곳에서 거의 동일한 오류가 발생해야 합니다.

여기에는 최적화의 여지가 없습니다.

빨간색은 최적화이며, 귀하의 경우에는 수행 중인 작업에 따라 "분산 줄이기" 또는 "주어진 값의 고정 분산 설정"처럼 들릴 것입니다.)

 
Andrey Dik #:

빨간색은 최적화이며, 귀하의 경우에는 수행 중인 작업에 따라 "분산 감소" 또는 "주어진 값의 고정 분산 설정"으로 들릴 수 있습니다))))

어떻게 든 당신은 텍스트를 인식하지 못하고 있습니다.

최적화(?)는 모델이 학습된 훈련에서만 가능합니다. 훈련할 때 알고리즘이 있고 돋보기로 최적화를 볼 수 있습니다. 그런 다음이 모델의 테스트가 있는데, 테스트 결과에 영향을 줄 수있는 모델에 매개 변수가 없기 때문에 "최적화"에 대한 피드백이 없습니다. 영향을 미치려면 예측자 및/또는 교사에 대해 무언가를 해야 합니다.

전처리, 모델 피팅 및 모델 추정을 의미하는 MOE에서는 결과 오류가 이 세 단계의 속성이기 때문에 최적화가 있을 수 없습니다.