트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3297

 
Andrey Dik #:

최적화에 대해 글을 쓰지 않으셨는데 왜 여기저기 기웃거리는 건가요?
편지를 안 썼어요.
그리고 학습은 최적화의 특별한 경우입니다.
산치는 모든 것을 정확하게 썼어요. 모든 건 제 메시지에서 시작됐어요. 당신은 잘못된 파편으로 들어갔습니다.

그것은 아무것도 쓰지 않는 것으로 밝혀졌습니다.
 
Andrey Dik #:
SSG보다 더 강력한 알고리즘이 발견되었다는 놀라운 소식을 전하지 않을 수 없습니다(저에게는 너무나도 정확한 소식입니다).

정말 좋은 소식입니다.

 
물론 교육은 최적화보다 더 넓은 개념입니다. 그리고 자체적인 평가 기준을 사용합니다.

주제는 MOE입니다.
 
Maxim Dmitrievsky #:
엔티티를 혼동하고 있습니다. 최적화를 근사치에 맞추려고 하거나 그 반대의 경우도 마찬가지입니다.

근사치와 최적화는 머신 러닝 문제를 해결하는 서로 다른 접근 방식입니다.

제가 올바르게 이해했다면 알고리즘 트레이딩에서 근사화는 TS 자체를 만드는 것입니다. 마틴이 생성되고, 스캘퍼가 생성되고, 패턴이 생성되는 등의 과정을 거치는 것이죠. MO 메서드가 무언가를 생성하도록 할 수 있습니다.

그리고 최적화 - 이미 생성된 TS를 조정/연구하는 것입니다.

인간과 달리 MO는 숫자 크런처를 통해 TC 생성에도 관여하기 때문에 근사치와 최적화를 결합할 수 있습니다. 이해가 되시나요?

 
fxsaber #:

제가 올바르게 이해했다면, 알고리즘 트레이딩에서 근사치는 TS 자체를 생성하는 것입니다. 마틴 - 생성, 스캘퍼 - 생성, 패턴 - 생성 등을 원합니다. MO 메서드에 무언가를 생성하도록 지시할 수 있습니다.

그리고 최적화는 이미 생성된 TS를 튜닝/연구하는 것입니다.

인간과 달리 MO는 숫자 크런처를 통해 TC 생성에도 관여하기 때문에 근사치와 최적화를 결합할 수 있습니다. 맞나요?

네, 맞습니다.
 
고차 다항식에 의한 근사치는 과도한 학습으로 이어집니다. 오차 분산은 감소하지만 새로운 데이터에 대한 편향성은 증가합니다. 기능을 많이 추가하는 것과 마찬가지입니다. 그리고 기본입니다.
재학습된 모델은 튜닝할 수 없으며 일반화할 수 없습니다. 테스트 샘플과 대조 샘플에 대한 비교가 없기 때문에 코줄 추론을 할 수 없습니다. 테스트 샘플의 모든 곳에서 모델이 잘못되어 보정을 도출할 수 없습니다. 차라리 모델을 버리는 것이 더 쉽습니다.
 
Maxim Dmitrievsky #:
정확히

흥미롭게도, 데이터(따옴표)의 양이 많다는 점에서 (신경망으로서의) 인간의 두뇌는 MO에 비하면 인퓨소리아에 비유할 수 있습니다.

하지만 원시적인 인간은 꽤 잘 작동하는 TC를 만들 수 있다는 것이 입증되었습니다. 작동하는 TC를 만드는 데 그렇게 많은 양의 데이터가 필요하지 않다는 것이 밝혀졌습니다.

예를 들어, 인간이 어떻게 작동하는 스캘퍼 모델에 도달했는지는 저에게는 미스터리입니다. 거의 전적으로 숫자 크런처 없이 이루어졌습니다.


아마도 이런 시나리오가 있었을 겁니다:

  1. 나는 종종 어떤 종류의 평탄화를 봅니다 (며칠 동안 화면에서 어리석게도).
  2. 나는 원시적 인 TS로 돈을 벌려고 노력할 것입니다.
  3. 많이 소모되지 않습니다. TS를 조금 다듬어야합니다. 거래 내역을 살펴 보니 뭔가 개선 할 수있는 것 같습니다.
  4. 그것은 약간 더하기 시작했습니다. 포인트 3을 반복합니다.
숫자 크런처가 없습니다. 방금 포인트 1을보고 시작했습니다. 이 접근 방식의 확률은 거의 0으로 보이지만 어떻게 든 작동합니다. 일종의 작동하는 미친 찌르기 방법.


분명히 일부 무의식적 인 인간의 뇌는 여전히 극히 적은 양의 데이터에서 "패턴"을 찾을 수 있습니다. 운이라고 할 수는 없습니다. 미스터리입니다.

 
fxsaber #:

흥미로운 점은 데이터(따옴표)의 양이 많다는 점에서 인간의 뇌(신경망으로서)는 MO에 비하면 인퓨소리아에 비유할 수 있다는 점입니다.

그러나 원시적인 인간은 꽤 잘 작동하는 TC를 만들 수 있다는 것이 입증되었습니다. 작동하는 TC를 만드는 데 그렇게 많은 양의 데이터가 필요하지 않다는 것이 밝혀졌습니다.

예를 들어, 인간이 어떻게 작동하는 스캘퍼 모델에 도달했는지는 저에게는 미스터리입니다. 거의 전적으로 숫자 크런처 없이 이루어졌습니다.


이에 대한 시나리오는 다음과 같은 것이었습니다:

  1. 나는 종종 어떤 종류의 평탄화를 봅니다 (나는 며칠 동안 멍청하게 화면을 연마하고 있습니다).
  2. 나는 원시적 인 TS로 돈을 벌려고 노력할 것입니다.
  3. 많이 소모되지 않습니다. TS를 조금 다듬어야합니다. 거래 내역을 살펴 보니 뭔가 개선 할 수있는 것 같습니다.
  4. 그것은 조금 더하기 시작했습니다. 포인트 3을 반복합니다.
숫자 크런처는 없습니다. 방금 포인트 1을보고 시작했습니다. 이 접근 방식의 확률은 거의 0 인 것 같지만 어떻게 든 작동합니다. 일종의 작동하는 미친 찌르기 방법.
원샷 학습. 사전 훈련된 대규모 NS(두뇌)가 몇 가지 예제만으로 왼쪽 데이터에 대해 사전 훈련된 경우. 이 모델이 처음에 세상의 법칙을 학습했다면, 새로운 작업을 한 번 훑어보는 것만으로도 쉽게 클릭할 수 있습니다.

특히 대규모 언어 모델은 새로운 작업을 위해 이러한 방식으로 사전 학습을 합니다. 그러나 이러한 새로운 예제를 오랫동안 학습하도록 강요하면 이전 경험을 잊어버리고 새로운 데이터에 편향되기 시작합니다.
 
fxsaber #:

흥미로운 점은 데이터(따옴표)의 양이 많다는 점에서 인간의 뇌(신경망으로서)는 MO에 비하면 인퓨소리아에 비유할 수 있다는 점입니다.

1,500억 개의 뉴런이 있고 각각 1개씩 출력하는 것이 아니라 많은 뉴런이 있습니다. AI는 조만간 또는 영원히 그런 수준으로 성장하지 않을 것입니다.
NS는 지능의 수준을 바퀴벌레에 비유하면 달리고, 물고, 도망치는 것입니다.

 
Maxim Dmitrievsky #:
원샷 학습. 사전 훈련된 대규모 NS(두뇌)가 몇 가지 예제만으로 왼쪽 데이터에 대해 사전 훈련된 경우. 모델이 처음에 세상의 법칙을 학습했다면, 새로운 작업을 한눈에 보기만 해도 쉽게 클릭할 수 있습니다.

여기서 왼쪽 데이터로 사전 훈련된 두뇌가 이전에 몰랐던 특정 문제를 해결하는 것을 직접 보여주셨고, 추가적인 '지식'이 필요하지 않다고 말씀하셨습니다.

사유: