트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3296

 
Maxim Dmitrievsky #:
질문이 없습니다. 저는 왜 특징이 많으면 인과관계 추론에서 결과가 좋지 않은지에 대해 썼는데요.

그리고 저는 "특징의 수가 많아질수록 결과가 나빠질 것"이라는 가설만 말씀드렸습니다.

그리고 제 가설을 말씀드렸습니다. 실험 비용 때문에 아직 아무도 이를 테스트하지 않았습니다. 하지만 일부 사람들이 GPT를 통해 새로운 연결과 추론이 가능할 정도로 이질적인 정보의 연결 품질이 뛰어났다는 것을 상기시켜드립니다.

 
Andrey Dik #:

그리고 저는 "특성이 증가하면 결과가 더 나빠질 것"이라는 가설일 뿐이라고 답했습니다.

실험 비용 때문에 아직 아무도 실험을 시도하지 않았습니다. 그러나 일부 사람들은 GPT를 위해 그것을했고, 새로운 연결과 결론을 만들 수있을 정도로 이질적인 정보의 연결 품질이 뛰어 났음을 상기시켜드립니다.

저는 이것이 가설이 아니라 가설이라고 썼습니다. 엄격하게 입증된 사실입니다.

손가락과 손가락을 비교하지 마세요. 대규모 언어 모델은 정확히 같은 방식으로 훈련됩니다. 그리고 당신은 학습 오류가 무엇인지 전혀 모릅니다.

다른 질문이 있으신가요?

 
Maxim Dmitrievsky #:
저는 가설을 세운 것이 아니라 가설을 세웠다고 말씀드렸습니다. 엄격하게 증명된 사실입니다.

다른 질문이 있으신가요?

당신이 말한 것은 입증된 것이 아니라 경험적 판단이므로 당신의 말은 가설입니다.

질문이 없습니다.

 
Andrey Dik #:

말씀하신 내용은 입증된 것이 아니라 경험적 판단이므로 가설에 불과합니다.

질문이 없습니다.

입증된 사실입니다. 입증되지 않았다고 해서 입증되지 않은 것은 아닙니다. 다시 한 번, 베이즈-변동성 트레이드오프에 대한 링크를 제공하겠습니다.

그리고 무엇이 입증되고 무엇이 입증되지 않았는지에 대해서는 말하지 않겠습니다. 더 진지한 전문가들이 있으니까요.
 
Maxim Dmitrievsky #:

손가락과 손가락을 비교하지 마세요. 대규모 언어 모델은 정확히 같은 방식으로 학습됩니다. 그리고 어떤 종류의 학습 오류가 있는지 전혀 알 수 없습니다.

손가락 대 손가락이라니요?

정확히, 대규모 언어 모델은 정확히 같은 방식으로 훈련되고 최적화 알고리즘을 사용합니다 (GPT에게 어떤 알고리즘으로 훈련되었는지 물어볼 수 있습니다. 몇 달 전에는 모호하지 않게 대답했지만 지금은 유머러스하지만 ADAM이 그중 하나라고 말할 것입니다). 그리고 나는 당신이 모르는 것처럼 어떤 종류의 학습 오류가 있는지 전혀 모릅니다. 저자들은 정보를 수집하는 것만으로는 충분하지 않고 훈련의 질을 정확하게 평가할 수 있어야하기 때문에 매우 어려운 대규모 모델에 대한 평가 기준을 구축 할 수 있었기 때문에 훌륭합니다 (내가 말했듯이 평가 기준을 구축하는 것이 덜 중요하지 않습니다).

 
Maxim Dmitrievsky #:

그리고 입증된 것과 입증되지 않은 것에 대해 말하지 마세요. 더 진지한 교사도 있습니다.

자신을 측정하는 것을 좋아하시죠. 저는 여러분을 가르치는 것이 아니라 여러분이 슈퍼 전문가라고 생각한다면 이런 것들을 이해해야 합니다.

 
Andrey Dik #:

자신을 측정하는 것을 좋아하시죠. 제가 가르치는 게 아니라 스스로를 슈퍼 프로라고 생각한다면 이런 것들을 이해해야 합니다.

내가 슈퍼 프로라고 생각하는 사람은 바로 당신이고 당신은 주제에서 벗어난 사람입니다. 저는 권위자를 인용하는 등의 심리적 트릭을 섞어 주제와 관련 없는 주장을 늘어놓는 것을 좋아하지 않습니다. 너무 게을러서 증거를 읽지 않는다면 더 이상 도와드릴 수 없습니다.
 
Maxim Dmitrievsky #:
제가 슈퍼 프로라고 생각하고 주제에서 벗어난 글을 쓰는 건 바로 당신입니다. 저는 당국에 대한 언급과 같은 심리적 속임수가 섞인 주제와 관련 없는 주장만 늘어놓는 것을 좋아하지 않아요. 너무 게을러서 증거를 읽지 않는다면 더 이상 도와드릴 수 없습니다.

제가 어떤 기관을 인용했나요? 보통은 기관과 그 기관의 기사를 과시하는 것 같은데요.
저는 MO 전문가는 아니지만 최적화에 대해서는 많이 알고 있습니다. 그리고 최적화가 없는 MO는 존재하지 않기 때문에 여기서 어떤 토론에도 주저 없이 참여할 수 있습니다.
 
Andrey Dik #:

제가 어떤 기관을 참조했나요? 일반적으로 기관과 그 기관의 기사를 인용하는 것을 과시하는 것 같습니다.
저는 MO 전문가는 아니지만 최적화에 대해서는 많이 알고 있습니다. 그리고 최적화 없이는 MO도 없기 때문에 여기서 어떤 토론에도 주저 없이 참여할 수 있습니다.
이해하지 못하는 것에 대한 일종의 증거로 GPT를 인용하셨군요. 당신은 글을 쓰기 위해 글을 씁니다. 의미 있는 메시지는 없습니다. 저는 최적화에 관심이 없습니다. 이것이 세 번째 질문입니다. 저는 최적화에 대해 글을 쓰지 않았고 그것에 대해 묻지도 않았습니다. 학습에 최적화가 포함된다고 해서 학습이 곧 최적화라는 뜻은 아닙니다. 그 대화는 전혀 그런 내용이 아니었습니다.

제가 쓴 내용을 이해하지 못하고 더 가까운 아픈 부분에 대해 글을 쓰기 시작한 것뿐입니다.
 
Maxim Dmitrievsky #:
아무것도 모른다는 증거로 GPT를 인용하셨군요. 그냥 글쓰기를 위한 글일 뿐입니다. 의미 있는 메시지가 없습니다. 저는 최적화에 관심이 없습니다. 이것이 세 번째 질문입니다. 저는 최적화에 대해 글을 쓰지 않았고 그것에 대해 묻지도 않았습니다. 학습에 최적화가 포함된다고 해서 학습이 곧 최적화라는 뜻은 아닙니다. 그 대화는 전혀 그런 내용이 아니었습니다.

최적화에 대해 글을 쓴 적도 없는데 왜 그렇게 따지는 건가요?
제가 쓴 게 아니에요.
그리고 학습은 최적화의 특수한 경우라는 것을 기억하세요.
봐요, 안 썼어요! 이제 쓸 내용과 쓰지 말아야 할 내용에 대해 허락을 받아야 하나요? 진정하세요.
사유: