모든 지표는 가격의 함수입니다. 신경망 은 비선형입니다. 네트워크의 깊이가 충분한 경우 자체적으로 모든 지표의 공식을 도출할 수 있습니다. 네트워크가 가격 데이터에서 학습할 수 없는 경우 포인트는 입력이 아니라 원칙적으로 가격에 대한 출력 데이터를 얻는 것이 불가능하다는 사실입니다.
모든 지표는 가격의 함수입니다. 신경망은 비선형입니다. 네트워크의 깊이가 충분한 경우 자체적으로 모든 지표의 공식을 도출할 수 있습니다. 네트워크가 가격 데이터에서 학습할 수 없는 경우 포인트는 입력이 아니라 원칙적으로 가격에 대한 출력 데이터를 얻는 것이 불가능하다는 사실입니다.
당신과 SanSanych 둘 다 옳습니다.
한편으로는 국회 자체가 필요한 지표와 그 조합을 구축할 것입니다. 반면에 데이터가 정리되지 않고 데이터에 노이즈가 너무 많으면 신경망이 아무 것도 학습할 수 없습니다. 즉, 문제는 입력에도 있습니다.
Alexander_K2 :저는 국회에서 성배를 뽑은 사람들을 알고 있지만 그 사람들은 의사 소통에 너무 폐쇄적이고 그들이하는 일에 대한 힌트조차도 초보자로서 기회가 없습니다. 나는 모든 것이 거기에서 매우 복잡하다는 것을 알고 있습니다. Wells도 메타 트레이더도 아니고 S#도 아닙니다. 그러나 캘리더에서 오는 데이터를 해독하고 해석하는 일부 기능이 있는 C ++ 및 MatLab , 이것이 밝혀졌습니다. 내가 들은 대로 같은 방법론이 미친 듯이, CERN에서 하루에 테라바이트를 갈던 삼촌이 그들과 함께 일하면서 양자 혼돈에서 새로운 입자를 찾고 있습니다.
'통계'라는 건물에 들어서면 입구 위에 ' 쓰레기 인-쓰레기 아웃 '이라고 적혀 있다.
모든 지표는 가격의 함수입니다. 신경망 은 비선형입니다. 네트워크의 깊이가 충분한 경우 자체적으로 모든 지표의 공식을 도출할 수 있습니다. 네트워크가 가격 데이터에서 학습할 수 없는 경우 포인트는 입력이 아니라 원칙적으로 가격에 대한 출력 데이터를 얻는 것이 불가능하다는 사실입니다.
모든 지표는 가격의 함수입니다. 신경망은 비선형입니다. 네트워크의 깊이가 충분한 경우 자체적으로 모든 지표의 공식을 도출할 수 있습니다. 네트워크가 가격 데이터에서 학습할 수 없는 경우 포인트는 입력이 아니라 원칙적으로 가격에 대한 출력 데이터를 얻는 것이 불가능하다는 사실입니다.
당신과 SanSanych 둘 다 옳습니다.
한편으로는 국회 자체가 필요한 지표와 그 조합을 구축할 것입니다. 반면에 데이터가 정리되지 않고 데이터에 노이즈가 너무 많으면 신경망이 아무 것도 학습할 수 없습니다. 즉, 문제는 입력에도 있습니다.
NN을 훈련할 때 샘플을 섞는 것이 얼마나 중요합니까? 이에 대한 수학적 근거는 무엇입니까?
혼합이 모든 ML 모델과 관련이 있습니까? 아니면 일부 특정 모델에만 관련이 있습니까?
NN을 훈련할 때 샘플을 섞는 것이 얼마나 중요합니까? 이에 대한 수학적 근거는 무엇입니까?
혼합이 모든 ML 모델과 관련이 있습니까? 아니면 일부 특정 모델에만 관련이 있습니까?
학습 알고리즘이 각 주기마다 동일한 경로를 따르지 않도록 혼합해야 합니다. 우리는 들어갈 수 있고 국부 극단에서 벗어날 수 없습니다.
저것들. 여러 번 혼합하고 여러 번 훈련하고 결과가 어떻게 비교되는지 확인해야 합니까?
저것들. 여러 번 혼합하고 여러 번 훈련하고 결과가 어떻게 비교되는지 확인해야 합니까?
몇 번의 훈련 에포크 후에 혼합해야 합니다. 불행히도 많은 학습 알고리즘은 중단(Python - 일부 패키지(모듈) 참조)을 허용하지 않으며 매번 처음부터 시작합니다.
교반은 또한 어닐링과 잘 결합됩니다. 하지만 다시 말하지만, 이것을 자동으로 하기는 어렵습니다. 왜냐하면 항상 중간 결과를 보고 추가 조치를 계획해야 합니다.
몇 번의 훈련 에포크 후에 혼합해야 합니다. 불행히도 많은 학습 알고리즘은 중단(Python - 일부 패키지(모듈) 참조)을 허용하지 않으며 매번 처음부터 시작합니다.
교반은 또한 어닐링과 잘 결합됩니다. 하지만 다시 말하지만, 이것을 자동으로 하기는 어렵습니다. 왜냐하면 항상 중간 결과를 보고 추가 조치를 계획해야 합니다.
uu .. 거기 che 입니다. 즉. 훈련하기 전에 셔플하면 의미가 없습니다.
그리고 지금 당신은) Rattle - CatBoost .
----------
보손을 잡으려면...
https://www.kaggle.com/c/higgs-boson
Darch는 기본적으로 각 epoch 전에 셔플을 사용합니다. 그것을 끄려고했지만 전혀 배우지 않았습니다.
그래서 나는 모든 것이 뒤죽박죽이라면 어떻게 새로운 데이터를 만드는 것이 학습에 더 강력한 영향을 미칠까?
Darch는 기본적으로 각 epoch 전에 셔플을 사용합니다. 그것을 끄려고했지만 전혀 배우지 않았습니다.
그래서 나는 모든 것이 뒤죽박죽이라면 어떻게 새로운 데이터를 만드는 것이 학습에 더 강한 영향을 미칠 수 있다고 생각했습니다.