트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1146

 
알렉세이 니콜라예프 :

당신은 나를 과대 평가) 나는 서론보다 더 진행하지 않았습니다)

그들이 스스로 쓰는 것처럼 이것은 자연(환경)과 함께하는 게임의 일종의 하위 클래스입니다. 우리의 거의 모든 모델이 자연과 함께하는 게임의 틀 안에 있다고 확신하지만 이러한 "도적"이 얼마나 적합한지는 모르겠습니다.

나는 Hidden Markov Process를 선호한다. 모든 변수를 관찰하는 것은 아니라는 사실 때문에 비정상성이 나타날 수 있습니다. 대략적으로 말하면, 우리에게 비정상 프로세스는 고정 프로세스에서 파생되지만 마켓 메이커만 알 수 있습니다.

코드를 버릴 수는 있지만 누군가가 코드를 이해하고 새로운 것을 제공할지 확신할 수 없습니다. :)

 
성배 :

이해합니다, 헛소리는 헛소리입니다))

여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))

당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.

누군가는 이렇게 되어야 한다고 말했고, 왜 당신은 정말로 알지 못합니까, 그냥 추측

 
막심 드미트리예프스키 :

전혀 차이가 없다

깃발을 손에 넣으면 진짜가 모든 것을 제자리에 놓을 것입니다.

 
막심 드미트리예프스키 :

코드를 버릴 수는 있지만 누군가가 코드를 이해하고 새로운 것을 제공할지 확신할 수 없습니다. :)

때로는 한 달 동안 작업하지 않은 자신의 코드에서 파악하기가 어렵습니다)

 
더엑스퍼트 :

깃발을 손에 넣으면 진짜가 모든 것을 제자리에 놓을 것입니다.

신이시여, 우리는 여기서 도적에 대해 논의하고 있습니다.

 
막심 드미트리예프스키 :

여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))

당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.

일반적으로 알고리즘 거래의 전체 본질은 시장이 적어도 부분적으로는 지속적으로 변화한다는 것입니다. 정보 확산의 결과로 일종의 "관성"이 있습니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이 작업을 수행합니다. 먼저 학습 및 학습 학습으로 나누고 학습 학습, 학습 확인, 매개변수의 최적화된 구성에 대한 학습 + 테스트를 다시 학습합니다.


추신, 물론 나는 논쟁하고 주장하지 않을 것입니다. 위의 동료는 "진짜가 모든 것을 제자리에 둘 것입니다"라고 올바르게 말했으며 시장의 교훈은 포럼 선동보다 더 잘 기억됩니다))

 
성배 :

일반적으로 알고리즘 거래의 전체 본질은 시장이 정보 확산의 결과로 관성처럼 적어도 부분적으로 지속적으로 변화한다는 것입니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이를 수행합니다. 먼저 학습자 및 학습 학습으로 나누어 학습 학습을 수행하고 학습을 확인한 다음 학습자 재학습 + 최적화된 구성으로 학습합니다.

그래서 OOS의 어떤 면의 차이점은 무엇입니까? ))

특히 lern과 train이 같은 것이라고 생각할 때 (Test의 의미는 이해했지만 선택이 취소되지는 않음)

 
막심 드미트리예프스키 :

그래서 OOS의 어떤 면이 다른가요? ))

특히 lern과 train이 같은 것이라고 생각할 때 (Test의 의미는 이해했지만 선택이 취소되지는 않음)

오타, 감사합니다, 수정했습니다

차이가 크며 OOS가 실생활에 더 가깝습니다. 실생활에 더 가까운 것을 최적화해야 하며, FIG에서는 무엇을 언제 어떻게 알 수 없습니다.

 
성배 :

오타, 감사합니다, 수정했습니다

차이가 크며 OOS가 실생활에 더 가깝습니다. 실생활에 더 가까운 것을 최적화해야 하며, FIG에서는 무엇을 언제 어떻게 알 수 없습니다.

작업은 2개의 조각을 구별할 수 없도록 하는 것입니다(동일한 오류 등). 이 맥락에서 일반적으로 모든 의미를 잃는 것과 흔들리는 것에 대한 정의

 
막심 드미트리예프스키 :

맙소사, 여기에서 도적에 대해 논의하고 있습니다.

그렇다면 RDF에서 "Bandit algorithm"을 구현한 것은 무엇입니까?

아니면 "Bandit" 알고리즘을 위해 특별히 코딩한 것이 있습니까?

사유: