여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))
당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.
여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))
당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.
일반적으로 알고리즘 거래의 전체 본질은 시장이 적어도 부분적으로는 지속적으로 변화한다는 것입니다. 정보 확산의 결과로 일종의 "관성"이 있습니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이 작업을 수행합니다. 먼저 학습 및 학습 학습으로 나누고 학습 학습, 학습 확인, 매개변수의 최적화된 구성에 대한 학습 + 테스트를 다시 학습합니다.
추신, 물론 나는 논쟁하고 주장하지 않을 것입니다. 위의 동료는 "진짜가 모든 것을 제자리에 둘 것입니다"라고 올바르게 말했으며 시장의 교훈은 포럼 선동보다 더 잘 기억됩니다))
일반적으로 알고리즘 거래의 전체 본질은 시장이 정보 확산의 결과로 관성처럼 적어도 부분적으로 지속적으로 변화한다는 것입니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이를 수행합니다. 먼저 학습자 및 학습 학습으로 나누어 학습 학습을 수행하고 학습을 확인한 다음 학습자 재학습 + 최적화된 구성으로 학습합니다.
그래서 OOS의 어떤 면의 차이점은 무엇입니까? ))
특히 lern과 train이 같은 것이라고 생각할 때 (Test의 의미는 이해했지만 선택이 취소되지는 않음)
당신은 나를 과대 평가) 나는 서론보다 더 진행하지 않았습니다)
그들이 스스로 쓰는 것처럼 이것은 자연(환경)과 함께하는 게임의 일종의 하위 클래스입니다. 우리의 거의 모든 모델이 자연과 함께하는 게임의 틀 안에 있다고 확신하지만 이러한 "도적"이 얼마나 적합한지는 모르겠습니다.
나는 Hidden Markov Process를 선호한다. 모든 변수를 관찰하는 것은 아니라는 사실 때문에 비정상성이 나타날 수 있습니다. 대략적으로 말하면, 우리에게 비정상 프로세스는 고정 프로세스에서 파생되지만 마켓 메이커만 알 수 있습니다.
코드를 버릴 수는 있지만 누군가가 코드를 이해하고 새로운 것을 제공할지 확신할 수 없습니다. :)
이해합니다, 헛소리는 헛소리입니다))
여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))
당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.
누군가는 이렇게 되어야 한다고 말했고, 왜 당신은 정말로 알지 못합니까, 그냥 추측
전혀 차이가 없다
깃발을 손에 넣으면 진짜가 모든 것을 제자리에 놓을 것입니다.
코드를 버릴 수는 있지만 누군가가 코드를 이해하고 새로운 것을 제공할지 확신할 수 없습니다. :)
때로는 한 달 동안 작업하지 않은 자신의 코드에서 파악하기가 어렵습니다)
깃발을 손에 넣으면 진짜가 모든 것을 제자리에 놓을 것입니다.
신이시여, 우리는 여기서 도적에 대해 논의하고 있습니다.
여기서 요점은 엿보는 것이 아니라 특정 조건에서도 발생할 수 있지만 OOS 결과가 실제 생활에서 + - 반복되기를 원하기 때문에 OOS가 가능한 한 실제 생활에 가까워야한다는 사실입니다. 더 먼 과거에 대해 테스트하면 과거에 가깝고 시장은 이 기간 동안 다소 변경될 수 있습니다. 예를 들어 몇 년 동안 OOS와 실제를 분리하는 경우 방법은 완전히 터무니없을 수 있습니다.)))
당신 자신이 부조리를 씁니다. 왜냐하면. 시장은 lern과 관련하여 과거와 미래에 모두 바뀔 수 있습니다. 더욱이 Lern이 현재에 가까울수록 시장이 내일 바뀔 가능성이 적습니다. 알고리즘이 모든 OOS에서 일반화할 수 있는 방법을 보고 있습니다.
일반적으로 알고리즘 거래의 전체 본질은 시장이 적어도 부분적으로는 지속적으로 변화한다는 것입니다. 정보 확산의 결과로 일종의 "관성"이 있습니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이 작업을 수행합니다. 먼저 학습 및 학습 학습으로 나누고 학습 학습, 학습 확인, 매개변수의 최적화된 구성에 대한 학습 + 테스트를 다시 학습합니다.
추신, 물론 나는 논쟁하고 주장하지 않을 것입니다. 위의 동료는 "진짜가 모든 것을 제자리에 둘 것입니다"라고 올바르게 말했으며 시장의 교훈은 포럼 선동보다 더 잘 기억됩니다))
일반적으로 알고리즘 거래의 전체 본질은 시장이 정보 확산의 결과로 관성처럼 적어도 부분적으로 지속적으로 변화한다는 것입니다. 즉, 어제 일어난 일이 한 달(1년) 전의 일보다 오늘일 가능성이 더 높으며 OOS가 실생활에 더 가깝도록 최적화한 다음 OOS 데이터로 MO를 다시 배우면 무엇이 문제입니까? 일반적으로 모든 사람이 이를 수행합니다. 먼저 학습자 및 학습 학습으로 나누어 학습 학습을 수행하고 학습을 확인한 다음 학습자 재학습 + 최적화된 구성으로 학습합니다.
그래서 OOS의 어떤 면의 차이점은 무엇입니까? ))
특히 lern과 train이 같은 것이라고 생각할 때 (Test의 의미는 이해했지만 선택이 취소되지는 않음)
그래서 OOS의 어떤 면이 다른가요? ))
특히 lern과 train이 같은 것이라고 생각할 때 (Test의 의미는 이해했지만 선택이 취소되지는 않음)
오타, 감사합니다, 수정했습니다
차이가 크며 OOS가 실생활에 더 가깝습니다. 실생활에 더 가까운 것을 최적화해야 하며, FIG에서는 무엇을 언제 어떻게 알 수 없습니다.
오타, 감사합니다, 수정했습니다
차이가 크며 OOS가 실생활에 더 가깝습니다. 실생활에 더 가까운 것을 최적화해야 하며, FIG에서는 무엇을 언제 어떻게 알 수 없습니다.
작업은 2개의 조각을 구별할 수 없도록 하는 것입니다(동일한 오류 등). 이 맥락에서 일반적으로 모든 의미를 잃는 것과 흔들리는 것에 대한 정의
맙소사, 여기에서 도적에 대해 논의하고 있습니다.
그렇다면 RDF에서 "Bandit algorithm"을 구현한 것은 무엇입니까?
아니면 "Bandit" 알고리즘을 위해 특별히 코딩한 것이 있습니까?