트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2623

 
JeeyCi # :

그리고 그 대답은 당신을 위한 것이 아닙니다 - 당신은 읽는 법을 배운 적이 없습니다 ...

NON-BED가 쓰여진 기사를 추천한다면, 당신은 이 NON-BELDS(자신의 능력을 말함)를 가지고 있고, 다른 사람들도 추천합니다..

질문: 이 대답이 나에게 전달되지 않았다면 넌센스가 넌센스를 멈췄습니까? 질문은 수사학적이지 않다
 
JeeyCi # :

여기와 두 번째 모델이 필요하지 않을 수 있습니까? - 모델 선택을 위한 교차 검증 및 그리드 검색 ...

그러나 아마도 혼동 행렬이 두 번째 질문에 대답할 것입니다(아이디어의 두 번째 모델의 목표)...

또는 분류 보고서

... 2nd 모델이 필요한지 의심 스럽습니다 ... IMHO

예를 들어 Prado를 읽으면 두 번째 모델을 사용할 때 혼동 행렬의 개선이 선언됩니다. 그러나 또한 첫 번째 모델에 대한 예제의 오버샘플링을 사용하여 참 긍정 또는 다른 것의 수를 늘립니다. 안타깝게도 잊어버렸습니다.
하나의 모델을 사용하면 다른 하나의 열화를 희생시키면서 하나를 개선할 수 있고 2개의 모델을 사용하면 모든 것을 개선할 수 있다고 합니다. Confusion Matrix Prado 또는 Meta Labeling Prado를 찾으십시오. 전화로 전화를 하고 있습니다.
그리고 교차 검증은 이러한 조작 후에 "양호"를 표시합니다. TS 자산 잔액에 대한 새 데이터를 보기만 하면 모든 것을 즉시 볼 수 있습니다.
 
Maxim Dmitrievsky # :
예를 들어 Prado를 읽으면 두 번째 모델을 사용할 때 혼동 행렬의 개선이 선언됩니다. 그러나 또한 첫 번째 모델에 대한 예제의 오버샘플링 을 사용하여 참 긍정 또는 다른 것의 수를 늘립니다. 안타깝게도 잊어버렸습니다.
하나의 모델을 사용하면 다른 하나의 열화를 희생시키면서 하나를 개선할 수 있고 2개의 모델을 사용하면 모든 것을 개선할 수 있습니다. Confusion Matrix Prado 또는 Meta Labeling Prado를 찾으십시오. 전화로 전화를 하고 있습니다.

업샘플링 및 다운샘플링은 불균형 데이터 세트 및 소규모 훈련 세트를 위한 것입니다. 더 작은 클래스에 더 많은 가중치를 부여하고 그 반대로 ... 예, 아마도 (진정으로 긍정적인) 증가를 위해 ...

***

그리고 약 2개의 모델 - 글쎄, 당신은 아마도 2번을 필터링할 수 있을 것이다 - 먼저 가중치를 설정하기 위한 신호, 그런 다음 이 가중치에 따라 처리합니다(2차 계량에서 입력에 의해 시작됨)... 비록 배울 기회처럼 보이지만 에서 컨텍스트 를 처리하고 이전 시계열에서 그라디언트가 사라지지 않도록 하는 것이 좋습니다. 좋은 생각입니다... 하지만 컨텍스트로 작업할 때의 구현은 일반적으로 여전히 약간 다릅니다. 작업은 의 인코딩을 사용하는 것입니다. "transaction and its context" 및 2nd RNN은 출력에서 디코딩을 위해 1st의 결과를 취합니다 -- 그러나 이것은 2개의 다른 작업(예: 컨텍스트 및 트랜잭션)에 대한 2개의 네트워크 작업과 거의 관련이 없습니다. 사실, 그것은 처리됩니다 - 2개의 네트워크 "거래 및 컨텍스트"(쌍으로 !!)를 통해 전달됩니다 ... - 속도 문제 만 해결하지만 출력의 유효성은 해결하지 못합니다. ..임호 ...

그러나 컨텍스트와 트랜잭션의 처리를 절대적으로 분리하려는 경우(컨텍스트가 분리되고 트랜잭션이 분리됨) - 현재로서는 그러한 구성이 샌드위치(또는 버터-버터, 상호 연결 및 종속성을 윤활하는 서로의 현상 - 2개의 레이어에서) ... 내가 귀하의 참조 약관을 해석하는 척하는 것이 아니라, 결국 모델링 프로세스, 즉 관계에서 보존할 가치가 있을 것이라는 내 우려와 가정을 표현했습니다! .. 나는 당신에게 아름다운 (현실을 반영! 버터가 아닌) 네트워크 아키텍처를 기원합니다!

ps ) "문맥 광고"의 영원한 문제로 - "가장 중요한 것은 현실에서 벗어나지 않는 것"(그들의 가중치 설정은 때때로 비뚤어짐 - 나는 누구에게도 손가락질하지 않을 것입니다 - 또는 작은 샘플로 작업했습니다. 잘못된 방향 )

 
JeeyCi # :

업샘플링 및 다운샘플링은 불균형 데이터 세트 및 소규모 훈련 세트를 위한 것입니다. 소규모 클래스에 더 많은 가중치를 부여합니다... 예, 아마도 (진정으로 긍정적인) 증가를 위해...

***

그리고 약 2개의 모델 - 글쎄, 당신은 아마도 2번을 필터링할 수 있을 것이다 - 먼저 가중치를 설정하기 위한 신호, 그런 다음 이 가중치에 따라 처리합니다(2차 계량에서 입력에 의해 시작됨)... 비록 배울 기회처럼 보이지만 에서 컨텍스트 를 처리하고 이전 시계열에서 그라디언트가 사라지지 않도록 하는 것이 좋습니다. 좋은 생각입니다... 하지만 컨텍스트로 작업할 때의 구현은 일반적으로 여전히 약간 다릅니다. 작업은 의 인코딩을 사용하는 것입니다. "transaction and its context" 및 2nd RNN은 출력에서 디코딩을 위해 1st의 결과를 취합니다 -- 그러나 이것은 2개의 다른 작업(예: 컨텍스트 및 트랜잭션)에 대한 2개의 네트워크 작업과 거의 관련이 없습니다. 사실, 그것은 처리됩니다 - 2개의 네트워크 "거래 및 컨텍스트"(쌍으로 !!)를 통해 전달됩니다. ... - 속도 문제 만 해결하지만 출력의 유효성은 해결하지 못합니다(또는 덜). .. 임호 ...

그러나 컨텍스트와 트랜잭션의 처리를 절대적으로 분리하려는 경우(컨텍스트가 분리되고 트랜잭션이 분리됨) - 현재로서는 그러한 구성이 샌드위치(또는 버터-버터, 상호 연결 및 종속성을 윤활하는 서로의 현상 - 2개의 레이어에서) ... 내가 귀하의 참조 약관을 해석하는 척하는 것이 아니라, 결국 모델링 프로세스, 즉 관계에서 보존할 가치가 있을 것이라는 내 우려와 가정을 표현했습니다! .. 나는 당신에게 아름다운 (현실을 반영! 버터가 아닌) 네트워크 아키텍처를 기원합니다!

ps ) "문맥 광고"의 영원한 문제로 - "가장 중요한 것은 현실에서 벗어나지 않는 것"(그들의 가중치 설정은 때때로 비뚤어짐 - 나는 누구에게도 손가락질하지 않을 것입니다 - 또는 작은 샘플로 작업했습니다. 잘못된 방향 )

컨텍스트의 개념은 시계열의 경우 별로 유용하지 않을 수 있습니다. 명확한 구분이 없으며 두 모델 모두 예측에 포함됩니다. 한 방향, 다른 타이밍. 나는 그들이 평등하다고 말할 것입니다. 문제는 모델 오류 분석을 기반으로 최상의 거래 상황에 대한 검색을 최적화하는 방법이며 가능합니까? 순차적으로 재교육합니다. 각 재훈련 쌍 후에 결과는 새 데이터에서 개선되어야 합니다. 저것들. 훈련 세트에서 패턴을 선택하고 보지 못한 새로운 데이터를 점진적으로 개선할 수 있어야 합니다. 사소하지 않은 작업.

나는 첫 번째 모델에서 제대로 예측되지 않은 예를 두 번째 모델의 "거래하지 않음" 클래스에 버렸다. 첫 번째 모델의 두드리는 샘플에서 벗어났습니다. 처음에는 오류가 거의 0으로 떨어졌습니다. 두 번째 것도 작습니다. 그러나 이것이 새로운 데이터가 좋다는 것을 의미하지는 않습니다.

이것은 일종의 조합 작업입니다. 적절한 시기에 적절한 매수 및 매도를 찾는 것입니다.

어쩌면 여기에 해결책이 없을 수도 있습니다.
 
Maxim Dmitrievsky # :
규칙성의 개념은 반복을 의미합니다. 이것이 중요합니다!

이제 한 클러스터가 90%의 확률로 무언가를 예측할 수 있고 적어도 200번 반복하면 이것이 패턴이라고 가정할 수 있습니다.
또는 클러스터가 아니라 로그입니다. 규칙..

복잡한 모델(접힘이라는 단어의 복합)을 다룰 때 내부 패턴의 반복성을 수정하는 기능을 잃습니다. 즉, 규칙성과 피팅을 구별하는 능력을 잃습니다 ...

이것을 이해하면 신경망이 쓰레기통에 간다는 것을 즉시 이해할 수 있지만 나무 모델은 규칙으로 분해 될 수 있으며 통계는 이미 규칙에서 고려할 수 있습니다
 
mytarmailS # :
규칙성의 개념은 반복을 의미합니다. 이것이 중요합니다!

이제 한 클러스터가 90%의 확률로 무언가를 예측할 수 있고 적어도 200번 반복하면 이것이 패턴이라고 가정할 수 있습니다.
또는 클러스터가 아니라 로그입니다. 규칙..

복잡한 모델(접힘이라는 단어의 복합)을 다룰 때 내부 패턴의 반복성을 수정하는 기능을 잃습니다. 즉, 규칙성과 피팅을 구별하는 능력을 잃습니다 ...

이것을 이해하면 신경망이 쓰레기통에 간다는 것을 즉시 이해할 수 있지만 나무 모델은 규칙으로 분해 될 수 있으며 통계는 이미 규칙에서 고려할 수 있습니다
그러나 ns에서는 분석 가능성이 없더라도 간단한 종속성이 없으면 많은 기호를 입력할 수 있습니다. 그렇지 않으면 우리는 모든 기계 학습을 버리고 TS를 작성하는 간단한 방법으로 돌아갈 것입니다. :) 그러면 간단한 알고리즘을 작성하고 테스터에서 작동하지 않는지 확인하고 수정하고 다시 보는 등의 작업을 수행할 수 있습니다.
 

통계는 선형적 이며, 무엇을 말하든지... 신경망은 멍청한(또는 똑똑한 - 개발자에 따라 다름) 가중치... 가중치를 위해 2개 이상의 Dense 레이어를 사용할 때 비선형 종속성을 제공하지 않습니다(상대적으로 말하자면, 이것은 종속성 또는 어리석은 상관 관계이기 때문에 - 이것은 여전히 매우 큰 질문입니다. 제 시간에 인식됩니다(예: 임의의 이상 또는 시스템 형성 - 이것은 이미 또 다른 질문입니다). 그런 다음 평소와 같이 위험/수익성 문제를 해결합니다.

편의성은 유연성에 있지 않습니다. 입력에 대해 실행하는 것과 완전히 다른 "명명법"을 출력에 가져오거나 제출할 수 있습니다. 네트워크 자체에서 필요한 변환을 수행하고 ... 다중 스레드 모드에서 수행합니다(라이브러리에 따라 다름) ... 통계뿐만 아니라 ...

입력을 검색하기 위해 통계가 필요한지 여부(set-up') - 이것은 또 다른 질문입니다...

지식과 경험이 통계보다 도움이 되는 경우가 많습니다. 첫 번째는 세부 사항에 초점을 맞추고 두 번째는 공통 분모로 축소하는 데 중점을 둡니다.

모든 것이 제자리에 있습니다-통계를 포함하여 ...

***

사실은 로봇의 경우 숫자에서 얻은 확률을 제외하고는 설명할 다른 방법이 없습니다(그리고 그는 다른 방식으로 설명하지 않습니다). 숫자 0과 1 ... 따라서 우리는 출력에서 확률을 얻기 위해 입력을 디지털화하고 신뢰 구간 에 대한 조건을 설정해야 합니다. ) - 이진 논리 또는 이 이진 논리의 가중 결과(잠재적 솔루션의 전체 범위에 대한 전체 확률 %라고도 함)는 취향과 습관의 문제일 뿐이며 큰 쟁반...

(그리고 이미 숲 입구나 신경망 입구는 이미 디테일)

아무도 하나의 프로젝트 프레임워크 내에서 나무/숲 및 신경망의 공유를 금지하지 않았습니다... - 문제는 어디에, 무엇을 적용하고 언제(속도와 메모리가 중요함), 무엇이 더 나은지 ... - 그것은 시간을 낭비하지 않는 것이 좋습니다 - "거래와 다른 타이밍 - 타이밍을 벗어난 거래와 같은 손실된 시간 - 알 수 없는 거래"와 동일

 
그런 긴 조롱과 그런 약한 결론 :) 우리가 시간을 무시하더라도 하나의 모델 (정규화 된, 적합하지 않은)은 수익성있는 거래와 수익성없는 거래의 수, 수익성없는 거래를 제외하고 좋은 비율을 가르 칠 수 없습니다. 열차표본에서도 TS 의 거래실적을 인위적으로 악화시키는 것으로 지각되는 분류오류를 제거하는 것은 불가능하다.
 

어떤 모델도 확률 이상을 얻을 수 없습니다(이것은 모든 디지털화의 장점이자 단점입니다). 이러한 확률에 가중치를 두지 않더라도 ... 나는 샌드위치로 나 자신을 독살하지 않으며 누구에게도 조언하지 않습니다 - Bayes는 취소됨(코드에 투자하지 않더라도, 특히 코드에 넣은 경우에도)...

ps. 아마도 맥도날드 팬이시겠지만... - 가설, 확인하지 않겠습니다...

알고리즘은 당신의 결론보다 더 비쌉니다

 
JeeyCi # :

어떤 모델도 확률 이상을 얻을 수 없습니다(이것이 모든 디지털화의 장점이자 단점입니다). 이러한 확률에 가중치를 두지 않더라도 ... 나 자신은 샌드위치에 중독되지 않으며 누구에게도 조언하지 않습니다. - Bayes는 취소되지 않았습니다( 코드에 투자하지 않더라도, 특히 코드에 넣는 경우)...

ps. 아마도 맥도날드 팬이시겠지만... - 가설, 확인하지 않겠습니다...

알고리즘은 당신의 결론보다 더 비쌉니다

샌드위치는 모든 딥 웹에서 널리 사용됩니다. 다른 작업에 대한 트릭. 하지만 좁게 생각해보면 어떤 복사기도 복사기이고 어떤 맥도날드 버거도
따라서 아무 것도 시도하지 않고도 자신의 고정 관념에 인질이 될 수 있습니다. 그리고 고정관념은 절대 겹겹이 쌓이는 것이 아닙니다 😀
내 대답에서는 암묵적으로 상황에 더 적합한 일반화된 지식에서 특정 모델을 선별하는 두 번째 명확화 모델을 사용했습니다.
사유: