트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3313

 
산치, 선생님은 표지판 + 표적이라는 것을 언제 기억할까요?)

위대한 R을 배운 진지한 사람들에게서 나온 것처럼 그러한 유치한 블러 퍼는 전체 분위기를 망칩니다. 그리고 사람들은 아무리 많이 수정해도 배우지 못한 것으로 밝혀졌습니다.

기본에 대해 여전히 혼란스러우면 어떻게 이야기 할 수 있습니까?)

악의는 없지만, 당신은 서로를 이해하지도 못합니다, 각각에 대해 쓴 내용 :))))))
 
СанСаныч Фоменко #:

모델의 일부로서 기능 선택을 의미한다면, 모델의 일부로서 기능 선택은 쓰레기에 불과하기 때문에 전적으로 동의하지 않습니다.

저는 기능 선택에 대해 이야기하고 있습니다.

그리고 당신이 " 모델의 기능 선택 " 이라고 부르는 것은 분산 중요도입니다. 자신과 다른 사람들을 혼동하지 마십시오.

그리고 프록시 패키지로 하는 일은 장인의 부정확하고 원시적인 기능 선택이거나 오히려 그 일부입니다.


그리고 정말로 개념을 숙지하고 기존 개념 위에 자신만의 개념을 도입하지 마세요.

재교육을 '오버피팅'이라고 부르면 매번 경련이 일어나고 그런 실수가 많기 때문입니다.

 
Maxim Dmitrievsky #:
산치, 선생님은 표지판+표적이라는 걸 언제 기억할 수 있을까요?)

위대한 R을 배운 진지한 사람들에게서 나온 것처럼 그러한 유치한 블러 퍼는 전체 분위기를 망칩니다. 그리고 사람들은 아무리 많이 수정해도 배우지 못한 것으로 밝혀졌습니다.

기본에 대해 여전히 혼란스러우신다면 어떻게 말씀드릴까요?)

악의는 없지만, 당신은 서로를 이해하지도 못합니다 :))))))

오, 가장 현명합니다!

오, 가장 지식이 풍부합니다!

예를 들어, "선생님과 함께"학습하는 방법에서" 선생님"(동의어 대상 변수)은 내가 아는 모든 기계 학습 모델의 공식에서 별도의 변수입니다:

randomForest(as.factor(target ) ~ .,
                                     data   = Train [, - ncol(Train )],
                                     ntree  = ntree,
                                     mtry   = mtry)

여기서 target은 행렬의 별도 열을 나타냅니다. 예를 들어, 가격 상승을 의미합니다. 함수와 그 인수와 같은 것입니다.

행렬의 다른 열은 일치해야 합니다. 문제는 모든 교사가 특징(예측 변수)에 맞는 것은 아니며, 반대로 모든 특징이 특정 교사에게 맞는 것도 아니라는 것입니다.

 
mytarmailS #:

저는 기능 선택에 대해 이야기하고 있습니다.

그리고 " 모델의 일부로서 기능 선택 " 이라고 부르는 것은 분산 중요도입니다. 혼동하지 말고 다른 사람과 혼동하지 마세요.

그리고 프록시 패키지로 하는 일은 장인의 손길로 하는 부정확하고 원시적인 기능 선택이거나 오히려 그 일부에 불과합니다.


그리고 정말로 개념을 숙지하고 기존 개념 위에 자신의 개념을 도입하지 마세요.

재교육을 "오버 피팅"이라고 부를 때마다 나는 경련을 일으키고 그러한 블로퍼가 많이 있기 때문입니다.

명확히 설명해 주셔서 감사합니다!

하지만 분산 중요도 정보를 제공하는 모델도 있고,특징 선택 기능이 내장된 모델도 있기 때문에 절대적인 정확도는 특정 머신러닝 모델에서만 가능합니다.

특징 선택 문제에 대한 일반적인 개념 분류는 다음과 같이 사용할 수 있습니다.


참고로 과적합의 번역은 무엇인가요? 과적합? 아니면 과적합일까요?

 
СанСаныч Фоменко #:

설명해 주셔서 감사합니다!

참고로 오버피팅의 번역은 무엇인가요? 오버피팅? 아니면 오버피팅일까요?

과하게

지나치다.

요점은 그것도 아니고, 수백 명의 다른 사람들 앞에서 그 단어를 사용하는 사람은 당신뿐이고 좋은 것은 아무것도 없으며 혼란스럽다는 것입니다.


==================================================================


함수를 계산하는 데 시간이 오래 걸리고 코드 메모화와 같은 멋진 기능이 있으며 경우에 따라 코드 속도가 많이 빨라지고 느린 f1 () 함수를 f2 ( )로 래핑하고 기억하기 쉬운 함수를 만들기 만하면된다고 말씀하신 것을 기억합니다.

f2 <- memoise::memoise(f1)

큰 이득

microbenchmark::microbenchmark(f1(),f2())
Unit: microseconds
 expr        min         lq       mean     median         uq      max neval
 f1() 145281.202 154547.404 163587.417 160677.641 167757.222 204640.4   100
 f2()    234.342    270.263   1989.096    402.544    413.092 164095.8   100
 
СанСаныч Фоменко #:

오, 가장 현명한 사람!

오, 가장 지식이 많은 사람!

"스승님"

산치, 선생님이 타겟과 동의어라고 적힌 곳은 어디죠? )

 
mytarmailS #:
메모

호기심

 
Maxim Dmitrievsky #:

산치, 어디에서 교사가 타겟과 동의어라고 나와 있나요? )

바보 같은 소리 하지 마세요!

지도 학습은기계 학습의 방법 중 하나로, 테스트 중인 시스템이 자극-반응 예시를 사용하여 강제로 학습하도록 하는 것입니다.사이버네틱스의 관점에서 보면 일종의사이버네틱스 실험이라고 할 수 있습니다. 입력과 기준 출력 ( 자극-반응) 사이에 약간의 의존성이 있을 수 있지만, 이는 알려지지 않았습니다.


그리고 가장 중요한 것은 누구도 가르칠 필요가 없다는 것입니다! 그냥 스스로 해보세요!

 
СанСаныч Фоменко #:

멍청한 짓 하지 마세요!

지도 학습은머신 러닝의 방법 중 하나로, 테스트 중인 시스템이 자극-반응 예시를 사용하여 강제로 학습하도록 하는 것입니다.사이버네틱스의 관점에서 보면 일종의사이버네틱스 실험이라고 할 수 있습니다. 입력과 기준 출력 ( 자극-반응) 사이에 어느 정도 의존성이 있을 수 있지만, 그 정도는 알 수 없습니다.


그리고 가장 중요한 것은 누구도 가르칠 필요가 없다는 것입니다! 그냥 스스로 해보세요!

산치, 어디에 쓰여 있나요?


 
선생님 없이 학습하기 - 동일한 칩을 모두 공급하지만 목표가 있는 열이 없는 경우. 모델은 목표 자체를 선택합니다.
교사와 함께-대상 f-i의 열이 있고 교사없이-이 열이 없으면이 열이 교사라고 가정하는 것이 논리적입니다.
사유: