트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 494

[삭제]  
유리 아사울렌코 :

Haykin 이론 Neural networks and Bishop 영어로 읽기 - 번역은 없지만 준비 중인 것 같습니다.

예, 모든 것이 간단합니다. 입력은 무작위 트랜잭션이고 출력은 결과입니다. 몬테카를로 방식이라고 하는데 아주 좋습니다. 자체가 빠르지 않습니다. 그리고 체계화는 국회 자체의 문제다.


글쎄요, 국회 자체에 특별한 이름이 있나요? 확률적 어닐링 방법 에 기반한 신경망이 교사와 함께 또는 교사 없이 어떻게 학습하고 출력 대신 입력을 최적화하는지 명확하지 않습니다. :)) 나는 책을 읽고,

Khaykin "NS 풀 코스 두 번째 에디션." 러시아어로 되어있다

 
막심 드미트리예프스키 :

글쎄요, 국회 자체에 특별한 이름이 있나요? 확률적 어닐링 방법에 기반한 신경망이 교사와 함께 또는 교사 없이 어떻게 학습하고 출력 대신 입력을 최적화하는지 명확하지 않습니다. :)) 나는 책을 읽고,

Khaykin "NS 풀 코스 두 번째 에디션." 러시아어로 되어있다

Khaykin이 있고 러시아어에는 Bishop이 없습니다.

NS - 일반적인 MLP, 훈련 - 일반적인 BP, 플레이 중 정기적인 수동 재구성만 가능합니다. 이러한 재구성을 수행하지 않거나 단순히 샘플을 혼합하면 매우 빠르게 학습하지만 훈련 시퀀스에서만 잘 작동합니다(훌륭합니다).

[삭제]  
유리 아사울렌코 :

Khaykin이 있고 러시아어에는 Bishop이 없습니다.

NS - 일반적인 MLP, 훈련 - 일반적인 BP, 플레이 중 정기적인 수동 재구성만 가능합니다. 이러한 재구성을 수행하지 않거나 단순히 샘플을 혼합하면 매우 빠르게 학습하지만 훈련 시퀀스에서만 잘 작동합니다(훌륭합니다).


그리고 Khaikin에는 정크가 있습니다 :) 지금은 그냥 지나갈 것입니다. 즉, 항상 기사와 모델 설명으로 제한했습니다. 책에는 불필요한 것들이 많이 있습니다 (판매용 볼륨이있을 수 있도록)

 
막심 드미트리예프스키 :

그리고 Khaikin에는 정크가 있습니다 :) 지금은 그냥 지나갈 것입니다. 즉, 항상 기사와 모델 설명으로 제한했습니다. 책에는 불필요한 것들이 많이 있습니다 (판매용 볼륨이있을 수 있도록)

글쎄, 나는 말하지 않을 것이다. 이론은 결코 늙지 않습니다. 그러나 주제에 대한 깊은 이해가 있습니다. 물론 기사는 그렇습니다. 그러나 일반 이론이 없으면 잘 이해되지 않으며 단순히 피상적이고 무비판적으로 인식됩니다.
[삭제]  
알료샤 :

거짓 진술. 보통의 숲과 외삽의 부스트도 NS와 다르지 않다.


  • 모델은 보간만 할 수 있지만 외삽은 할 수 없습니다(숲과 나무의 부스팅도 마찬가지입니다). 즉, 결정 트리는 훈련 샘플의 모든 객체를 포함하는 평행 육면체 외부의 특징 공간에 위치한 객체에 대해 일정한 예측을 합니다. 노란색과 파란색 공이 있는 예제에서 이는 모델이 좌표가 > 19 또는 < 0인 모든 공에 대해 동일한 예측을 제공함을 의미합니다.

내가 접하지 않을 모든 기사에서 그들은 같은 것을 씁니다.

https://habrahabr.ru/company/ods/blog/322534/


  • 의사 결정 트리와 마찬가지로 알고리즘은 외삽이 불가능합니다.
 
막심 드미트리예프스키 :

  • 모델은 보간만 할 수 있지만 외삽은 할 수 없습니다(숲과 나무의 부스팅도 마찬가지입니다). 즉, 결정 트리는 훈련 샘플의 모든 객체를 포함하는 평행 육면체 외부의 특징 공간에 위치한 객체에 대해 일정한 예측을 합니다. 노란색과 파란색 공이 있는 예제에서 이는 모델이 좌표가 > 19 또는 < 0인 모든 공에 대해 동일한 예측을 제공함을 의미합니다.

내가 접하지 않을 모든 기사에서 그들은 같은 것을 씁니다.

https://habrahabr.ru/company/ods/blog/322534/


  • 의사 결정 트리와 마찬가지로 알고리즘은 완전히 외삽할 수 없습니다.

교육을 제대로 받지 못한 사람들이 쓴 헛소리. 그들은 과적합에 대해 들어본 적도 없고, 데이터 마이닝에 대해 알지도 못하고, 노이즈 예측기에 대해 들어본 적도 없고, 모델을 평가하는 방법도 모릅니다. 마인드 게임을 하는 일종의 무성한 속물일 뿐입니다.

[삭제]  
산산이치 포멘코 :

교육을 제대로 받지 못한 사람들이 쓴 헛소리. 그들은 과적합에 대해 들어본 적도 없고, 데이터 마이닝에 대해 알지도 못하고, 노이즈 예측기에 대해 들어본 적도 없고, 모델을 평가하는 방법도 모릅니다. 마인드 게임을 하는 일종의 무성한 속물일 뿐입니다.


그리고 이 모든 것이 외삽에 관한 한 ..

alglib 라이브러리에서 RF를 작성한 사람들도 교육 수준이 낮은 사람들입니까?

그리고 r 블로거도 무지합니다.

https://www.r-bloggers.com/extrapolation-is-tough-for-trees/

Extrapolation is tough for trees!
Extrapolation is tough for trees!
  • Peter's stats stuff - R
  • www.r-bloggers.com
This post is an offshoot of some simple experiments I made to help clarify my thinking about some machine learning methods. In this experiment I fit four kinds of model to a super-simple artificial dataset with two columns, x and y; and then try to predict new values of y based on values of x that are outside the original range of y. Here’s the...
[삭제]  

FA를 제외한 모든 무시

FA 만

;))

[삭제]  
올렉 자동판매기 :

FA를 제외한 모든 무시

FA 만

;))


이것은 사람들이 원리를 이해하지 않고 ML을 사용하는 방법이며 아무 것도 작동하지 않는다고 말합니다. 지난 기사에서 RF가 외삽할 수 없다는 것이 명백하므로 친숙한 데이터에서만 작동해야 합니다.

[삭제]  
알료샤 :

아아, 그들은 틀렸고 이것은 "무식한 사람"과 속물뿐만 아니라 다층 퍼셉트론의 "무익함"에 관한 Minsky와 그의 권위있는 의견을 기억하십시오)))

나는 일반적으로 Habré에 관한 기사에 대해 침묵합니다. 그것은 포럼에 스터핑, 99.9% 좋은 팝 광고, 솔직한 쓰레기 0.1%의 합리적인 생각을 암묵적인 형태로 "라인 사이"에 넣습니다.

R에 있는 사람이 예를 들었는데 어디에서 실수를 했습니까? 불행히도 R을 사용하지 않지만 직접 재현할 수도 있습니다.