트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1238

 
산산이치 포멘코 :

rf, xgboost, SVM, GLM, nnet 등 모든 것이 거의 동일합니다.

일부 영역에서는 한 모델이 다른 모델보다 낫고 다른 모델에서는 더 나쁩니다(모든 단위는 퍼센트 단위).

모델의 오류는 실제로 "예측자-대상 변수" 쌍의 오류인 것 같습니다. 어떤 트릭으로도 점프 할 수없는 특정 한계가 있지만 망치기 쉽고 유망한 쌍을 지나칠 수 있습니다

글쎄, 그럼 당신은 너무 많이 귀찮게 할 필요가 없습니다 .. 이제 내 목표는 타사 라이브러리를 통해 alglib 라이브러리 자체를 확인하여 Forest\neural 네트워크가 올바르게 작동하는지 또는 반대로 어리석게 작동하는지 확인하는 것입니다. 구현

아마도 구현에 대해 걱정하고 있으며 실제로 규범을 준수해야만 상당히 개선할 수 있습니다. 모델 또는 현재 명확하지 않은 기타 뉘앙스

 
막심 드미트리예프스키 :

미리 열의 수를 모릅니다. 그리고 내부에 동적 배열 이 있는 구조의 배열은 파일에 기록되지 않습니까? ) 일반적으로 어떤 종류의 솔기 ..

열 수를 미리 알 수 없는 2차원 배열을 저장하기만 하면 됩니다.

동적 배열은 FileWriteArray() 로 작성되지 않습니다.

파일을 열고 배열을 한 줄씩 수집하여 구분 기호 ","가 있는 문자열로 만든 다음 각 줄을 .csv 파일에 쓰는 옵션으로 파일에 요소별로 배열 요소만 쓰는 것을 의미합니다.

 
이고르 마카누 :

동적 배열은 FileWriteArray() 로 작성되지 않습니다.

파일을 열고 배열을 한 줄씩 수집하여 구분 기호 ","가 있는 문자열로 만든 다음 각 줄을 .csv 파일에 쓰는 옵션으로 파일에 요소별로 배열 요소만 쓰는 것을 의미합니다.

네, 괜찮습니다. 시도해 보겠습니다.

 
1D 대칭 ARCH, GARCH, GARCH-M, IGARCH, 1D 비대칭 GJR, EGARCH, 다차원 VECH, 대각선 VECH, BEKK는 모두 변동성 모델입니다.
 
드미트리 :

2년 전 나는 여기 막심카에게 국회는 핵폭탄 같은 장난감이라고 썼다. 다른 모델이 최소한 만족스러운 결과를 제공한다면 NN을 사용하지 않는 것이 좋습니다. 보이지 않는 것을 발견하고 이에 대해 아무 것도 할 수 없습니다.

나무도 좋지만 숲을 이용하는 것이 좋습니다.

2년 전부터 이 쓰레기에 관심을 갖기 시작했다) 그 다음 1년 동안 버리고 지금 다시

하지만 지금은 많은 새로운 단어를 알고 있습니다

 
막심 드미트리예프스키 :

2년 전부터 이 쓰레기에 관심을 갖기 시작했다) 그 다음 1년 동안 버리고 지금 다시

하지만 지금은 많은 새로운 단어를 알고 있습니다

또한 맞습니다.

 
Alexander_K2 :

동의하지 않겠습니다.

현재 프로그래머/코더 중 가장 강력한 것은 인디언입니다. 농담이 아닙니다. 다양한 프로젝트에서 그들과 함께 일하는 영광을 누렸습니다.

따라서 나는 NeuroGrail 찾기 위한 마지막 희망을 인도에서 Max 및 그의 와드와 연결합니다. 그들은 함께 시장을 해킹할 것이고, 힌두교는 본질적으로 깊은 종교적인 사람이고 고통에 대한 연민으로 가득 차서 어리석게도 그것을 모든 사람에게 분배할 것입니다.

NS 크톨리?

Forex는 생성 당시 뉴런을 사용할 수 없었습니다. 컴퓨터가 약했다

그리고 아시다시피-그들은 쐐기로 쐐기를 두드립니다.

46년 역사를 확인하다

전공은 여전히 태어날 때와 똑같이 존재합니다. 즉, 모든 것이 오늘날까지 간단합니다.

그러나 나는 거래에 십자가를 사용하는 것을 권하지 않습니다. 완전한 마무리가 있습니다 ... 그리고 5-sign도 그들의 영혼에 따라 나타났습니다 ...

성배 는 모든 사람의 뇌에 있으며 뉴런이 충분합니다.

다시 한 번 - 눈, 눈, 그리고 나서야 수학적 결론과 공식, 그리고 그들 자신의 것, 왜냐하면. 아무도 충실하지 않습니다 ...

읽을 수 있는 것은 대체로 동일한 기능을 사용하려는 시도뿐입니다. 하나의 라인 또는 + 계수 + 평균을 사용하여 x 또는 y 축의 발전 정도입니다. 모든 것이 유토피아입니다.

 

누가 이미 끝났습니까 .. 오, 죄송합니다. R 및 Python으로 작업하는 방법을 배웠습니다. 이 세트에서 뭔가를 가르칠 수 있습니까? 내가 부스트를 다루는 동안 :)

어떤 비율로든 독립적으로 train\test로 나눕니다. 다른 모델의 테스트에서 오류를보고 콩과 비교하는 것이 흥미 롭습니다.

데이터 세트 작은 600개 행

파일:
 
막심 드미트리예프스키 :

누가 이미 끝났습니까 .. 오, 죄송합니다. R 및 Python으로 작업하는 방법을 배웠습니다. 이 세트에서 뭔가를 가르칠 수 있습니까? 내가 부스트를 다루는 동안 :)

어떤 비율로든 독립적으로 train\test로 나눕니다. 다른 모델의 테스트에서 오류를보고 콩과 비교하는 것이 흥미 롭습니다.

데이터 세트 작은 600개 행

데이터 세트는 매우 작으며 정확도는 약 55%(+ -3%)입니다.

 
성배 :

데이터 세트는 매우 작으며 정확도는 약 55%(+ -3%)입니다.

나는 수업이 적다. 오류 0.14\0.4

사유: