트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 395

 
박사 상인 :


나는 그 당시에 R을 배우기 시작했을 때 스크립트가 거의 완전히 래틀(R의 데이터 마이닝을 위한 시각적 환경)에서 생성되었습니다. 그래서 모든 경우에 대해 매우 복잡하고 조정되었습니다.


이것

로 교체해야 합니다

그리고 그것은 정상과 같아야 합니다.


일반적으로 잘못된 접근 방식이 있으며 이러한 방식으로 입력의 중요성을 결정할 필요는 없습니다. 웬일인지 그 당시에는 효과가 있었지만 다시는 도움이되지 않았습니다.

더 많은 실험을 ...

은닉층에 1 - 2개의 뉴런을 설정하면 중요한 입력이 여러 번 다릅니다.

152.33 7.82 132.57 12.19 132.86 10.54 135.56 19.16 137.32 14.84 127.36 7.43 11.35 6.66 13.6 10.66 13.6 10.61

10을 설정하면(두 번째 실험에서와 같이) 가중치가 뉴런에 퍼지고 중요한 것과 노이즈가 있는 것을 구별할 수 없습니다.

113963.27, 91026.57, 100833.22, 134980.44, 154190.05, 146455.03, 198703.01, 135775.2, 184353.78, 160766.79, 152433.73, 105753.11, 151673.83, 135421.64, 165343.94, 70277.93, 175038.87, 150342.56, 59153.02, 121012.76 (10 개 뉴런)

분명히 그 논리적 작업에는 1개의 뉴런이 최적입니다.

 
막심 드미트리예프스키 :


그리고 다시 alglib에서 결정 트리를 시도하면 MLP보다 더 빠르고 정확도가 더 좋은 것으로 간주됩니다. Diplerning은 또한 더 빠르게 계산하지만 더 이상 alglib에 없습니다.

가장 중요한 것은 속도/품질 비율, 계산할 때 일주일, 또는 심지어 하루 또는 심지어 한 시간을 기다리는 요점이 무엇인지 .. 그래서 최적의 조합을 결코 찾을 수 없습니다) 모델은 몇 초 동안 훈련되어야합니다. 그런 다음 유전을 사용하여 매개변수 또는 예측자를 자동 선택하면 이것이 진정한 AI이고 그렇지 않으면 쓰레기입니다)

첫 번째 열이 제거되면 더 이상 5%가 아니지만 훨씬 더 나빠집니다...

Forest는 MLP와 거의 동일한 오류를 제공하지만 더 빠르게 계산됩니다.

훈련(60.0%) 세그먼트의 평균 오류 = 0.264(26.4%) nTrees=100 codResp=1
검증(20.0%) 영역의 평균 오류 = 0.828(82.8%) nTrees=100 codResp=1
테스트(20.0%) 플롯의 평균 오차 = 0.818(81.8%) nTrees=100 codResp=1

 
도서관 :

첫 번째 열이 제거되면 더 이상 5%가 아니지만 훨씬 더 나빠집니다...

Forest는 MLP와 거의 동일한 오류를 제공하지만 더 빠르게 계산됩니다.

훈련(60.0%) 세그먼트의 평균 오류 = 0.264(26.4%) nTrees=100 codResp=1
검증(20.0%) 영역의 평균 오류 = 0.828(82.8%) nTrees=100 codResp=1
테스트(20.0%) 플롯의 평균 오차 = 0.818(81.8%) nTrees=100 codResp=1


예, 클래식 MLP는 포리스트에 비해 이점이 없습니다. 적어도 저에게는 포레스트가 항상 속도와 품질 면에서 승리합니다.

그건 그렇고, diplerning은 그것을 가지고 있지 않을 수도 있습니다 .. 스튜디오에서 신경망은 일종의 diplerning의 유사체이기 때문입니다. 거기에는 층이 없지만 순차적으로 각각을 초기화하는 autoencoder와 같은 여러 컨볼루션 네트워크가 있습니다. 기타(적어도 그렇게 쓰여짐), 하지만 결과는 여전히 숲보다 나쁩니다.

 
마이클 마르쿠카이테스 :


뭐라고 대답해야 할지조차 모르겠습니다. 보고서에서 예를 제공하지 않는 한. 최적화의 결과 는 그런 것이고, 여기에서 어떻게 해석하느냐는 모두에게 지대한 일이지만, 최적화가 끝나면 결과는 이렇습니다.

* 일반화 능력의 민감도: 55.12820512820513%

* 일반화 능력의 특이도: 55.5045871559633%

* 일반화 능력: 55.309734513274336%

* 트루포지티브: 129

* 거짓양성: 105

* 트루네거티브: 121

* 거짓음수: 97

* 통계가 있는 샘플 중 총 패턴: 452

나는 일반화 능력의 전체 결과를 빨간색으로 강조 표시했습니다. 첫 번째는 1을 추측한 비율, 두 번째는 0을 추측한 비율, 세 번째는 총계입니다.



Reshetov 분류기는 적어도 MLP보다 더 나은 결과를 제공하고 재교육하지 않습니다. 이것이 장점입니다. 하지만 세트에 걸리는 시간을 계산합니다. 어제는 2시간을 계산했고 오늘은 최대 절전 모드 후 계속해서 .. 기다리고 있습니다. 오류를 비교하기 위해 계산합니다. )

그래도 mql5로 다시 작성하고 여기 OpenCL로 만들어 더 효율적으로 사용하고 싶습니다. 그런 다음 Google 클라우드를 임대하고 Tesla에서 몇 분(초?) 만에 신경망을 계산하거나 Tesla를 500스퍼트에 구매합니다. :) 3000 cuda 코어에서

 
막심 드미트리예프스키 :


Reshetov 분류기는 적어도 MLP보다 더 나은 결과를 제공하고 재교육하지 않습니다. 이것이 장점입니다. 하지만 세트에 걸리는 시간을 계산합니다. 어제는 2시간을 계산했고 오늘은 최대 절전 모드 후 계속해서 .. 기다리고 있습니다. 오류를 비교하기 위해 계산합니다. )

그래도 mql5로 다시 작성하고 여기 OpenCL로 만들어 더 효율적으로 사용하고 싶습니다. 그런 다음 Google 클라우드를 임대하고 Tesla에서 몇 분(초?) 만에 신경망을 계산하거나 Tesla를 500티르에 구입합니다. :) 3000쿠다 코어에서


글쎄, Duc는 모델이 매번 더 복잡해진다는 사실에도 불구하고 그가 재교육을 하지 않는다는 그와 그의 리셉션입니다. 즉, 재학습되지 않은 가장 복잡한(큰) 모델을 얻습니다. Tobish 모델은 운동화 chtoli처럼 더 똑똑합니다. 나는 이미 인텔 제온 수학 보조 프로세서에 대해 생각했지만 200k의 감염 비용이 듭니다. 60개의 코어가 120개의 논리적입니다. 어떻게 하면 5초 만에 모델을 구축할 수 있는지 생각해 보세요. 말그대로 큰 집합이 아니라 이것까지 처리하고 통화 견적과 같은 가장 복잡한 비정상 프로세스에 적합한 모델을 얻을 수 있습니다???? 적절한 모델을 얻으려면 충분한 컴퓨터 시간을 할애해야 합니다. 그러면 모델이 적절하고 더 오래 작동합니다.

마찬가지로 GPU에서 실행하고 싶습니다. 생산성이 최소 10 배 증가하고 이미 좋을 것입니다 .... 아마도 모두 똑같을 것입니다 ???

 
박사 상인 :

중요도 평가 결과는 다음과 같다. 표의 예측 변수는 높을수록 좋습니다. VVolum6, VDel1, VVolum9, VQST10만 테스트를 통과했습니다.

래틀에서는 이 4개의 예측 변수에 대해 한 번에 6개의 모델을 구축할 수 있으며 SVM은 검증 및 테스트 데이터에서 약 55%의 정확도를 보여줍니다. 나쁘지 않다.


글쎄요, 이제 옵티마이저가 계산 중입니다. 언제 끝날지 저도 압니다. 하지만 확실히 그에게 이러한 입력을 보내고 그가 무엇을 제공하는지, 이 모델이 어떻게 될지 ..... 감사합니다!
 
막심 드미트리예프스키 :


Reshetov 분류기는 적어도 MLP보다 더 나은 결과를 제공하고 재교육하지 않습니다. 이것이 장점입니다. 하지만 세트에 걸리는 시간을 계산합니다. 어제는 2시간을 계산했고 오늘은 최대 절전 모드 후 계속해서 .. 기다리고 있습니다. 오류를 비교하기 위해 계산합니다. )

그래도 mql5로 다시 작성하고 여기 OpenCL로 만들어 더 효율적으로 사용하고 싶습니다. 그런 다음 Google 클라우드를 임대하고 Tesla에서 몇 분(초?) 만에 신경망을 계산하거나 Tesla를 500티르에 구입합니다. :) 3000쿠다 코어에서


다시 말하지만, 계산에 몇 개의 코어가 사용됩니까??? 4개의 코어를 100%로 로드했는데 감히 452개 라인의 전체 세트를 실행할 수 없었습니다.
 
마이클 마르쿠카이테스 :

다시 말하지만, 계산에 몇 개의 코어가 사용됩니까??? 4개의 코어를 100%로 로드했는데 감히 452개 라인의 전체 세트를 실행할 수 없었습니다.


간단히 말해서, 나는 병렬화가 있는 최신 버전의 프로그램을 파고 들었습니다. 아직 찾지 못했지만 최신 버전은 첫 번째 버전처럼 작동하지 않습니다. 위원회에는 이미 2개의 신경망이 있습니다. MLP와 저자의 말을 듣고 결과를 받을 때 상호작용을 하고, 저자에 대한 많은 코드가 있습니다 :) 일반적으로 최신 버전에 대한 설명이 있는 곳, 이론?

매우 딱딱한 것이 있는데, 특히 THIS 를 사용합니다. 코드를 공부하는 데 많은 시간을 할애해야 합니다.

저자에게 직접 연락하여 전화를 걸어보십시오. 아마도 그가 직접 병렬화 할 것입니다. 거기 제스처

Метод МГУА для социально экономического прогнозирования, математического моделирования, статистического анализа данных, аналитической оценки систем и программирования.
  • Григорий Ивахненко
  • gmdh.net
Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
 
마이클 마르쿠카이테스 :


글쎄, Duc는 모델이 매번 더 복잡해진다는 사실에도 불구하고 그가 재교육을 하지 않는다는 그와 그의 리셉션입니다. 즉, 재학습되지 않은 가장 복잡한(큰) 모델을 얻습니다. Tobish 모델은 운동화 chtoli처럼 더 똑똑합니다. 나는 이미 인텔 제온 수학 보조 프로세서에 대해 생각했지만 200k의 감염 비용이 듭니다. 60개의 코어가 120개의 논리적입니다. 어떻게 하면 5초 만에 모델을 구축할 수 있는지 생각해 보세요. 말그대로 큰 집합이 아니라 이것까지 처리하고 통화 견적과 같은 가장 복잡한 비정상 프로세스에 적합한 모델을 얻을 수 있습니다???? 적절한 모델을 얻으려면 충분한 컴퓨터 시간을 할애해야 합니다. 그러면 모델이 적절하고 더 오래 작동합니다.

마찬가지로 GPU에서 실행하고 싶습니다. 생산성이 최소 10 배 증가하고 이미 좋을 것입니다 .... 아마도 모두 똑같을 것입니다 ???

그리고 Reshetov Classifier와 그 프로그램에서 여전히 네트워크가 아니라 하나의 뉴런입니까? 아니면 그들은 Reshetovskh 뉴런의 네트워크로 통합되어 있습니까?
 
막심 드미트리예프스키 :


간단히 말해서, 나는 병렬화가 있는 최신 버전의 프로그램을 파고 들었습니다. 아직 찾지 못했지만 최신 버전은 첫 번째 버전처럼 작동하지 않습니다. 위원회에는 이미 2개의 신경망이 있습니다. MLP와 저자의 말을 듣고 결과를 받을 때 상호작용을 하고, 저자에 대한 많은 코드가 있습니다 :) 일반적으로 최신 버전에 대한 설명이 있는 곳, 이론?

매우 딱딱한 것이 있는데, 특히 THIS 를 사용합니다. 코드를 공부하는 데 많은 시간을 할애해야 합니다.

저자에게 직접 연락하여 전화를 걸어보십시오. 아마도 그가 직접 병렬화 할 것입니다. 거기 제스처


작가님께 연락이 오지 않을 것 같아서 이런 저런 글을 썼습니다. 조용한. 그러나 내가 아는 한, 그는 한 번 그 안에서 가능한 모든 것과 평행을 이루었다고 썼습니다. 이것은 정확히 그의 말입니다. 예, 실제로 위원회에서 작동하는 두 개의 그리드에 대한 교육이 있습니다. 나는 이것을 내 기사에 썼다. 둘 다 예라고 표시되면 예, 아니요이면 아니요, 둘 다 일관되지 않게 표시되면 "모릅니다." 최신 버전인지는 모르겠는데 설명은 님이 보내주신 링크인 구글을 기반으로 하고 있습니다. vps 서버에서 버전 3을 실행하고 실망스럽게도 옵티마이저는 하나의 코어만 로드했지만 최신 버전은 모든 코어를 고르게 로드하므로 여전히 병렬화가 있는 것 같습니다. 그것은 작은 경우에 남아 있습니다. 코어 수를 늘리십시오 :-)
사유: