트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 406

 
막심 드미트리예프스키 :
나는 경쟁을 주선 할 것을 제안합니다. MO 모델의 경우 모델은 자체 제작 된 것일 수도 있습니다. 이것은 전혀 요점이 아닙니다 .. 가장 중요한 것은 훈련 / 가중치 선택 / 최적화 요소가 있다는 것입니다. 데모를 즐길 수 있습니다. 이것은 작동하는 것과 작동하지 않는 것에 대한 쓸데없는 논쟁에 휘말리지 않기 위함입니다. :) 음, xy에서 xy가 즉시 명확해질 것입니다. 누가 MO가 시장에서 어떻게 사용될 수 있는지 정말로 이해하고 누가 그냥 이야기하는지 :)

이미 그런 시도가 있었던 것 같은데, 참여자 톡톡 이 스레드 어딘가에 게시되었습니다.   원시 데이터가 포함된 데이터 세트이지만 두뇌를 켜고, 데이터를 수정하고, 정리하고, 기능을 선택하고, 분류하고, MO에 대해 철학화하거나 내부 분쟁에서 탄식해야 합니다. 특히 퇴근 후 저녁에 더 쉽고 재미있습니다. 파수꾼으로. 그래서 사람들은 그러한 주도권을 긴장하고 무시할 것이고 당신은 수치를 당할 수 있습니다.

당신의 남성다움을 증명하고 싶다면 숫자로 운을 시험해 보십시오. ai , 지금까지는 DR -T R 그리고 마법사 거기에서 몇 달러를 벌었습니다.

 
이반 네그레쉬니 :

방해해서 죄송합니다. 질문은 저를 위한 것이 아닌 것 같았지만 제 생성기로 시도하는 것이 흥미로워졌습니다. 작업은 MQL 소스 코드에서 1초 미만의 찰나 의 순간에 해결됩니다. 트리 및 R 없음 . 소스 코드가 너무 커서 작업 중이지만 모든 것이 자동입니다.


나는 기억했다: "그리고 그의 강력한 가슴에는

메달 한 뭉치에 매달려… "

무슨 뜻이었습니까?

 
블라디미르 페레르벤코 :

나는 기억했다: "그리고 그의 강력한 가슴에는

메달 한 뭉치에 매달려… "

무슨 뜻이었습니까?

나는 숨막히는 힙, 제목 및 레 갈리아에 대해 Fortran에서 더 자주 쓰고, 힘이 없으면 R에서 ...
[삭제]  
블라디미르 페레르벤코 :

나는 기억했다: "그리고 그의 강력한 가슴에는

메달 한 뭉치에 매달려… "

무슨 뜻이었습니까?


이 모델은 Plyushchikha에서 임의의 포플러라고 불립니다.
 
막심 드미트리예프스키 :

이 모델은 Plyushchikha에서 임의의 포플러라고 불립니다.

이 주제는 처음에 원시 작업이 하나의 나무에 설정되어 있는 Plyushchikh의 정의에 딱 들어맞기 때문에 옳습니다.

그리고 나중에 많은 페이지에서 많은 과학적 보고서와 스크린샷에서 이 작업에 대한 지칠 줄 모르는 토론이 있습니다.

미안하지만, 나는 누군가에게 환상을 박탈하고 싶지 않습니다 ...

 
여러분, 말도 안되는 소리하지 말고 이 훈련, 기계 및 과학을 포기하고 성격과 의지를 훈련시키십시오. 거래는 1과 0이 아니라 강철의 달걀입니다.
 
바실리 페레펠킨 :
여러분, 말도 안되는 소리하지 말고 이 훈련, 기계 및 과학을 포기하고 성격과 의지를 훈련시키십시오. 거래는 1과 0이 아니라 강철의 달걀입니다.

당신은 한때 MO를 이해하지 못한다고 말했습니다. 문제. 무엇을 잊고 있습니까???? 이 스레드를 의미합니다 ...
 
이반 네그레쉬니 :

아마도 그것은 거칠고 잔인한 사람들을 위한 길이고 겸손한 지식인을 위한 길이 있을 것입니다...

불행하게도, 오직 쿨하고 잔인한 남자들만이 흑인이며, 그들은 그들이 버는 것과 동일한 2-3%이고, 나머지는 모두 그들에게 고갈됩니다. 당신은 당신의 성격을 훈련하고, 스포츠에 참여하고, 사람들과 의사 소통하고, 정치인 및 대기업과의 접촉을 구축하고, 모델 및 예측에 자위하지 않아야합니다. 내부자를 제외하고는 아무도 미래를 알 수 없으며 수학 및 프로그래밍을 통해 내부자가되지 않습니다.
 
마이클 마르쿠카이테스 :

당신은 한때 MO를 이해하지 못한다고 말했습니다. 문제. 무엇을 잊고 있습니까???? 이 스레드를 의미합니다 ...
나는 길을 잃은 당신과 다른 사람들과 추론하려고합니다
[삭제]  
이반 네그레쉬니 :

이 주제는 처음에 원시 작업이 하나의 나무에 설정되어 있는 Plyushchikh의 정의에 딱 들어맞기 때문에 옳습니다.

그리고 나중에 많은 페이지에서 많은 과학적 보고서와 스크린샷에서 이 작업에 대한 지칠 줄 모르는 토론이 있습니다.

미안하지만, 나는 누군가에게 환상을 박탈하고 싶지 않습니다 ...


다양한 ML 모델의 성능을 비교한 적이 있는데 왜 의사결정나무를 선택했나요? 나는 그들에 대해 가장 작은 오류를 얻습니다. 나는 이미 위에서 이것에 대해 썼습니다.