트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1328

 
막심 드미트리예프스키 :

Python이 아닌 R을 펌핑해야 하는 것 같습니다. Renat는 곧 목발이 없는 직접 링크가 있을 것이라고 썼습니다.

저것들. catboost는 mt5에서 1줄로 실행할 수 있습니다.

레나트는 아무 말도 하지 않았다. 선물 - 오히려 일반 라이브러리, 그 이상은 아닙니다.
그는 R을 연결하여 공포-호러에 대해 이야기했습니다. 그랬습니다.
 
알렉세이 니콜라예프 :

구체적으로 알고 계셨나요? 나는 세부 사항없이 "선물"에 대한 그의 메시지 만 보았습니다.

무엇을 더 구체적으로 할 수 있습니까? 확실히 사탕과 쿠키는 아닌 것 같아요

 
막심 드미트리예프스키 :

순수한 연구 목적으로 나는 토끼 구멍의 깊이에 관심이 있습니다.

정의하지 마십시오. pts. 깊고, 얻지도 못하고 보지도 못한다.

막심 드미트리예프스키 :

이것은 많은 사람들에게 이해할 수 없고 이상한 것일 수 있습니다. 그러나 결국에는 표지판, 목표물 및 기타 유치원 게임을 구성하는 이 어리석음 없이 모두 무차별 대입이 될 것입니다. 그런 다음 구현 방법에 대한 세부 사항에 대해서만 논의하고자 할 것입니다.

표지판, 대상 및 하위 샘플과 관련된 모든 것을 논의하고 싶지 않습니다.

나는 "올바른" 무차별 대입에 대한 건전한 아이디어에만 응답할 것입니다.

결과적으로 모든 사람이 무차별적으로 올 것입니다. 그러나 무차별 대입은 모든 종류의 기호, 하위 샘플 등을 통해 최소한 여러 번 줄일 수 있습니다. 많은 문제에서 솔루션의 일부가 이미 알려져 있고 솔루션에 대한 예비 정보가 이미 있으며 적용하면 열거를 크게 줄일 수 있습니다. 실제로 11월 17일에 그렇게 했습니다.)

어느 날 나는 이미 Python으로 된 새로운 것을 시작할 것입니다. 새 버전을 리벳팅할 때입니다.

 
유리 아사울렌코 :

정의하지 마십시오. pts. 깊고, 얻지도 못하고 보지도 못한다.

결과적으로 모든 사람이 무차별적으로 올 것입니다. 그러나 무차별 대입은 모든 종류의 기호, 하위 샘플 등을 통해 최소한 여러 번 줄일 수 있습니다. 많은 문제에서 솔루션의 일부가 이미 알려져 있고 솔루션에 대한 예비 정보가 이미 있으며 적용하면 열거를 크게 줄일 수 있습니다. 실제로 11월 17일에 그렇게 했습니다.)

어느 날 나는 이미 Python으로 된 새로운 것을 시작할 것입니다. 새 버전을 리벳팅할 때입니다.

나는 변이가 무한히 많다고 생각하고 그런 것은 없고 그런 기호가 다른 것보다 낫다고 생각한다 모든 것은 대상에 상대적이다

표지판이 유리나 뉴스 또는 기타 도구로 형성되는 경우 이는 한 가지이지만 경우에 따라 형성된다는 것은 분명합니다. 프로세스 (VR) 다음 이것은 또 다른

 
알렉세이 비아즈미킨 :

예를 들어 어린이 그림의 집이라면 국회는 매우 오랫동안 떼를 지어 다니는 반면 나무는이 물체의 좌표를 빠르게 결정하고 단순히 벡터로 바꿉니다. 하지만 축척을 바꾸면 나무가 더 이상 이 집을 결정할 수 없게 되지만, 그 생각에 따라 국회가 결정해야 한다.

NN은 스케일링을 좋아하지 않습니다. 가격 범위 - 100-120에서 훈련, 가격은 그 이상입니다 - 그게 다야, 단락. 가격과 관련된 모든 것을 가격 자체로 나누고 1을 뺀 다음 계수를 사용하여 변수를 원하는 동적 범위로 이동합니다.

 
막심 드미트리예프스키 :

나는 변이가 무한히 많다고 생각하고 그런 것은 없고 그런 기호가 다른 것보다 낫다고 생각한다 모든 것은 대상에 상대적이다

표지판이 유리나 뉴스 또는 기타 도구로 형성되는 경우 이는 한 가지이지만 경우에 따라 형성된다는 것은 분명합니다. 프로세스 (VR) 다음 이것은 또 다른

예를 들어 MA가 올라가면 공매도하지 않는 것이 좋습니다. 물론 롱은 의심스럽습니다. long에 대한 훈련 샘플은 "가지 않는 것이 좋은 곳"을 제외하기 때문에 즉시 2배 감소합니다. 그러한 모든 종류의 전제 조건을 많이 생각해 낼 수 있으며 여러 가지 훈련(무차별 대입)의 양을 줄일 수 있습니다. 한번. 실제 작업에서도 비슷한 선택을 하는데 NN에 가지 않는 것이 좋은 데이터는 그냥 떨어지지 않는다. 우리는 또한 국회에 헛소리를 하지 않습니다.

 
유리 아사울렌코 :

예를 들어 MA가 올라가면 공매도하지 않는 것이 좋습니다. 물론 롱은 의심스럽습니다. long에 대한 훈련 샘플은 "가지 않는 것이 좋은 곳"을 제외하기 때문에 즉시 2배 감소합니다. 그러한 모든 종류의 전제 조건을 많이 생각해 낼 수 있으며 여러 가지 훈련(무차별 대입)의 양을 줄일 수 있습니다. 한번. 실제 작업에서도 비슷한 선택을 하는데 NN에 가지 않는 것이 좋은 데이터는 그냥 떨어지지 않는다.

글쎄, 이것들은 모두 인위적인 경우입니다. 다른 상황에서는 이러한 조건이 정확히 반대로 충족됩니다.

전문가 평가는 어떤 식으로든 사전 형식으로 추가됩니다. 적절하다면, 그렇지 않으면 요점이 무엇입니까?

 
막심 드미트리예프스키 :

글쎄, 이것들은 모두 인위적인 경우입니다. 다른 상황에서는 이러한 조건이 정확히 반대로 충족됩니다.

이것이 내가 일하는 방식이다. 나는 국회의 어떤 헛소리도 가르치지 않고 시장을 사전 필터링합니다. 국회 없이도 결정할 수 있는데 왜 국회에 짐을 싣나요? NN은 더 간단하고 더 미묘한 작업을 해결하기 위해 리소스가 확보되며 교육 시간이 줄어들지 않으면 교육의 질이 높아집니다.

인공 라마켓 신호에 대한 예비 훈련을 추가로 시도하고 싶습니다. 이것은 그 방향의 다음 단계입니다. 나는 전에 썼다.

 
유리 아사울렌코 :

이것이 내가 일하는 방식이다. 나는 국회의 어떤 헛소리도 가르치지 않고 시장을 사전 필터링합니다. 국회 없이도 결정할 수 있는데 왜 국회에 짐을 싣나요? NN은 더 간단하고 더 미묘한 작업을 해결하기 위해 리소스가 확보되며 교육 시간이 줄어들지 않으면 교육의 질이 높아집니다.

인공 라마켓 신호에 대한 예비 훈련을 추가로 시도하고 싶습니다. 이것은 그 방향의 다음 단계입니다. 나는 전에 썼다.

다시 말하지만, 우리는 다른 접근 방식에 대해 이야기하고 있습니다.

당신은 교사와 함께 훈련을 받았기 때문에 당신은 처음에 먼저 누워, 나는 교사가 없습니다

 
막심 드미트리예프스키 :

다시 말하지만, 우리는 다른 접근 방식에 대해 이야기하고 있습니다.

당신은 교사와 함께 훈련을 받았기 때문에 당신은 처음에 먼저 누워, 나는 교사가 없습니다

선생님 없이도 할 수 있습니다. 나는 이것에 어떤 차이도 보이지 않는다.

몇 개의 if 문으로 해결되는 문제를 학습하고 해결하는 뉴런 무리를 상상해 보십시오.