트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1966

 
막심 드미트리예프스키 :

python으로 전환하십시오. 예를 들어 드리겠습니다. 사용할 수 있습니다.

포럼에서 토론할 이유가 없습니다. tk. RL 테마는 엔트리 레벨과 거리가 멉니다.

내가 책을 다 읽었을 때, 나는 물어볼 것이다.)))) 분명히 그는 거래 전의 일, 그 달의 요일과 관련된 시간, 증분 지연을 기억한다. 고전에는 이전 거래의 분석을 기반으로 한 전략이 있습니다.

 
막심 드미트리예프스키 :

python으로 전환하십시오. 예를 들어 드리겠습니다. 사용할 수 있습니다.

포럼에서 토론할 이유가 없습니다. tk. RL 테마는 엔트리 레벨과 거리가 멉니다.


이메일을 보내주시겠어요?

eugen420@gmail.com

 
예브게니 가브릴로비 :


이메일을 보내주시겠어요?

그에게만, 나머지는 돈을 위해

 
막심 드미트리예프스키 :

python으로 전환하십시오. 예를 들어 드리겠습니다. 사용할 수 있습니다.

포럼에서 토론할 이유가 없습니다. tk. RL 테마는 엔트리 레벨과 거리가 멉니다.

해볼게..

 
mytarmailS :

해볼게..

유튜브에서 소개 영상을 찾아보세요. R과 동일하지만 고유한 특성만 있습니다. 전환에 문제가 없어야 합니다. 그러나 MT5에서 견적을 받아 거래를 열 수 있습니다.
 
막심 드미트리예프스키 :
유튜브에서 소개 영상을 찾아보세요.

네, 그게 제가 하는 일입니다))

 
mytarmailS :

네, 그게 제가 하는 일입니다))

매뉴얼이 오류 없이 작성되면 이해가 더 빨라질 것입니다.

클러스터 레이어는 코호넨 벡터 양자화( LVQ ) 신경망입니다. 클러스터 계층은 표준 LVQ 알고리즘에 따라 수상돌기의 결과를 그룹화합니다. LQV 는 비지도 학습을 온라인으로 구현한다는 점을 상기하십시오.

첫째, 약어의 글자가 뒤섞여 있습니다 (정확한 LVQ), 둘째, 이것은 교사와 함께 가르치는 방법입니다

그리고 교사가 없는 방법을 VQ(벡터 양자화)라고 하며 LVQ가 아니라 뉴런에 있을 가능성이 큽니다.


LQV 서브넷은 LQV 뉴런의 마지막 출력에 대한 메모리 형태로 이전 입력의 메모리를 유지한다는 점에 유의하는 것이 중요합니다. 따라서 입력에 직접 제공된 것보다 더 많은 정보가 신경망에 제공되었습니다.

아직 이해가 되지 않습니다. 아마도 뉴런으로 돌아가는 서브넷 출력의 이러한 연결을 의미합니다. 그들은 단지 과거 행동에 대한 정보를 유지합니다

저것들. 메모리는 LQV 서브넷을 저장합니다.


 
막심 드미트리예프스키 :

매뉴얼이 오류 없이 작성된다면 이해가 더 빨라질 것입니다.

클러스터 레이어는 코호넨 벡터 양자화( LVQ ) 신경망입니다. 클러스터 계층은 표준 LVQ 알고리즘에 따라 수상돌기의 결과를 그룹화합니다. LQV 는 비지도 학습을 온라인으로 구현한다는 점을 기억하십시오.

첫째, 약어의 글자가 뒤섞여 있습니다 (정확한 LVQ), 둘째, 이것은 교사와 함께 가르치는 방법입니다

그리고 교사가 없는 방법을 VQ(벡터 양자화)라고 하며 LVQ가 아니라 뉴런에 있을 가능성이 큽니다.

xs .. 4번 읽었는데 이해가 안가서 선생님이 있을수도 있어요 - 강화?

+ 여전히 레이어의 투표가 있습니다.

막심 드미트리예프스키 :

LQV 서브넷은 LQV 뉴런의 마지막 출력에 대한 메모리 형태로 이전 입력의 메모리를 유지한다는 점에 유의하는 것이 중요합니다. 따라서 입력에 직접 제공된 것보다 더 많은 정보가 신경망에 제공되었습니다.

아직 이해가 되지 않습니다. 아마도 뉴런으로 돌아가는 서브넷 출력의 이러한 연결을 의미합니다. 그들은 단지 과거 행동에 대한 정보를 유지합니다

저것들. 메모리는 LQV 서브넷을 저장합니다.

글쎄요, LQV 의 메모리는 LQV 뉴런의 마지막 출력 형태로 되어있지만 이것이 제가 이해하는 방법은 메모리가 한 걸음 뒤로 물러난 것뿐입니다.

그러나 찻주전자와 커피에 대한 이 환상적인 비유는 어떻습니까? 이것이 전체 성배..


그는 당신에게 그런 문자를하지 않았다?

젠장, 그들이 이것을 가르치는 곳이 흥미 롭습니다. 이미 사이버네틱스, 로봇 공학, AI ...

DataScientists는 이 기술 연구소의 물리적 교사일 뿐입니다.)))


===================================================== ============

동적 LVQ - dlvq도 있습니다.

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

세부

dlvq : DLVQ를 사용하려면 입력을 정규화해야 합니다.

DLVQ 교육: 각 클래스에 대해 평균 벡터(프로토타입)가 계산되어 (새로 생성된) 숨겨진 모듈에 저장됩니다. 그런 다음 네트워크는 가장 가까운 프로토타입을 사용하여 각 패턴을 분류하는 데 사용됩니다. 템플릿이 클래스 x 대신 클래스 y로 잘못 분류되면 클래스 y의 프로토타입이 템플릿에서 멀어지고 클래스 x의 프로토타입이 템플릿 쪽으로 이동됩니다. 이 절차는 분류에 더 이상 변경 사항이 없을 때까지 반복됩니다. 그런 다음 새 프로토타입이 새 은닉 유닛으로 각 클래스의 네트워크에 주입되고 해당 클래스에서 잘못 분류된 템플릿의 평균 벡터로 초기화됩니다.

네트워크 아키텍처: 네트워크에는 각 프로토타입에 대해 하나의 유닛을 포함하는 하나의 은닉 레이어만 있습니다. 프로토타입/히든 블록은 코드북 벡터라고도 합니다. SNNS는 자동으로 단위를 생성하고 미리 단위 수를 지정할 필요가 없기 때문에 SNNS의 절차를 동적 LVQ라고 합니다.

기본 초기화, 학습 및 업데이트 기능은 이러한 유형의 네트워크에 적합한 유일한 기능입니다. 학습 기능의 세 가지 매개변수는 평균 벡터를 계산하기 전에 두 가지 학습률(정확한/잘못 분류된 경우)과 네트워크가 훈련하는 주기 수를 결정합니다.

연결

코호넨, T.(1988), 자기조직화와 연상기억 , Vol.   8, Springer-Verlag.



===================================================== ======


젠장, 이 LVQ에 대해 읽고 있어, 선생님만 있으면 거의 같은 코호넨(SOM)이야

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

 

대상을 참조하여 디지털 시리즈를 양자화하는 문제는 누가 해결했습니까? 필자의 경우 이 불균일한 "양자화"(범위의 최소 자릿수 또는 숫자로 표시되는 창 자체에 제한이 있는 대상에 대한 자동 튜닝 프로세스)는 아직 결정되지 않았습니다.

CatBoost 를 사용한 실험에 따르면 양자화(일부 경우 최대 15% akurasi)가 결과에 영향을 줍니다.

 
알렉세이 비아즈미킨 :

대상을 참조하여 디지털 시리즈를 양자화하는 문제는 누가 해결했습니까? 필자의 경우 이 불균일한 "양자화"(범위의 최소 자릿수 또는 숫자로 표시되는 창 자체에 제한이 있는 대상에 대한 자동 튜닝 프로세스)는 아직 결정되지 않았습니다.

CatBoost를 사용한 실험에 따르면 양자화(일부 경우 최대 15% akurasi)가 결과에 영향을 줍니다.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

목표를 고려한 이산화(양자화) 패키지

사유: