트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2621

 
mytarmailS # :
PonyGE2 python용 패키지가 있지만 Rke에서 하기 때문에 그 안에 무엇이 들어 있고 어떻게 하는지는 말하지 않겠습니다.
내가 어리석게 이름을 엉망으로 만든 것
문법 진화 또는 기호 회귀
 
Valeriy Yastremskiy # :
이벤트/규칙의 순서는 효율적이지만 각 규칙에는 차원이 있고 긴 순서에는 저주가 있습니다.
이 접근 방식의 장점은 사용자가 제어할 수 있다는 것입니다.
조건을 설정했는데 예를 들어 규칙이 200번 이상 반복되어야 하며 차원의 저주가 없습니다.
 
mytarmailS # :
내가 어리석게 이름을 엉망으로 만든 것
문법 진화 또는 기호 회귀
상징적 회귀, 예
 
편향과 분산 사이의 트레이드오프에서 상징적 회귀는 분산을 증가시키는 쪽으로 크게 편향된 것으로 보입니다. 물론 이것이 거절 사유가 되는 것은 아니지만, SB와 가격이 가까움으로 인해 문제가 생길 수 있다.
 
Aleksey Nikolayev # :
편향과 분산 사이의 트레이드오프에서 상징적 회귀는 분산을 증가시키는 쪽으로 크게 편향된 것으로 보입니다. 물론 이것이 거절 사유가 되는 것은 아니지만, SB와 가격이 가까움으로 인해 문제가 생길 수 있다.

이것은 규칙을 생성할 수 있는 프레임워크일 뿐입니다. 제 제안에는 가격, 근사, 회귀에 대한 내용이 없습니다.

 
mytarmailS # :

네, 적어도 천 모델, 마지막 10개의 양초를 보면 모든 곱창이 있는 GPT-3이더라도 쓸모없는 불결함입니다.

발전기가 있고 구현 및 전원이 없습니다..

내 5 캅. - 훈련 시 비반복 뉴런(막대)의 가중치가 흐려집니다. 체중에 영향을 미치는 것은 가장 일반적으로 확인된 뉴런에 남아 있습니다. 저것. 고정된 수의 막대로 중요한 막대에만 가중치가 있습니다. 일종의 피규어.

 
Dmytryi Voitukhov # :

내 5 캅. - 훈련 시 비반복 뉴런(막대)의 가중치가 흐려집니다. 체중에 영향을 미치는 것은 가장 일반적으로 확인된 뉴런에 남아 있습니다. 저것. 고정된 수의 막대로 중요한 막대에만 가중치가 있습니다. 일종의 피규어.

새벽 3시, 드미트리 뭐해?)
 
Dmytryi Voitukhov # :

내 5 캅. - 훈련 시 비반복 뉴런(막대)의 가중치가 흐려집니다. 체중에 영향을 미치는 것은 가장 일반적으로 확인된 뉴런에 남아 있습니다. 저것. 고정된 수의 막대로 중요한 막대에만 가중치가 있습니다. 일종의 피규어.

마찬가지로 나무에서. 예를 들어, 100개의 기능/막대 중 5-10개의 상단 분할은 몇 가지 중요한 기능을 선택하고 나머지는 사용하지 않습니다. 트리를 끝까지 나누면 마지막 분할(및 사용된 기능/막대)이 전체 결과를 거의 변경하지 않습니다. 저것들. 결과는 국회에서와 거의 동일하지만 더 빠르게 계산됩니다.
 
그러나 어떤 사람이 ML에 좋은 것과 나쁜 것을 거래하고 제공한다면 어떻게 될까요?
 
BillionerClub # :
그러나 어떤 사람이 ML에 좋은 것과 나쁜 것을 거래하고 제공한다면 어떻게 될까요?

Normul 아이디어는 나에게 보이는 것처럼 여기에서 중요합니다.

- 더 많은 통계를 얻으려면.

- 한 사람이 한 가지(하나의 시스템)를 거래하려면.

- 객관성을 유지하고 체계적으로 거래하다.


이 경우 좋은 마크업을 얻을 수 있으므로 정상적인 이점을 얻을 수 있다고 생각합니다.

사유: