트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 607

 
마법사_ :

DAO에 대한 지식에 대해 이야기합시다, uh, TAU))))


아니, 아니.. DAO밖에 없어...

 
마법사_ :

패키지 learningCurve, R, 학습 곡선.

뉴런의 수를 계산하는 데 어떻게 도움이 될까요?
 
도서관 :
뉴런의 수를 계산하는 데 어떻게 도움이 될까요?

오류가 급격히 떨어지는 것을 멈추면 훈련을 중단하십시오. :)

 
막심 드미트리예프스키 :

오류가 급격히 떨어지는 것을 멈추면 훈련을 중단하십시오. :)

이미 정의된 구조로 네트워크를 훈련하고 오류를 볼 수만 있습니다. 그리고 먼저 구조를 정의해야 합니다. 이미 오류를 관찰할 수 있는 뉴런의 수입니다.

저것들. 문제는 훈련 전 learningCurve가 최적의 뉴런 수를 결정하는 데 어떻게 도움이 되는지입니다.

글쎄, 또는 다른 방법.

 
도서관 :

이미 정의된 구조로 네트워크를 훈련하고 오류를 볼 수만 있습니다. 그리고 먼저 구조를 정의해야 합니다. 이미 오류를 관찰할 수 있는 뉴런의 수입니다.

저것들. 문제는 훈련 전 learningCurve가 최적의 뉴런 수를 결정하는 데 어떻게 도움이 되는지입니다.

글쎄, 또는 다른 방법.


거기에서 숫자는 더 이상 중요하지 않다는 것이 밝혀졌습니다. 오류가 더 이상 떨어지지 않을 때 훈련이 중지되고 재훈련이 발생하지 않습니다. 저것들. 뉴런은 분명히 많은 수

내가 올바르게 이해했다면.

 
마법사_ :

DAO에 대한 지식에 대해 이야기합시다, uh, TAU))))


인지의 상대성은 많은 이유와 관련이 있으며, 그 중 우선 동일한 현상에 대한 인식 및 이해의 행동에 대한 의식의 다른 준비를 언급해야 하며, 이는 인식의 일관성 없는 결과(반응, 의사 결정, 행동 등).

 
막심 드미트리예프스키 :

거기에서 숫자는 더 이상 중요하지 않다는 것이 밝혀졌습니다. 오류가 더 이상 떨어지지 않을 때 훈련이 중지되고 재훈련이 발생하지 않습니다. 저것들. 뉴런은 분명히 많은 수

내가 올바르게 이해했다면.

이른 정류장입니다. learningCurve 패키지와 아무런 관련이 없습니다.

Early Stopping 방식에서는 네트워크 복잡도가 최적값에 도달하는 순간 훈련을 멈춥니다. 이 순간은 유효성 검사 오류의 시간 동작으로 추정됩니다. ...

그러나 여기에는 약점도 있습니다. 너무 큰 네트워크는 비선형성이 아직 완전히 나타나지 않은 초기 단계에서 훈련을 중지합니다. 저것들. 이 기술은 약한 비선형 솔루션을 찾는 데 어려움이 있습니다.

마법사_ :

버그(2개).

자세히 적어주세요. learningCurve가 네트워크의 뉴런 수를 결정하는 데 어떻게 도움이 됩니까?

 

나는 정규화에 대해 아무 말도 할 수 없으며 실험하지 않았습니다.

그러나 조기 중단은 과적합으로 이어집니다. 이미지 인식에서는 테스트 데이터와 훈련 데이터가 매우 유사하기 때문에 여전히 롤링됩니다. 이 때문에 종종 책과 기사에서 권장됩니다. 그러나 이것은 Forex에 적합하지 않습니다.


k-fold 교차 검증을 배우는 것이 좋습니다. 나는 여러 가지 다른 방법을 보았지만 이것이 잘 작동합니다 -

우리는 다섯 가지 접기를 사용할 것입니다. 훈련 테이블에 1000개의 행이 있다고 가정해 보겠습니다.

1) 우리는 201-1000행에서 모델을 훈련합니다. 이것이 뉴런이라면 조기 중단 없이 높은 정확도를 달성하기에 충분한 특정 에포크(epoch) 수를 뉴런에게 가르칩니다. 행 1-200을 예측합니다.
2) 우리는 모델을 다시 훈련합니다. 이제 1-200 라인에서 401-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 201-400행을 예측합니다.
3) 우리는 모델을 다시 훈련합니다. 이제 1-400 라인에서 601-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 401-600행을 예측합니다.
4) 모델을 다시 훈련합니다. 이제 1-600 라인에서 801-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 601-800행을 예측합니다.
5) 우리는 모델을 다시 훈련합니다. 이제 라인 1-800에서 동일한 모델 매개변수와 일반적으로 모든 동일한 설정을 사용합니다. 우리는 801-1000행을 예측합니다.

결과적으로 동일한 매개변수에 대해 동일한 학습 알고리즘으로 생성된 5개의 모델이 있습니다. 그리고 각각 모델에 대해 알려지지 않은 데이터를 기반으로 한 5개의 예측.
예측이 있는 5개의 배열이 서로 끝에 추가되어 길이가 1000인 긴 배열 하나를 얻고 R2 함수와 같은 실제 데이터와 비교하여 평가합니다. 이것은 우리의 모델, 우리가 배우는 방식 및 그 모든 것에 대한 평가가 될 것입니다.
그런 다음 이 모든 단계(5개 모델 학습, 각 모델에 고유한 5개 조각 예측, 병합, R2)를 수행할 때마다 모델 매개변수(활성화 함수, 레이어 수 및 크기 등)를 선택하여 훨씬 더 나은 결과를 얻습니다. 추정.

실제 거래에서 새 데이터를 예측하려면 5가지 모델을 각각 예측하고 5가지 결과에 대해 평균을 찾으면 이것이 새 데이터에 대한 최종 예측이 됩니다.

추신 접기의 수는 수십 개를 취하는 것이 더 낫습니다. 이 예에서는 설명의 편의를 위해 5개만 사용합니다.

 

범주를 얻고 발견하는 특별한 유형은 원인 + 조건 → 결과의 유추에 의한 작업입니다. 여기서 결과는 원인과 조건이 결합될 때만 발생합니다. 이 연산을 부분과 전체의 범주에 적용하면 필요한 조건의 역할을 하는 구조의 범주를 찾을 수 있다: 부분 + 구조 → 전체, 즉 해당 구조적 조건 없이는 전체를 얻을 수 없으며, 산은 단순히 평면 위에 놓여 있는 한 충분한 수의 모래 알갱이에서 얻을 수 없습니다. 요소 시스템을 얻기 위한 필요 조건은 요소 간의 관계와 연결입니다. 요소 + 연결 → 시스템. 형태의 의의는 단순한 재봉바늘에서 재봉틀 바늘로 옮겨갔을 때, 눈이 바늘끝으로 옮겨졌을 때 크게 나타났다. 바늘의 새로운 품질의 출현을 위해서는 모양 + 구성 → 품질의 구성 변경이 필요했습니다. 이 예는 시스템의 반대 방향 개발에 관한 법칙의 작동을 동시에 보여줍니다. 품질의 변화가 반드시 양의 변화를 요구하지는 않습니다.

 

은닉 요소의 최적 개수는 경험적으로 해결해야 하는 특정 문제입니다. 그러나 일반적인 규칙은 숨겨진 뉴런이 많을수록 과적합의 위험이 높다는 것입니다. 이 경우 시스템은 데이터의 가능성을 연구하지 않지만 패턴 자체와 포함된 노이즈를 그대로 기억합니다. 이러한 네트워크는 샘플에서는 잘 수행되고 샘플 외부에서는 제대로 수행되지 않습니다. 어떻게 과적합을 피할 수 있습니까? 두 가지 인기 있는 방법이 있습니다. 조기 중지와 정규화입니다. 저자는 글로벌 검색과 관련된 자신의 것을 선호합니다.

이 부분의 이야기를 요약해보자. 네트워크 크기를 조정하는 가장 좋은 방법은 Occam의 원칙을 따르는 것입니다. 즉, 성능이 동일한 두 모델의 경우 매개변수가 적은 모델이 더 성공적으로 일반화됩니다. 그렇다고 해서 성능 향상을 위해 단순한 모델을 선택해야 하는 것은 아닙니다. 그 반대가 사실입니다. 숨겨진 뉴런과 레이어가 많다고 해서 우월성이 보장되는 것은 아닙니다. 오늘날에는 대규모 네트워크에 너무 많은 관심을 기울이고 있으며 개발 원칙에 대해서는 거의 관심을 기울이지 않습니다. 더 많은 것이 항상 더 나은 것은 아닙니다.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...
사유: