트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 607

[삭제]  
마법사_ :

DAO에 대한 지식에 대해 이야기합시다, uh, TAU))))


아니, 아니.. DAO밖에 없어...

 
마법사_ :

패키지 learningCurve, R, 학습 곡선.

뉴런의 수를 계산하는 데 어떻게 도움이 될까요?
[삭제]  
도서관 :
뉴런의 수를 계산하는 데 어떻게 도움이 될까요?

오류가 급격히 떨어지는 것을 멈추면 훈련을 중단하십시오. :)

 
막심 드미트리예프스키 :

오류가 급격히 떨어지는 것을 멈추면 훈련을 중단하십시오. :)

이미 정의된 구조로 네트워크를 훈련하고 오류를 볼 수만 있습니다. 그리고 먼저 구조를 정의해야 합니다. 이미 오류를 관찰할 수 있는 뉴런의 수입니다.

저것들. 문제는 훈련 전 learningCurve가 최적의 뉴런 수를 결정하는 데 어떻게 도움이 되는지입니다.

글쎄, 또는 다른 방법.

[삭제]  
도서관 :

이미 정의된 구조로 네트워크를 훈련하고 오류를 볼 수만 있습니다. 그리고 먼저 구조를 정의해야 합니다. 이미 오류를 관찰할 수 있는 뉴런의 수입니다.

저것들. 문제는 훈련 전 learningCurve가 최적의 뉴런 수를 결정하는 데 어떻게 도움이 되는지입니다.

글쎄, 또는 다른 방법.


거기에서 숫자는 더 이상 중요하지 않다는 것이 밝혀졌습니다. 오류가 더 이상 떨어지지 않을 때 훈련이 중지되고 재훈련이 발생하지 않습니다. 저것들. 뉴런은 분명히 많은 수

내가 올바르게 이해했다면.

[삭제]  
마법사_ :

DAO에 대한 지식에 대해 이야기합시다, uh, TAU))))


인지의 상대성은 많은 이유와 관련이 있으며, 그 중 우선 동일한 현상에 대한 인식 및 이해의 행동에 대한 의식의 다른 준비를 언급해야 하며, 이는 인식의 일관성 없는 결과(반응, 의사 결정, 행동 등).

 
막심 드미트리예프스키 :

거기에서 숫자는 더 이상 중요하지 않다는 것이 밝혀졌습니다. 오류가 더 이상 떨어지지 않을 때 훈련이 중지되고 재훈련이 발생하지 않습니다. 저것들. 뉴런은 분명히 많은 수

내가 올바르게 이해했다면.

이른 정류장입니다. learningCurve 패키지와 아무런 관련이 없습니다.

Early Stopping 방식에서는 네트워크 복잡도가 최적값에 도달하는 순간 훈련을 멈춥니다. 이 순간은 유효성 검사 오류의 시간 동작으로 추정됩니다. ...

그러나 여기에는 약점도 있습니다. 너무 큰 네트워크는 비선형성이 아직 완전히 나타나지 않은 초기 단계에서 훈련을 중지합니다. 저것들. 이 기술은 약한 비선형 솔루션을 찾는 데 어려움이 있습니다.

마법사_ :

버그(2개).

자세히 적어주세요. learningCurve가 네트워크의 뉴런 수를 결정하는 데 어떻게 도움이 됩니까?

 

나는 정규화에 대해 아무 말도 할 수 없으며 실험하지 않았습니다.

그러나 조기 중단은 과적합으로 이어집니다. 이미지 인식에서는 테스트 데이터와 훈련 데이터가 매우 유사하기 때문에 여전히 롤링됩니다. 이 때문에 종종 책과 기사에서 권장됩니다. 그러나 이것은 Forex에 적합하지 않습니다.


k-fold 교차 검증을 배우는 것이 좋습니다. 나는 여러 가지 다른 방법을 보았지만 이것이 잘 작동합니다 -

우리는 다섯 가지 접기를 사용할 것입니다. 훈련 테이블에 1000개의 행이 있다고 가정해 보겠습니다.

1) 우리는 201-1000행에서 모델을 훈련합니다. 이것이 뉴런이라면 조기 중단 없이 높은 정확도를 달성하기에 충분한 특정 에포크(epoch) 수를 뉴런에게 가르칩니다. 행 1-200을 예측합니다.
2) 우리는 모델을 다시 훈련합니다. 이제 1-200 라인에서 401-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 201-400행을 예측합니다.
3) 우리는 모델을 다시 훈련합니다. 이제 1-400 라인에서 601-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 401-600행을 예측합니다.
4) 모델을 다시 훈련합니다. 이제 1-600 라인에서 801-1000과 함께 동일한 모델 매개변수를 사용하고 일반적으로 모두 동일한 설정을 사용합니다. 우리는 601-800행을 예측합니다.
5) 우리는 모델을 다시 훈련합니다. 이제 라인 1-800에서 동일한 모델 매개변수와 일반적으로 모든 동일한 설정을 사용합니다. 우리는 801-1000행을 예측합니다.

결과적으로 동일한 매개변수에 대해 동일한 학습 알고리즘으로 생성된 5개의 모델이 있습니다. 그리고 각각 모델에 대해 알려지지 않은 데이터를 기반으로 한 5개의 예측.
예측이 있는 5개의 배열이 서로 끝에 추가되어 길이가 1000인 긴 배열 하나를 얻고 R2 함수와 같은 실제 데이터와 비교하여 평가합니다. 이것은 우리의 모델, 우리가 배우는 방식 및 그 모든 것에 대한 평가가 될 것입니다.
그런 다음 이 모든 단계(5개 모델 학습, 각 모델에 고유한 5개 조각 예측, 병합, R2)를 수행할 때마다 모델 매개변수(활성화 함수, 레이어 수 및 크기 등)를 선택하여 훨씬 더 나은 결과를 얻습니다. 추정.

실제 거래에서 새 데이터를 예측하려면 5가지 모델을 각각 예측하고 5가지 결과에 대해 평균을 찾으면 이것이 새 데이터에 대한 최종 예측이 됩니다.

추신 접기의 수는 수십 개를 취하는 것이 더 낫습니다. 이 예에서는 설명의 편의를 위해 5개만 사용합니다.

[삭제]  

범주를 얻고 발견하는 특별한 유형은 원인 + 조건 → 결과의 유추에 의한 작업입니다. 여기서 결과는 원인과 조건이 결합될 때만 발생합니다. 이 연산을 부분과 전체의 범주에 적용하면 필요한 조건의 역할을 하는 구조의 범주를 찾을 수 있다: 부분 + 구조 → 전체, 즉 해당 구조적 조건 없이는 전체를 얻을 수 없으며, 산은 단순히 평면 위에 놓여 있는 한 충분한 수의 모래 알갱이에서 얻을 수 없습니다. 요소 시스템을 얻기 위한 필요 조건은 요소 간의 관계와 연결입니다. 요소 + 연결 → 시스템. 형태의 의의는 단순한 재봉바늘에서 재봉틀 바늘로 옮겨갔을 때, 눈이 바늘끝으로 옮겨졌을 때 크게 나타났다. 바늘의 새로운 품질의 출현을 위해서는 모양 + 구성 → 품질의 구성 변경이 필요했습니다. 이 예는 시스템의 반대 방향 개발에 관한 법칙의 작동을 동시에 보여줍니다. 품질의 변화가 반드시 양의 변화를 요구하지는 않습니다.

[삭제]  

은닉 요소의 최적 개수는 경험적으로 해결해야 하는 특정 문제입니다. 그러나 일반적인 규칙은 숨겨진 뉴런이 많을수록 과적합의 위험이 높다는 것입니다. 이 경우 시스템은 데이터의 가능성을 연구하지 않지만 패턴 자체와 포함된 노이즈를 그대로 기억합니다. 이러한 네트워크는 샘플에서는 잘 수행되고 샘플 외부에서는 제대로 수행되지 않습니다. 어떻게 과적합을 피할 수 있습니까? 두 가지 인기 있는 방법이 있습니다. 조기 중지와 정규화입니다. 저자는 글로벌 검색과 관련된 자신의 것을 선호합니다.

이 부분의 이야기를 요약해보자. 네트워크 크기를 조정하는 가장 좋은 방법은 Occam의 원칙을 따르는 것입니다. 즉, 성능이 동일한 두 모델의 경우 매개변수가 적은 모델이 더 성공적으로 일반화됩니다. 그렇다고 해서 성능 향상을 위해 단순한 모델을 선택해야 하는 것은 아닙니다. 그 반대가 사실입니다. 숨겨진 뉴런과 레이어가 많다고 해서 우월성이 보장되는 것은 아닙니다. 오늘날에는 대규모 네트워크에 너무 많은 관심을 기울이고 있으며 개발 원칙에 대해서는 거의 관심을 기울이지 않습니다. 더 많은 것이 항상 더 나은 것은 아닙니다.


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...