트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 493

 
막심 드미트리예프스키 :

당신은 울프 포워드가 필요합니다. 그렇게 최적화할 수는 없습니다. 이 경우 포워드는 항상 나쁜(또는 무작위) 것입니다. 당신이 진출하는 시장의 단계에 따라 저는 이미 그런 버전을 많이 가지고 있습니다. 앞으로 동전처럼 작동하는 10억 달러 백테스트 시스템) 이것을 과적합이라고 합니다.

롤포워드 중에 시스템 매개변수를 선택하는 알고리즘이 있습니까?
매월 오프셋이 포함된 12개의 최적화를 받았고 매월 최고의 입력을 받았습니다. 매개변수는 다른 달의 매개변수와 다릅니다. 그리고 일을 위해 어떤 것을 선택해야합니까?
 
도서관 :
롤포워드 중에 시스템 매개변수를 선택하는 알고리즘이 있습니까?
매월 오프셋이 포함된 12개의 최적화를 받았고 매월 최고의 입력을 받았습니다. 매개변수는 다른 달의 매개변수와 다릅니다. 그리고 일을 위해 어떤 것을 선택해야합니까?

나는 그것을 정확하게 넣지 않았습니다. 나는 "그와 같은 것"을 의미했습니다. 일부 최적화 기준 이 있는 자체 최적화 시스템 및 최적화 프로그램으로 동일한 NN을 사용할 수 있습니다.

 
도서관 :
롤포워드 중에 시스템 매개변수를 선택하는 알고리즘이 있습니까?
매월 오프셋이 포함된 12개의 최적화를 받았고 매월 최고의 입력을 받았습니다. 매개변수는 다른 달의 매개변수와 다릅니다. 그리고 일을 위해 어떤 것을 선택해야합니까?
그건 그렇고, 최적화와 훈련에 대해. 중간 조작을 고려하지 않고 23시간이 걸립니다. 각 패스(여러 에포크임) 후에 훈련 샘플을 변경합니다. 아니요, 섞지 않고 변경합니다. 즉, 동일한 사진을 보여주지 않습니다. 학습 과정에서 반복되는 샘플이 없습니다.
 
유리 아사울렌코 :
그건 그렇고, 최적화와 훈련에 대해. 중간 조작을 고려하지 않고 23시간이 걸립니다. 각 패스(여러 에포크임) 후에 훈련 샘플을 변경합니다. 아니요, 섞지 않고 변경합니다. 즉, 동일한 사진을 보여주지 않습니다. 학습 과정에서 반복되는 샘플이 없습니다.

특정 최적화 알고리즘은 무엇입니까? 동일하지만 L-BFGS 알고리즘을 사용하면 몇 배 더 빠를 것입니다.

고정 단계가 있는 간단한 경사 하강법이 있는 경우 NN은 100배 더 빠르게 학습합니다. 예를 들어 23시간이 아니라 10분(모든 일반 사람들처럼) :))


비교는 다음과 같습니다.

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
막심 드미트리예프스키 :

특정 최적화 알고리즘은 무엇입니까? 동일하지만 L-BFGS 알고리즘을 사용하면 몇 배 더 빠를 것입니다.

고정 단계가 있는 간단한 경사 하강법이 있는 경우 NN은 100배 더 빠르게 학습합니다. 예를 들어 23시간이 아니라 10분(모든 일반 사람들처럼) :))

비교는 다음과 같습니다.

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

고마워, 내가 읽을게.

최적화가 아니라 학습에 가깝습니다. 간단하지 않습니다. 이미 작성 - 수동 어닐링 시뮬레이션이 있는 표준 PSU.

일부 알고리즘이 더 나을 수도 있지만 개발 환경에 있는 것만 사용합니다. 그 외, 외부적인 것이 문제입니다.

일반적으로 속도는 그다지 중요하지 않습니다. 3개월에 한 번 훈련하면 일반적으로 23시간이 적당합니다. 그러나 3개월간의 테스트에서는 악화가 관찰되지 않았습니다. 아마도 더 오래 작동합니다.

 
유리 아사울렌코 :

최적화가 아니라 학습에 가깝습니다. 간단하지 않습니다. 이미 작성 - 수동 어닐링 시뮬레이션이 있는 표준 PSU.

일부 알고리즘이 더 나을 수도 있지만 개발 환경에 있는 것만 사용합니다. 그 외 외부적인 것이 문제입니다.


차이가 없습니다. 훈련은 목표 기능의 최적화입니다.

확실히, 그들은 어닐링에 대해 썼습니다. 나는 아직 익숙하지 않습니다. 나는 그것을 읽을 것입니다

 
막심 드미트리예프스키 :

차이가 없습니다. 훈련은 목표 기능의 최적화입니다.

훈련 중 목적 함수가 없습니다. 즉, 훈련 시퀀스에 초기 분류가 없습니다.) 스스로 잘 모르는 선생님과 구구단을 배우는 것과 같습니다. 국회 자체가 찾는 곳이 어딘지 모르겠다. 따라서 더 빠른 학습은 성공할 가능성이 낮습니다.
 
막심 드미트리예프스키 :

차이가 없습니다. 훈련은 목표 기능의 최적화입니다.

확실히, 그들은 어닐링에 대해 썼습니다. 나는 아직 익숙하지 않습니다. 나는 그것을 읽을 것입니다

예, 어닐링은 N epoch 후에 훈련 매개변수를 변경하여 수동으로 시뮬레이션됩니다. 또한 훈련 시퀀스가 완전히 대체됩니다(혼합되지 않음, 즉 대체됨).
 
유리 아사울렌코 :
예, 어닐링은 N epoch 후에 훈련 매개변수를 변경하여 수동으로 시뮬레이션됩니다. 또한 훈련 시퀀스가 완전히 대체됩니다(혼합되지 않음, 즉 대체됨).

멋진 것이지만 그러한 NS에 대한 자세한 내용은 어디에서 읽을 수 있습니까? 저것들. 선생님이 없는 것 같지만 여전히 출구에 뭔가를 제출합니까?

 
막심 드미트리예프스키 :

멋진 것이지만 그러한 NS에 대한 자세한 내용은 어디에서 읽을 수 있습니까? 저것들. 선생님이 없는 것 같지만 여전히 출구에 뭔가를 제출합니까?

Haykin 이론 Neural networks and Bishop 영어로 읽기 - 번역은 없지만 준비 중인 것 같습니다.

예, 모든 것이 간단합니다. 입구에서 무작위 거래, 출구에서 결과. 몬테카를로 방식이라고 하는데 아주 좋습니다. 자체가 빠르지 않습니다. 그리고 체계화는 국회 자체의 문제다.