조기 중지를 사용한 신경망 훈련(기본 알고리즘 - 정규화가 포함된 L-BFGS). ... 유효성 검사 세트 오류가 오랫동안 증가하면 알고리즘이 중지됩니다. 충분하거나 단계 크기가 충분히 작습니다(다음과 같은 작업이 있습니다. 검증 세트는 영원히 감소할 수 있습니다. 어떤 경우에도 솔루션 반환된 값은 최소 유효성 검사 세트 오류에 해당합니다.
실제 거래에서 막대는 자체 순서에 따라 이동하고 1시간 및 1일 전의 막대와 혼합되지 않기 때문에 뭔가 잘못된 것 같습니다. 그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
네트워크에 500개 이상의 링크가 있습니까? 그들은 뉴런이 적은 경우 L-BFGS가 LM보다 덜 효과적이라고 씁니다.
Возможно ли создать советник, который согласно командам кода автоматически оптимизировал бы критерии открытия и закрытия позиций с определенной периодичностью? Что произойдет, если реализовать в советнике нейросеть (многослойный персептрон), которая, будучи модулем, анализировала бы историю и оценивала стратегию? Можно дать коду команду на ежемесячную (еженедельную, ежедневную или ежечасную) оптимизацию нейросети с последующим продолжением работы. Таким образом возможно создать самооптимизирующийся советник.
훈련(80%) 세그먼트의 평균 오류 = 0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 검증(20%) 영역의 평균 오차 = 0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 테스트(20%) 섹션의 평균 오차 = 0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
검증 사이트에 조정이 있었던 것 같습니다. 테스트 1은 일반적으로 성공적이지만 훈련 중이 아니었고 비교되지도 않았으며 분명히 우연의 일치였습니다. 앙상블은 동일한 기능을 고려하고 구분이 2/3이고 모든 것이 두 섹션 사이에 혼합되어 있습니다. 동일한 작업을 수행하려고합니다 ... 셔플:
훈련(60%) 세그먼트의 평균 오류 = 0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 검증(40%) 사이트의 평균 오류 =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 테스트(20%) 영역의 평균 오차 = 0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
혼합으로 인해 교육 및 검증 영역에서 오류가 평준화되었습니다. 그리고 시험에서 그것은 더 나빠졌습니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고, 그 다음 중간에, 그 다음 끝 부분에 있습니다. 그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
얼마나 많은 훈련/검증 주기를 수행해야 합니까? 어디에서 이것에 대한 정보를 본 적이 없습니다 ... 총 1주기? - 그리고 그 직후에 우리는 예측자 세트 또는 네트워크 체계에서 무언가를 승인하거나 변경합니까? 보다 정확하게는 N개의 훈련 주기에 대해 하나의 최상의 훈련 주기가 표시됩니다.
테스트 섹션 2는 평결입니다. 일치하지 않으면 처음부터 다시 시작합니다. 가급적이면 예측 변수 세트로 시작합니다.
훈련(80%) 세그먼트의 평균 오류 = 0.535 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 검증(20%) 영역의 평균 오차 = 0.298 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.497 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6 테스트(20%) 섹션의 평균 오차 = 0.132 nLearns=200 NGrad=142782 NHess=0 NCholesky=0 codResp=6
검증 사이트에 조정이 있었던 것 같습니다. 테스트 1은 일반적으로 성공적이지만 훈련 중이 아니었고 비교되지도 않았으며 분명히 우연의 일치였습니다. 앙상블은 동일한 기능을 고려하고 구분이 2/3이고 모든 것이 두 섹션 사이에 혼합되어 있습니다. 동일한 작업을 수행하려고합니다 ... 셔플:
훈련(60%) 세그먼트의 평균 오류 = 0.477 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 검증(40%) 사이트의 평균 오류 =0.472 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 전체 사이트(교육 + 검증): 평균 학습 오차=0.475 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6 테스트(20%) 영역의 평균 오차 = 0.279 nLearns=10 NGrad=10814 NHess=0 NCholesky=0 codResp=6
혼합으로 인해 교육 및 검증 영역에서 오류가 평준화되었습니다. 그리고 시험에서 그것은 더 나빠졌습니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고, 그 다음 중간에, 그 다음 끝 부분에 있습니다. 그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
1. 제 생각에는 아무 것도 배울 수 없습니다. 대상 변수와 아무 관련이 없는 예측 변수에 대한 임의의 결과일 뿐입니다.
2. 혼합.
나는 NS를 모른다.
그러나 다른 많은 ML 알고리즘에서 훈련은 정확히 한 줄에서 수행됩니다. 각 예측 변수의 하나의 값이 취해지며 대상 변수가 할당됩니다. 따라서 혼합은 중요하지 않습니다. 이웃을 고려하는 MO 알고리즘이 있습니다.
그러나 어쨌든 우리의 관점은 일치하고 처음에는 항상 테스트 2에서 섞지 않고 테스트합니다.
추신.
다시.
두 개의 서로 다른 샘플에 대한 오류가 사용자의 오류와 같으면 시스템이 이상값에 대해서만 희망이 없다는 것을 의미합니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고 그 다음 중간에, 그 다음 끝 부분에 있습니다. 그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오. 이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망 을 훈련할 때 각 미니배치는 신경망을 공급하기 전에 혼합됩니다.
유효성 검사 사이트가 있는 조기 중지 방법에 의해 ALGLIB 교육에서 발견됨:
실제 거래에서 막대는 자체 순서에 따라 이동하고 1시간 및 1일 전의 막대와 혼합되지 않기 때문에 뭔가 잘못된 것 같습니다.
그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
네트워크에 500개 이상의 링크가 있습니까? 그들은 뉴런이 적은 경우 L-BFGS가 LM보다 덜 효과적이라고 씁니다.
네트워크에 500개 이상의 링크가 있습니까? 그들은 뉴런이 적은 경우 L-BFGS가 LM보다 덜 효과적이라고 씁니다.
지금까지는 시간을 절약하기 위해-개발 단계에서 모든 것을 완료하는 즉시 예측 변수 및 네트워크 다이어그램을 검색하는 데 이미 전력을 다할 것입니다.
완전히 이해했을 때 기사를 쓸 수 있습니까? :) Alglib 뉴런에 대한 좋은 기사가 없고, 소화하기 어렵게 번역된 기사가 있습니다.
NS에 대한 설명(Alglib에 대한 일반적인 참조조차 찾지 못했기 때문에)과 훈련/재훈련, 봇에서 자동 최적화 의 예와 같은 기사. 글쎄, 그게 나야, 나는 공부할 정보가 충분하지 않다는 것을 깨달았다. 대가를 치르기도 하는 것 같다) 시간을 헛되이 보내지 말라
완전히 이해했을 때 기사를 쓸 수 있습니까? :) Alglib 뉴런에 대한 좋은 기사가 없고, 소화하기 어렵게 번역된 기사가 있습니다.
NS에 대한 설명(Alglib에 대한 일반적인 참조조차 찾지 못했기 때문에)과 봇에서 훈련/재훈련, 자동 최적화의 예와 같은 기사. 글쎄, 그게 나야, 나는 공부할 정보가 충분하지 않다는 것을 깨달았다. 대가를 치르기도 하는 것 같다) 시간을 헛되이 보내지 말라
나는 https://www.mql5.com/ru/articles/2279를 기초로 삼았다. 8시간 동안 작동 상태에 이르렀습니다. 나는 대부분의 프로그래머가 더 많은 시간을 들이지 않을 것이라고 생각합니다.
이제 마무리하고 추가하는 데 일주일이 걸립니다. 옵션, 테스트 등
그럴 가능성은 거의 없습니다. 기사에 대한 시간을 100% 찾지 못할 것입니다. 게다가 나 자신은 이제 막 국회를 이해하기 시작하고 있기 때문에 현명하고 새로운 말을 할 수 없습니다.
나는 https://www.mql5.com/ru/articles/2279를 기초로 삼았다. 8시간 동안 작동 상태에 이르렀습니다. 나는 대부분의 프로그래머가 더 많은 시간을 들이지 않을 것이라고 생각합니다.
이제 마무리하고 추가하는 데 일주일이 걸립니다. 옵션, 테스트 등
나는 여전히 베이지안 분류기 + 유전학, 좋은 결과를 찾고 있습니다. Grid는 어딘지 모르게 흐릿하고 뉘앙스가 많아
예, 나는 같은 기사에 대해 이야기하고 있습니다. 비록 프로그래머보다 상인이지만 소화하기 어려워 보였습니다)
혼합되지 않은 데이터에 대한 조기 중지 교육:
검증 사이트에 조정이 있었던 것 같습니다. 테스트 1은 일반적으로 성공적이지만 훈련 중이 아니었고 비교되지도 않았으며 분명히 우연의 일치였습니다.
혼합으로 인해 교육 및 검증 영역에서 오류가 평준화되었습니다.앙상블은 동일한 기능을 고려하고 구분이 2/3이고 모든 것이 두 섹션 사이에 혼합되어 있습니다. 동일한 작업을 수행하려고합니다 ...
셔플:
그리고 시험에서 그것은 더 나빠졌습니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고, 그 다음 중간에, 그 다음 끝 부분에 있습니다.
그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
4개의 플롯을 얻었습니까? 교육/검증/테스트1/테스트2 ?
얼마나 많은 훈련/검증 주기를 수행해야 합니까? 어디에서 이것에 대한 정보를 본 적이 없습니다 ... 총 1주기? - 그리고 그 직후에 우리는 예측자 세트 또는 네트워크 체계에서 무언가를 승인하거나 변경합니까? 보다 정확하게는 N개의 훈련 주기에 대해 하나의 최상의 훈련 주기가 표시됩니다.
테스트 섹션 2는 평결입니다. 일치하지 않으면 처음부터 다시 시작합니다. 가급적이면 예측 변수 세트로 시작합니다.
추신.
그건 그렇고, HARDWARE의 최종 판정 인 테스터가 아직 있습니다.
결과를 혼합하는 상황은 여전히 불분명했습니다.
혼합되지 않은 데이터에 대한 조기 중지 교육:
검증 사이트에 조정이 있었던 것 같습니다. 테스트 1은 일반적으로 성공적이지만 훈련 중이 아니었고 비교되지도 않았으며 분명히 우연의 일치였습니다.
혼합으로 인해 교육 및 검증 영역에서 오류가 평준화되었습니다.앙상블은 동일한 기능을 고려하고 구분이 2/3이고 모든 것이 두 섹션 사이에 혼합되어 있습니다. 동일한 작업을 수행하려고합니다 ...
셔플:
그리고 시험에서 그것은 더 나빠졌습니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고, 그 다음 중간에, 그 다음 끝 부분에 있습니다.
그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
1. 제 생각에는 아무 것도 배울 수 없습니다. 대상 변수와 아무 관련이 없는 예측 변수에 대한 임의의 결과일 뿐입니다.
2. 혼합.
나는 NS를 모른다.
그러나 다른 많은 ML 알고리즘에서 훈련은 정확히 한 줄에서 수행됩니다. 각 예측 변수의 하나의 값이 취해지며 대상 변수가 할당됩니다. 따라서 혼합은 중요하지 않습니다. 이웃을 고려하는 MO 알고리즘이 있습니다.
그러나 어쨌든 우리의 관점은 일치하고 처음에는 항상 테스트 2에서 섞지 않고 테스트합니다.
추신.
다시.
두 개의 서로 다른 샘플에 대한 오류가 사용자의 오류와 같으면 시스템이 이상값에 대해서만 희망이 없다는 것을 의미합니다.
인터넷이라는 바닥 없는 오물 웅덩이를 헤매다가 우연히 그런 종이 한 장을 발견했습니다.
Artificial Neural Networks architectures for stock price prediction:comparisons and applications
즉 - 주식 예측을 위한 NN 아키텍처 - 비교 및 적용
결과를 혼합하는 상황은 여전히 불분명했습니다.
데이터를 혼합한 다음 이를 교육 및 검증으로 나누는 것이 잘못된 것 같습니다. 실제 거래에서 막대는 자체 순서대로 이동하고 한 시간, 하루 또는 일주일 전의 막대와 혼합되지 않기 때문입니다. 유사하게 교차 검증 알고리즘의 경우 검증 섹션이 시작 부분에 있고 그 다음 중간에, 그 다음 끝 부분에 있습니다.그리고 시장의 "특성"이 바뀌면 NN의 새로운 모델을 다시 배우거나 찾아야 합니다.
그리고 마지막 섹션에서 혼합 및 유효성 검사를 수행하지 않으면 이 섹션에 적합하지 않은 방법은 무엇입니까?
train/test/valid로 분할한 후 train 을 섞 습니다. 다른 세트를 혼합하지 마십시오.
이것은 신경망에 의한 분류에 유효합니다. 또한 심층 신경망 을 훈련할 때 각 미니배치는 신경망을 공급하기 전에 혼합됩니다.
행운을 빕니다