안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))
안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))
분류(softmax)를 위해 alglib의 NN 앙상블과 함께 NN 및 kfold와 함께 연주, 첫인상:
1. LBFGS는 LM보다 훨씬 빠르게 학습합니다(두 번째를 기다리는 것은 일반적으로 비현실적임). 앙상블 없이 하나의 NS를 위해
2. kfold는 항상 큰 학습 오류를 보여 10은 말할 것도 없고 2개의 폴드로도 작동하지 않습니다. 제 작업에는 그다지 적합하지 않지만 다시 시도하겠습니다.
3. 배깅 및 LBFGS 알고리즘을 기반으로 하는 NN 앙상블은 품질 면에서 숲의 앙상블과 유사하지만 더 느리게 학습합니다.
3. 검증 세트가 있는 얼리 스톱 기반 앙상블(제 생각에는 LM이 사용됨): 학습할 때까지 기다릴 수 없습니다.
4. 조정 매개변수(단계, 재시작 횟수)는 가시적인 개선을 제공하지 않습니다. 뉴런 수가 2-3배 증가하면 약간의 개선이 이루어집니다.
5. 일반적으로 NS가 Forest와 같은 방식으로 재훈련된다는 인상이 있었는데, NS의 앙상블은 Forest의 위원회보다 약간 적게 재훈련한다.
이 모든 것은 예를 들어 나중에 탐색할 xgboost와 나중에 비교하기 위해 수행되었습니다.
++ 스태킹 모델은 나에게 더 많은 안정성을 제공하지 않았습니다. 동일한 방식으로 학습합니다. 때때로 모델이 단순히 더 많이 학습한다는 사실 때문에 기차에서 결과를 개선할 수 있습니다.
안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))
안녕하세요, 주제에서 조금 벗어났습니다. 어떻게 든 포럼에서 다른 사람과의 서신을 찾았습니다. Microsoft에서 어떤 프로그램을 통해 도움을 주는지 논의했습니다. (F1 키를 눌렀을 때 나타나는 것). 검색을 통해 보다 편리한 형태로 코드 옵션을 수집할 수 있는 방법은 무엇입니까? 다시 말씀해 주십시오. (내가 틀리지 않았으면 좋겠고 너였으면 좋겠어)))
내 생각에는 내가 아니었다) 기억나지 않는다
내 생각에는 내가 아니었다) 기억나지 않는다
미안해요, 미안해요))))
미안해요, 미안해요))))
도움말 및 수동 시도.
ATP가 필요한 것에 대해
안녕하세요 ))
여기에서 검색하는 동안 우리는 이미 러시아의 획기적인 요소인 RPE를 만들었습니다.
이것은 "다섯 번째 요소"입니다. 성배, 철학자의 돌, 진사, 기 시스템, 알고리즘화 분야에서 우리 과학 전문가의 성과입니다.
이제 모든 경제 및 금융 프로젝트 는 RPE에 대한 심층 신경 분석을 통해 최적화됩니다.
저것들. 미래에는 경제적 돌파구를 통해 1루블이 1달러와 같을 것입니다.
우리는 함께 밝은 미래를 향해 나아가고 있습니다!
안녕하세요 ))
....
그리고 당신은 아마도 이 천재 팀 출신인가요? 내부자 유출? 잠깐, 보통, 강하지 않은 마음은 이해하지 못할 수도 있습니다)
분류(softmax)를 위해 alglib의 NN 앙상블과 함께 NN 및 kfold와 함께 연주, 첫인상:
1. LBFGS는 LM보다 훨씬 빠르게 학습합니다(두 번째를 기다리는 것은 일반적으로 비현실적임). 앙상블 없이 하나의 NS를 위해
2. kfold는 항상 큰 학습 오류를 보여 10은 말할 것도 없고 2개의 폴드로도 작동하지 않습니다. 제 작업에는 그다지 적합하지 않지만 다시 시도하겠습니다.
3. 배깅 및 LBFGS 알고리즘을 기반으로 하는 NN 앙상블은 품질 면에서 숲의 앙상블과 유사하지만 더 느리게 학습합니다.
3. 검증 세트가 있는 얼리 스톱 기반 앙상블(제 생각에는 LM이 사용됨): 학습할 때까지 기다릴 수 없습니다.
4. 조정 매개변수(단계, 재시작 횟수)는 가시적인 개선을 제공하지 않습니다. 뉴런 수가 2-3배 증가하면 약간의 개선이 이루어집니다.
5. 일반적으로 NS가 Forest와 같은 방식으로 재훈련된다는 인상이 있었는데, NS의 앙상블은 Forest의 위원회보다 약간 적게 재훈련한다.
이 모든 것은 예를 들어 나중에 탐색할 xgboost와 비교하기 위해 수행되었습니다.
++ 스태킹 모델은 나에게 더 많은 안정성을 제공하지 않았습니다. 동일한 방식으로 학습합니다. 때때로 모델이 단순히 더 많이 학습한다는 사실 때문에 기차에서 결과를 개선할 수 있습니다.
나는 또한 당신이 가지고 노는 장난감의 이름을 알고 싶습니다.
나는 또한 당신이 가지고 노는 장난감의 이름을 알고 싶습니다.
MT5로 이식된 alglib 수치 분석 라이브러리입니다. Zayuzal은 이미 널리 퍼져 있고 일반적으로 잼이없고 좋습니다. 그러나 시각화 및 최신 현대 모델 없이는. lib가 더 이상 개발되지 않는 것 같고 사이트가 조용합니다.