트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 630

 
유리 아사울렌코 :
나는 말하지 않겠지만 이것이 환상인 것 같습니다. 단지 일반적인 이유 때문입니다.
왜, Vladimir Perervenko는 그의 기사에서 정보를 얻었습니다. 그들은 매우 잘 공부합니다. 수백 개의 입력에서 빠르게
 
막심 드미트리예프스키 :
왜, Vladimir Perevenko는 그의 기사에서 정보를 얻었습니다. 그들은 공부를 아주 잘합니다. 수백 개의 입력에서 빠르게

나는 기사를 읽지 않았고 논쟁하지 않을 것입니다. 사진만 봤습니다.

MLP는 10-15분이면 완벽하게 훈련할 수 있으며 완벽하게 작동합니다. 예, 하지만 데이터가 잘 분류되면 집합이 분리됩니다.

하지만 그렇지 않다면 - 오! 예를 들어 시장(또는 훈련 샘플)에 분리 가능한 세트가 없다면 원하는 대로 영원히 훈련하십시오. 결과가 없을 것입니다.

 
막심 드미트리예프스키 :
왜, Vladimir Perevenko는 그의 기사에서 정보를 얻었습니다. 그들은 공부를 아주 잘합니다. 수백 개의 입력에서 빠르게

이는 모두 아키텍처와 데이터 양에 따라 다릅니다.
패턴 인식을 위한 네트워크는 GPU에서 일주일을 배웁니다. 그리고 3차원 텐서가 있는 수십 개의 레이어가 있습니다.

 
알렉세이 테렌테프 :

이는 모두 아키텍처와 데이터 양에 따라 다릅니다.
패턴 인식을 위한 네트워크는 GPU에서 일주일을 배웁니다. 그리고 3차원 텐서가 있는 수십 개의 레이어가 있습니다.

예를 들어 Boltzmann network + MLP와 같이 더 간단한 것을 설명했습니다.

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
유리 아사울렌코 :

나는 기사를 읽지 않았고 논쟁하지 않을 것입니다. 사진만 봤습니다.

MLP는 10-15분이면 완벽하게 훈련할 수 있으며 완벽하게 작동합니다. 예, 하지만 데이터가 잘 분류되면 집합이 분리됩니다.

하지만 그렇지 않다면 - 오! 예를 들어 시장(또는 훈련 샘플)에 분리 가능한 세트가 없다면 원하는 대로 영원히 훈련하십시오. 결과가 없을 것입니다.

그냥 "과학적 지식"을 위한 실험을 해보자.
데이터, 차원, MLP 아키텍처, 출력 데이터를 선택합시다.
그리고 모든 사람은 자신의 도구를 사용하여 자체 테스트를 수행합니다.

화염의 수가 줄어들 것입니다.
그건 그렇고, 당신은 그러한 전통을 시작하고 전 세계와 함께 각각의 새로운 아키텍처를 테스트할 수 있습니다. =)

 
알렉세이 테렌테프 :

그냥 "과학적 지식"을 위한 실험을 해보자.
데이터, 차원, MLP 아키텍처, 출력 데이터를 선택합시다.
그리고 모든 사람은 자신의 도구를 사용하여 자체 테스트를 수행합니다.

화염의 수가 줄어들 것입니다.
그건 그렇고, 당신은 그러한 전통을 시작하고 전 세계와 함께 각각의 새로운 아키텍처를 테스트할 수 있습니다. =)

제가 너무 약해서 걱정입니다.) 추상적인 문제를 푸는 데 요점이 없다고 생각합니다. 그리고 의견 교환은 전혀 불꽃이 아닙니다. 나는 이 불꽃에서 꺼냈어 Pts. 많은. 또한 다른 방향으로 갔다.) 그리고 화염 없이 m. 그래서 주위를 찔렀다.
 

내 NS의 첫 번째 결과를 공유합니다. 건축은 하나님께서 말씀하신 대로이며 변한 것이 없습니다.

고원은 매우 평평하고 NN은 이미 1000번째 패스에서 잘 학습했지만 결과는 많이 개선되지 않았습니다.

나는 지난 달에 15분에 공부했다. 교육 비용 ~0.65$ 월간 거래 수 ~300

지난 2개월간의 결과는 좋지도 나쁘지도 않았다.

다른 은닉층을 추가하고 더 많은 오류를 찾으려고 노력할 것입니다 :) 그런 다음 더 오랜 기간 동안 훈련을 시도할 것입니다.

 

막심 드미트리예프스키 :
왜, Vladimir Perervenko는 그의 기사에서 정보를 얻었습니다. 그들은 매우 잘 공부합니다. 수백 개의 입력에서 빠르게


모든 기사는 재현할 수 있는 데이터 세트와 스크립트를 제공하고 특히 하드웨어에서 훈련 시간에 대한 실제 데이터를 얻을 수 있습니다. 2개의 은닉층이 있는 DNN의 훈련 시간은 최대 1분입니다.

행운을 빕니다

 
알렉세이 테렌테프 :

그냥 "과학적 지식"을 위한 실험을 해보자.
데이터, 차원, MLP 아키텍처, 출력 데이터를 선택합시다.
그리고 모든 사람은 자신의 도구를 사용하여 자체 테스트를 수행합니다.

화염의 수가 줄어들 것입니다.
그건 그렇고, 당신은 그러한 전통을 시작하고 전 세계와 함께 각각의 새로운 아키텍처를 테스트할 수 있습니다. =)

예를 보여주세요. 시작
 
막심 드미트리예프스키 :

내 NS의 첫 번째 결과를 공유합니다. 건축은 하나님께서 말씀하신 대로이며 변한 것이 없습니다.

고원은 매우 평평하고 NN은 이미 1000번째 패스에서 잘 학습했지만 결과는 많이 개선되지 않았습니다.

나는 지난 달에 15분에 공부했다. 교육 비용 ~0.65$ 월간 거래 수 ~300

지난 2개월간의 결과는 좋지도 나쁘지도 않았다.

다른 은닉층을 추가하고 더 많은 오류를 찾으려고 노력할 것입니다 :) 그런 다음 더 오랜 기간 동안 훈련을 시도할 것입니다.

두 번째 레이어의 입력에서 sigmoid에 의해 처리되는 3개의 뉴런이 있습니까? 두 번째 레이어에서 가중치를 어떻게 선택합니까? 예를 들어 0.1 단위로 -1에서 1까지의 범위가 선택됩니다.

내 네트워크에서는 두 번째 레이어에서 처리한 후 트랜잭션 수가 줄어들고 결과가 많이 개선되지 않았습니다. 9개의 입력과 1개의 출력 뉴런이 있는 퍼프세트론을 단순히 조정한 다음 다른 독립 퍼프세트론을 가져와서 첫 번째의 저장된 설정 등으로 다시 조정하는 것과 대조적입니다.

사유: