"New Neural"은 MetaTrader 5 플랫폼용 신경망 엔진의 오픈 소스 프로젝트입니다. - 페이지 69

 
더엑스퍼트 :
감사합니다 :) 마지막 찌르기.

차라리 하나의 구현을 취하고 그것을 완벽하게 만들려고 노력할 것입니다.

규모 면에서 나는 유전학(명시적으로 지정된 목적 기능이 없는 작업 클래스)과 경쟁하지 않을 수 있지만 사용 및 훈련의 효율성 면에서는 ...

매우 올바른 결정입니다. 일부 프로젝트 가 여기에 표시되지만 이미 많은 개발을 수행했을 것이고 프로젝트가 나타나지 않으면 결과를 제공할 것입니다.

이 접근 방식을 사용하는 사람들은 프로젝트가 중단되지 않을 가능성이 더 큽니다.

사라지지 말고, 작업을 게시하고, 질문을 하십시오. 그러면 누가 버클을 채울지 알 수 있습니다.

 
우크라이나 :

사라지지 말고, 작업을 게시하고, 질문을 하십시오. 그러면 누가 버클을 채울지 알 수 있습니다.

예, 어떤 발전이 있습니까? 완료되는 대로 포스팅하겠습니다.

C++ 구현이 있습니다. 필요한 것은 몇 가지를 이동하고 업그레이드하는 것입니다.

 
이반두락 :

젠장, 적어도 침을 뱉을 것이고, 그것을 완전히 무시하는 것은 심지어 모욕적입니다. 조언을 위해 YES 또는 NO를 요청받았습니다.

만약 (예) 나는 스마트 북을 읽으러 갈 것입니다.

그렇지 않으면 다른 것을 사용하고 주어진 방향으로 걷어차십시오.

Nikolai , 내가 최근에 클러스터링에 대해 준 책을 여기에 던지십시오. 그렇지 않으면 라이브러리를 다시 긁어 모을 수 있습니다.
 
이반두락 :

좋은 하루, 주제가 아닙니다. 조언이 필요합니다.

그 자신이 나를 위해 일을 정했습니다. 현재 순간의 적응 시간 창을 선택해야 하며 매개변수(예: 10bar)에서 설정하지 않아야 합니다. 그런 다음 기록을 자세히 살펴보고 선택한 창이 속한 클러스터를 결정합니다. 신경망이 이에 대처할 수 있습니까?   또는 더 간단한 것. 실례가 되지 않는다면 소세지 수준에서만 그리드에 책을 던지십시오.

나는 소시지 수준에서 그들이 말하는 것처럼 부자가 무엇인지 모릅니다.

클러스터링 및 분류는 네트워크가 가장 잘 해결하는 작업입니다.

근사는 더 나쁠 뿐 아니라 정상이지만 외삽은 일반적으로 엄격합니다. 그것은 모두 구현에 달려 있지만.

파일:
 
우크라이나 :

나는 소시지 수준에서 그들이 말하는 것처럼 부자가 무엇인지 모릅니다.

클러스터링 및 분류는 네트워크가 가장 잘 해결하는 작업입니다.

근사는 더 나쁠 뿐 아니라 정상이지만 외삽은 일반적으로 엄격합니다. 그것은 모두 구현에 달려 있지만.

나는 화강암을 g아 먹을 것입니다.
 
유샤 :
...

학습은 네트워크 자체 외부의 프로세스입니다.

...

그런 다음 완전성을 위해 학습은 외부 프로세스일 뿐만 아니라 본질적으로 내부 프로세스이기도 합니다. 가중치뿐만 아니라 중간 계산 데이터 및 토폴로지 속성에도 액세스할 수 있기 때문입니다.

그리고 그것이 종종 네트워크의 내부 프로세스에 기인하는 것은 학습 프로세스의 이러한 속성 때문입니다.

그들은 네트워크가 학습 과정에 대한 내부 정보를 공개하고 일반적으로 환경에는 숨겨야 한다는 결론에 도달했습니다.

이러한 상황에서 논리적인 움직임은 필요한 경우 네트워크 자체를 훈련 셸에 래핑하는 것입니다.

따라서 메서드가 있는 외부 네트워크 개체가 있습니다.

  • 초기화
  • 일하는 뇌졸중
  • 교육

워크플로 메서드는 네트워크와 함께 제공되며, 훈련 메서드는 훈련 셸에 래핑된 네트워크와 함께 제공되며, 캡슐화의 논리적 연속은 두 개의 워크플로 및 훈련 메서드 대신 선택 플래그가 있는 하나의 메서드를 제공하는 것입니다.

 
우크라이나 :

따라서 메서드가 있는 외부 네트워크 개체가 있습니다.

  • 초기화
  • 일하는 뇌졸중
  • 교육

워크플로 메서드는 네트워크와 함께 제공되며, 훈련 메서드는 훈련 셸에 래핑된 네트워크와 함께 제공되며, 캡슐화의 논리적 연속은 두 개의 워크플로 및 훈련 메서드 대신 선택 플래그가 있는 하나의 메서드를 제공하는 것입니다.

가장 일반적인 경우 네트워크에는 하나의 run() 메서드가 있어야 합니다.

출력 뉴런의 계산을 수행하고 입력이 이미 초기화되었다고 가정합니다.

"Teacher"는 훈련 매개변수로 초기화되고 제어에서 훈련 가능한 객체를 수신하는 별도의 객체입니다.

좋은 방법으로, 우리는 이 객체가 이 방법으로 훈련될 수 있는지 여부를 확인할 검증인도 필요합니다.

그러나 이 모든 것을 일반적인 경우에 공식화하기는 어렵습니다.

따라서 최종 사용자의 경우 네트워크 + 피트니스 기능 + 교사 형식의 표준 고정 구조를 구성할 수 있으며 계층의 뉴런 수와 같은 일부 매개변수만 구성할 수 있습니다.

네트워크는 학습 과정에 대한 내부 정보를 공개해야 하며 환경에는 숨겨야 합니다.

동의한다. 전부는 아니지만 일부 훈련 방법은 네트워크 내부에 거의 완전한 액세스를 필요로 합니다.

 

유샤 :

...

전부는 아니지만 일부 훈련 방법은 네트워크 내부에 거의 완전한 액세스를 필요로 합니다.

그것이 캐치입니다. 일부 방법은 네트워크가 공개될 뿐만 아니라 방법에 대해 올바르게 구성되어야 합니다.

즉, 메서드 자체가 특정 네트워크를 위해 특별히 작성되었습니다. 음, 범용 엔진의 프레임워크 내에서 이러한 방법을 구현하는 요점은 무엇입니까?

Andrey가 이 모든 것을 코딩하도록 하는 것이 좋습니다. 범용 엔진에 대한 하나의 범용 교육 방법인 GA를 봅니다.

남아 있는 것은 모든 토폴로지에 대한 범용 엔진의 아이디어, 모든 토폴로지에 대한 범용 초기화 방법에 대한 아이디어, 이 모든 것에 대한 범용 자습서로서의 GA입니다.

전문가들은 새로운 유형의 뉴런, 즉 표준이지만 아직 설명되지 않았거나 비표준으로 구현하기 쉽습니다.

마이너스에서 훈련하는 방법은 단 하나뿐입니다.

누군가가 스레드를 끝내고 다른 교수법을 모두 밀어넣는 방법을 완성하면 훌륭하겠지만 지금은 그럴 것입니다.

 
우크라이나 :

남아 있는 것은 모든 토폴로지에 대한 범용 엔진의 아이디어, 모든 토폴로지에 대한 범용 초기화 방법에 대한 아이디어, 이 모든 것에 대한 범용 자습서로서의 GA입니다.

전문가들은 새로운 유형의 뉴런, 즉 표준이지만 아직 설명되지 않았거나 비표준으로 구현하기 쉽습니다.

마이너스에서 훈련하는 방법은 단 하나뿐입니다.

같은 생각을 해서 같은 결론을 내렸습니다.

그리고 GA가 주요 학습 알고리즘이 되면서 병렬 컴퓨팅의 필요성이 시급하다.

이것이 GPU가 들어오는 곳입니다.

Параллельные вычисления в MetaTrader 5 штатными средствами
Параллельные вычисления в MetaTrader 5 штатными средствами
  • 2010.11.24
  • Andrew
  • www.mql5.com
Время является неизменной ценностью на протяжении всей истории человечества, и мы стремимся не расходовать его понапрасну. Из этой статьи вы узнаете, как можно ускорить работу вашего эксперта, если у вашего компьютера многоядерный процессор. Причем, реализация описываемого метода не требует знания каких-либо еще языков кроме MQL5.
 
유샤 :

같은 생각을 해서 같은 결론을 내렸습니다.

그리고 GA가 주요 학습 알고리즘이 되면서 병렬 컴퓨팅의 필요성이 시급하다.

이것이 GPU가 들어오는 곳입니다.

글쎄요, 사실 제 모델의 GPU는 신경망을 계산하는 단계에서 떠올랐는데, 제가 앞서 쓴 것을 잘 읽어보면 제 유니버설 네트워크 모델에서는 처리 자체가 레이어로 나뉘는 반면 뉴런은 그렇지 않다는 것을 알 수 있습니다. 공식적으로는 계층으로 결합되지만(소속 여부에 따라) 사실(계층에는 메모리가 있지만 뉴런에는 없기 때문에 뉴런은 계층에 어디에서 왜까지 정보를 제공하는 정보 개체일 뿐입니다.) 따라서 병렬 처리는 엔진의 구조 자체에 의해 결정됩니다(계층 내부의 정보 자체가 병렬로 처리됨). 나는 이미 훈련된 GA NN을 수행했으며 가장 큰 성능 히트는 NN 계산(특히 대규모 네트워크에서)이었습니다. 뭐, 광고로 말하자면 joo 가 제안한 UGA의 경우 NS를 배우는 것은 사소한 문제라고 할 수 있습니다.

그러나 FF의 계산도 병렬화하는 것으로 판명되면(GA에 대한 NS는 FF의 일부임), 저는 모두 찬성합니다. 이게 쉬운 일이 아니라고 생각하지만 레이어에서 간단한 작업이 수행되고 FF의 계산은 다소 복잡한 시퀀스를 포함할 수 있습니다.